Snap Values
Rapport sur la transparence
Du 1er juillet 2024 au 31 décembre 2024

Publication :

20 juin 2025

Mise à jour :

1er juillet 2025

Nous publions ce rapport sur la transparence deux fois par an afin de fournir des informations sur les efforts de Snap en matière de sécurité. Dans le cadre de notre engagement en faveur de la sécurité et de la transparence, nous nous efforçons en permanence de rendre ces rapports plus complets et plus informatifs pour les nombreuses parties prenantes qui se soucient profondément de notre modération de contenu, de nos pratiques d'application de la loi et de la sécurité et du bien-être de la communauté Snapchat. 

Ce rapport sur la transparence couvre le deuxième semestre 2024 (du 1er juillet au 31 décembre). Nous partageons des données mondiales sur les signalements d'utilisateurs et la détection proactive par Snap, les mesures d'application par nos équipes Safety dans des catégories spécifiques de violations des règles communautaires, la façon dont nous avons répondu aux demandes des services de police et des gouvernements et la façon dont nous avons répondu aux avis de violation de droits d'auteur et de marque déposée. Nous fournissons également des informations spécifiques par pays dans une série de pages liées.

Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos des rapports sur la transparence au bas de la page.

Veuillez noter que la version la plus à jour de ce rapport sur la transparence est la version anglaise.

Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires

Nos équipes Safety appliquent nos règles communautaires de manière proactive (grâce à l'utilisation d'outils de détection automatisée) et réactive (en réponse à des signalements), comme détaillé dans les sections suivantes du présent rapport. Dans ce cycle de rapports (deuxième semestre 2024), nos équipes Safety ont pris les nombres de mesures suivants :

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

10 032 110

5 698 212

Vous trouverez ci-dessous une ventilation par type de violations des règles communautaires concernées, y compris le délai médian entre le moment où nous avons détecté la violation (soit de manière proactive, soit à la réception d'un signalement) et le moment où nous avons pris des mesures définitives sur le contenu ou le compte en question :

Raison de la politique

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Délai d'exécution moyen (minutes) entre la détection et l'action finale

Contenu à caractère sexuel

3 860 331

2 099 512

2

Exploitation sexuelle d'enfants

961 359

577 682

23

Harcèlement et intimidation

2 716 966

2 019 439

7

Menaces et violence

199 920

156 578

8

Automutilation et suicide

15 910

14 445

10

Fausses informations

6 539

6 176

1

Usurpation d'identité

8 798

8 575

2

Pourriel

357 999

248 090

1

Médicaments

1 113 629

718 952

6

Armes

211 860

136 953

1

Autres marchandises réglementées

247 535

177 643

8

Discours haineux

324 478

272 025

27

Terrorisme et extrémisme violent

6 786

4 010

5

Au cours de la période couverte par le rapport, nous avons constaté un taux de vues non conformes (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de Story sur Snapchat, une comportait un contenu jugé contraire à nos règles communautaires.

Violations des Règles communautaires signalées à nos équipes Trust & Safety

Du 1er juillet au 31 décembre 2024, en réponse à des signalements de violations de nos règles communautaires dans l'application, les équipes de sécurité de Snap ont pris un total de 6 346 508 mesures d'application dans le monde entier, y compris des mesures d'application concernant 4 075 838 comptes uniques. Le délai moyen de nos équipes Safety concernant les mesures de sanctions en réponse à ces signalements était d'environ 6 minutes. Une ventilation par catégorie de signalement est fournie ci-dessous.

Nombre total de signalements sur le contenu et les comptes

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

19 379 848

6 346 508

4 075 838

Raison de la politique

Signalements sur le contenu et les comptes

Total des mesures d'exécution

% du contenu total mis en œuvre par Snap

Nombre total de comptes uniques sanctionnés

Délai d'exécution moyen (minutes) entre la détection et l'action finale

Contenu à caractère sexuel

5 251 375

2 042 044

32,20 %

1 387 749

4

Exploitation sexuelle d'enfants

1 224 502

469 389

7,40 %

393 384

133

Harcèlement et intimidation

6 377 555

2 702 024

42,60 %

2 009 573

7

Menaces et violence

1 000 713

156 295

2,50 %

129 077

8

Automutilation et suicide

307 660

15 149

0,20 %

13 885

10

Fausses informations

536 886

6 454

0,10 %

6 095

1

Usurpation d'identité

678 717

8 790

0,10 %

8 569

2

Pourriel

1 770 216

180 849

2,80 %

140 267

1

Médicaments

418 431

244 451

3,90 %

159 452

23

Armes

240 767

6 473

0,10 %

5 252

1

Autres marchandises réglementées

606 882

199 255

3,10 %

143 560

8

Discours haineux

768 705

314 134

4,90 %

263 923

27

Terrorisme et extrémisme violent

197 439

1 201

<0,1 %

1 093

4

Par comparaison avec la période de rapport précédente, nous avons réduit de 90 % en moyenne les délais de traitement médians dans toutes les catégories de politiques. Cette réduction était due en grande partie à un effort concerté pour accroître notre capacité d'examen et pour améliorer notre hiérarchisation des signalements en fonction de la gravité du préjudice. Nous avons également apporté plusieurs modifications ciblées à nos efforts de sécurité durant la période de rapport, qui ont eu un impact sur les données signalées ici, notamment l'intensification de nos efforts pour faire respecter les règles relatives aux noms d'utilisateur et aux noms d'affichage qui enfreignent nos règles communautaires, l'introduction de signalements et de protections accrus pour les communautés sur Snapchat et l'introduction d'options de signalement pour des types de médias supplémentaires, tels que les notes vocales, qui nous sont directement transmises dans l'application. 

Ces modifications, ainsi que d'autres efforts de sécurité et de forces externes, ont particulièrement affecté certains domaines de politique par comparaison avec la période de rapport précédente. Ces catégories de politiques comprennent : les contenus liés aux soupçons d'exploitation et d'abus sexuels sur des enfants (CSEA), les fausses informations nocives et le spam. Plus particulièrement :

  • CSEA : durant le deuxième semestre 2024, nous avons observé une diminution de 12 % des signalements liés au CSEA et réduit de 99 % notre délai de réponse médian aux CSEA signalés. Ces tendances sont largement motivées par les progrès continus de nos efforts de détection proactive, qui nous ont permis de supprimer les contenus de CSEA avant qu'ils ne nous soient signalés et par les améliorations que nous avons apportées à nos processus d'examen et de prise de mesures plus efficaces concernant les signalements de CSEA. Même avec ces améliorations, notre délai de traitement des CSEA est plus élevé que dans d'autres domaines de politique, car le contenu est soumis à un processus spécialisé qui comprend un double examen par une équipe sélectionnée d'agents spécialement formés.

  • Fausses informations nocives : nous avons observé une augmentation de 26 % du volume de signalements liés aux fausses informations nocives, principalement motivée par des événements politiques, y compris les élections américaines de novembre 2024.

  • Spam : durant cette période de rapport, nous avons enregistré une diminution d'environ 50 % du nombre total de mesures d'application et une diminution d'environ 46 % du nombre total de comptes uniques sanctionnés en réponse à des signalements de soupçon de spam, ce qui reflète les améliorations apportées à nos outils de détection proactive et d'application. Il s'agit d'une poursuite de nos efforts pour cibler les spams grâce à des signaux de compte et pour supprimer les acteurs de spams dès qu'ils commencent leur activité sur la plateforme. Cet effort était déjà en cours dans le dernier rapport, durant laquelle le nombre total d'applications et le nombre total de comptes uniques sanctionnés pour spam ont diminué de ~65 % et de ~60 %, respectivement.

Nos efforts proactifs de détection et de lutte contre les violations de nos Règles communautaires

Détection et application proactive de nos Règles communautaires


Nous utilisons des outils automatisés pour détecter de manière proactive et, dans certains cas, pour lutter contre les violations de nos règles communautaires. Ces outils comprennent une technologie de hachage (notamment PhotoDNA et la correspondance d'images d'abus sexuels sur des enfants (CSAI) de Google), l'API de sécurité des contenus de Google et d'autres technologies personnalisées conçues pour détecter des textes et des médias abusifs, en tirant parfois parti de l'intelligence artificielle et de l'apprentissage automatique. 

Durant le deuxième semestre 2024, nous avons pris les mesures d'application suivantes après avoir détecté de manière proactive des violations de nos règles communautaires grâce à des outils de détection automatisée :

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

3 685 602

1 845 125

Raison de la politique

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Délai d'exécution moyen (minutes) entre la détection et l'action finale

Contenu à caractère sexuel

1 818 287

828 590

<1

Exploitation sexuelle d'enfants

491 970

188 877

1

Harcèlement et intimidation

14 942

11 234

8

Menaces et violence

43 625

29 599

9

Automutilation et suicide

761

624

9

Fausses informations

85

81

10

Usurpation d'identité

8

6

19

Pourriel

177 150

110 551

<1

Médicaments

869 178

590 658

5

Armes

205 387

133 079

<1

Autres marchandises réglementées

48 280

37 028

9

Discours haineux

10 344

8 683

10

Terrorisme et extrémisme violent

5 585

2 951

21

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants 

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos Règles communautaires. La prévention, la détection et l'éradication du CSEA sur notre plateforme sont une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.

Nous utilisons des outils de détection technologique active pour aider à identifier les contenus liés au CSEA. Ces outils comprennent des outils de correspondance de hachage (notamment PhotoDNA et CSAI Match de Google, pour identifier respectivement des images et des vidéos illégales connues de CSEA) et l'API de sécurité des contenus Google (pour identifier de nouvelles images illégales « jamais hachées auparavant » ). En outre, dans certains cas, nous utilisons des signaux comportementaux pour lutter contre d'autres activités suspectées de CSEA. Nous signalons le contenu lié au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC se coordonne ensuite avec les services nationaux ou internationaux chargés de l'application de la loi, au besoin.

Durant le deuxième semestre 2024, nous avons pris les mesures suivantes lors de l'identification d'un CSEA sur Snapchat (soit de manière proactive, soit à la réception d'un signalement) :


Nombre total de contenus sanctionnés

Nombre total de comptes désactivés

Nombre total de soumissions au NCMEC*

1 228 929

242 306

417 842

*Notez que chaque soumission au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné.

Nos efforts pour fournir des ressources et une assistance aux Snapchatters dans le besoin

Snapchat permet aux amis de s'entraider dans les moments difficiles en fournissant des ressources et une assistance aux Snapchatters dans le besoin. 

Notre outil de recherche Here For You fournit des ressources d'experts lorsque les utilisateurs recherchent certains sujets liés à la santé mentale, à l'anxiété, à la dépression, au stress, aux pensées suicidaires, au deuil et au harcèlement. Nous avons également créé une page consacrée à la sextorsion financière et aux autres risques et préjudices sexuels, afin de soutenir les personnes en détresse. Notre liste mondiale de ressources en matière de sécurité est publiquement disponible pour tous les Snapchatters, dans notre Centre de confidentialité, de sécurité et de politique. 
Lorsque nos équipes Safety sont informées d'un Snapchatter en détresse, elles sont équipées pour fournir des ressources de prévention des automutilations et d'assistance, et pour alerter les services d'urgence, au besoin. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, qui est accessible à tous les Snapchatters.

Nombre total de fois où des ressources sur le suicide ont été partagées.

64 094

Appels

Nous fournissons ci-dessous des informations sur les appels que nous avons reçus d'utilisateurs demandant un examen de notre décision de bloquer leur compte durant le deuxième semestre 2024 :

Raison de la politique

Nombre total d'appels

Nombre total de réintégrations

Nombre total de décisions appliquées

Délai médian (jours) pour traiter les appels

TOTAL

493 782

35 243

458 539

5

Contenu à caractère sexuel

162 363

6 257

156 106

4

Exploitation sexuelle d'enfants

102 585

15 318

87 267

6

Harcèlement et intimidation

53 200

442

52 758

7

Menaces et violence

4 238

83

4 155

5

Automutilation et suicide

31

1

30

5

Fausses informations

3

0

3

<1

Usurpation d'identité

847

33

814

7

Pourriel

19 533

5 090

14 443

9

Drogues

133 478

7 598

125 880

4

Armes

4 678

136

4 542

6

Autres marchandises réglementées

9 153

168

8 985

6

Discours haineux

3 541

114

3 427

7

Terrorisme et extrémisme violent

132

3

129

9

Aperçu régional et national

Cette section fournit un aperçu des actions de nos équipes Safety pour faire respecter nos règles communautaires, de manière proactive et en réponse à des signalements de violations dans l'application, dans un échantillon de régions géographiques. Nos règles communautaires s'appliquent à tout le contenu de Snapchat – et à tous les Snapchatters – à travers le monde, peu importe leur localisation.

Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.


Aperçu des actions entreprises par les équipes de notre centre de sécurité afin de faire respecter nos règles communautaires

Région

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Amérique du Nord

3 828 389

2 117 048

Europe

2 807 070

1 735 054

Reste du monde

3 396 651

1 846 110

Total

10 032 110

5 698 212

Violations des règles communautaires signalées à nos équipes Safety

Région

Signalements sur le contenu et les comptes

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Amérique du Nord

5 916 815

2 229 465

1 391 304

Europe

5 781 317

2 085 109

1 378 883

Reste du monde

7 681 716

2 031 934

1 319 934

Total

19 379 848

6 346 508

4 090 121

Détection et application proactive de nos Règles communautaires

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

1 598 924

837 012

721 961

417 218

1 364 717

613 969

3 685 602

1 868 199

Modération des publicités

Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques Publicitaires. Nous croyons en une approche responsable de la publicité, qui crée une expérience sûre pour tous les Snapchatters. Toutes les publicités sont vérifiées et soumises à notre approbation. En outre, nous nous réservons le droit de supprimer les publicités, y compris en réponse aux commentaires des utilisateurs, que nous prenons au sérieux. 


Nous avons inclus ci-dessous des informations sur notre modération des publicités payantes qui nous sont signalées après leur publication sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les Politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours de haine et la violation de la propriété intellectuelle. En outre, vous pouvez désormais trouver la galerie de publicités de Snapchat dans le centre de transparence de Snap, accessible directement via la barre de navigation.

Nombre total de publicités signalées

Nombre total de publicités supprimées

43 098

17 833