20 juin 2025
1er juillet 2025
Nous publions ce rapport sur la transparence deux fois par an afin de fournir des informations sur les efforts de Snap en matière de sécurité. Dans le cadre de notre engagement en faveur de la sécurité et de la transparence, nous nous efforçons en permanence de rendre ces rapports plus complets et plus informatifs pour les nombreuses parties prenantes qui se soucient profondément de notre modération de contenu, de nos pratiques d'application de la loi et de la sécurité et du bien-être de la communauté Snapchat.
Ce rapport sur la transparence couvre le deuxième semestre 2024 (du 1er juillet au 31 décembre). Nous partageons des données mondiales sur les signalements d'utilisateurs et la détection proactive par Snap, les mesures d'application par nos équipes Safety dans des catégories spécifiques de violations des règles communautaires, la façon dont nous avons répondu aux demandes des services de police et des gouvernements et la façon dont nous avons répondu aux avis de violation de droits d'auteur et de marque déposée. Nous fournissons également des informations spécifiques par pays dans une série de pages liées.
Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos des rapports sur la transparence au bas de la page.
Veuillez noter que la version la plus à jour de ce rapport sur la transparence est la version anglaise.
Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires
Nos équipes Safety appliquent nos règles communautaires de manière proactive (grâce à l'utilisation d'outils de détection automatisée) et réactive (en réponse à des signalements), comme détaillé dans les sections suivantes du présent rapport. Dans ce cycle de rapports (deuxième semestre 2024), nos équipes Safety ont pris les nombres de mesures suivants :
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
10 032 110
5 698 212
Vous trouverez ci-dessous une ventilation par type de violations des règles communautaires concernées, y compris le délai médian entre le moment où nous avons détecté la violation (soit de manière proactive, soit à la réception d'un signalement) et le moment où nous avons pris des mesures définitives sur le contenu ou le compte en question :
Raison de la politique
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Délai d'exécution moyen (minutes) entre la détection et l'action finale
Contenu à caractère sexuel
3 860 331
2 099 512
2
Exploitation sexuelle d'enfants
961 359
577 682
23
Harcèlement et intimidation
2 716 966
2 019 439
7
Menaces et violence
199 920
156 578
8
Automutilation et suicide
15 910
14 445
10
Fausses informations
6 539
6 176
1
Usurpation d'identité
8 798
8 575
2
Pourriel
357 999
248 090
1
Médicaments
1 113 629
718 952
6
Armes
211 860
136 953
1
Autres marchandises réglementées
247 535
177 643
8
Discours haineux
324 478
272 025
27
Terrorisme et extrémisme violent
6 786
4 010
5
Au cours de la période couverte par le rapport, nous avons constaté un taux de vues non conformes (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de Story sur Snapchat, une comportait un contenu jugé contraire à nos règles communautaires.
Violations des Règles communautaires signalées à nos équipes Trust & Safety
Du 1er juillet au 31 décembre 2024, en réponse à des signalements de violations de nos règles communautaires dans l'application, les équipes de sécurité de Snap ont pris un total de 6 346 508 mesures d'application dans le monde entier, y compris des mesures d'application concernant 4 075 838 comptes uniques. Le délai moyen de nos équipes Safety concernant les mesures de sanctions en réponse à ces signalements était d'environ 6 minutes. Une ventilation par catégorie de signalement est fournie ci-dessous.
Nombre total de signalements sur le contenu et les comptes
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
19 379 848
6 346 508
4 075 838
Raison de la politique
Signalements sur le contenu et les comptes
Total des mesures d'exécution
% du contenu total mis en œuvre par Snap
Nombre total de comptes uniques sanctionnés
Délai d'exécution moyen (minutes) entre la détection et l'action finale
Contenu à caractère sexuel
5 251 375
2 042 044
32,20 %
1 387 749
4
Exploitation sexuelle d'enfants
1 224 502
469 389
7,40 %
393 384
133
Harcèlement et intimidation
6 377 555
2 702 024
42,60 %
2 009 573
7
Menaces et violence
1 000 713
156 295
2,50 %
129 077
8
Automutilation et suicide
307 660
15 149
0,20 %
13 885
10
Fausses informations
536 886
6 454
0,10 %
6 095
1
Usurpation d'identité
678 717
8 790
0,10 %
8 569
2
Pourriel
1 770 216
180 849
2,80 %
140 267
1
Médicaments
418 431
244 451
3,90 %
159 452
23
Armes
240 767
6 473
0,10 %
5 252
1
Autres marchandises réglementées
606 882
199 255
3,10 %
143 560
8
Discours haineux
768 705
314 134
4,90 %
263 923
27
Terrorisme et extrémisme violent
197 439
1 201
<0,1 %
1 093
4
Par comparaison avec la période de rapport précédente, nous avons réduit de 90 % en moyenne les délais de traitement médians dans toutes les catégories de politiques. Cette réduction était due en grande partie à un effort concerté pour accroître notre capacité d'examen et pour améliorer notre hiérarchisation des signalements en fonction de la gravité du préjudice. Nous avons également apporté plusieurs modifications ciblées à nos efforts de sécurité durant la période de rapport, qui ont eu un impact sur les données signalées ici, notamment l'intensification de nos efforts pour faire respecter les règles relatives aux noms d'utilisateur et aux noms d'affichage qui enfreignent nos règles communautaires, l'introduction de signalements et de protections accrus pour les communautés sur Snapchat et l'introduction d'options de signalement pour des types de médias supplémentaires, tels que les notes vocales, qui nous sont directement transmises dans l'application.
Ces modifications, ainsi que d'autres efforts de sécurité et de forces externes, ont particulièrement affecté certains domaines de politique par comparaison avec la période de rapport précédente. Ces catégories de politiques comprennent : les contenus liés aux soupçons d'exploitation et d'abus sexuels sur des enfants (CSEA), les fausses informations nocives et le spam. Plus particulièrement :
CSEA : durant le deuxième semestre 2024, nous avons observé une diminution de 12 % des signalements liés au CSEA et réduit de 99 % notre délai de réponse médian aux CSEA signalés. Ces tendances sont largement motivées par les progrès continus de nos efforts de détection proactive, qui nous ont permis de supprimer les contenus de CSEA avant qu'ils ne nous soient signalés et par les améliorations que nous avons apportées à nos processus d'examen et de prise de mesures plus efficaces concernant les signalements de CSEA. Même avec ces améliorations, notre délai de traitement des CSEA est plus élevé que dans d'autres domaines de politique, car le contenu est soumis à un processus spécialisé qui comprend un double examen par une équipe sélectionnée d'agents spécialement formés.
Fausses informations nocives : nous avons observé une augmentation de 26 % du volume de signalements liés aux fausses informations nocives, principalement motivée par des événements politiques, y compris les élections américaines de novembre 2024.
Spam : durant cette période de rapport, nous avons enregistré une diminution d'environ 50 % du nombre total de mesures d'application et une diminution d'environ 46 % du nombre total de comptes uniques sanctionnés en réponse à des signalements de soupçon de spam, ce qui reflète les améliorations apportées à nos outils de détection proactive et d'application. Il s'agit d'une poursuite de nos efforts pour cibler les spams grâce à des signaux de compte et pour supprimer les acteurs de spams dès qu'ils commencent leur activité sur la plateforme. Cet effort était déjà en cours dans le dernier rapport, durant laquelle le nombre total d'applications et le nombre total de comptes uniques sanctionnés pour spam ont diminué de ~65 % et de ~60 %, respectivement.
Nos efforts proactifs de détection et de lutte contre les violations de nos Règles communautaires
Nous utilisons des outils automatisés pour détecter de manière proactive et, dans certains cas, pour lutter contre les violations de nos règles communautaires. Ces outils comprennent une technologie de hachage (notamment PhotoDNA et la correspondance d'images d'abus sexuels sur des enfants (CSAI) de Google), l'API de sécurité des contenus de Google et d'autres technologies personnalisées conçues pour détecter des textes et des médias abusifs, en tirant parfois parti de l'intelligence artificielle et de l'apprentissage automatique.
Durant le deuxième semestre 2024, nous avons pris les mesures d'application suivantes après avoir détecté de manière proactive des violations de nos règles communautaires grâce à des outils de détection automatisée :
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
3 685 602
1 845 125
Raison de la politique
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Délai d'exécution moyen (minutes) entre la détection et l'action finale
Contenu à caractère sexuel
1 818 287
828 590
<1
Exploitation sexuelle d'enfants
491 970
188 877
1
Harcèlement et intimidation
14 942
11 234
8
Menaces et violence
43 625
29 599
9
Automutilation et suicide
761
624
9
Fausses informations
85
81
10
Usurpation d'identité
8
6
19
Pourriel
177 150
110 551
<1
Médicaments
869 178
590 658
5
Armes
205 387
133 079
<1
Autres marchandises réglementées
48 280
37 028
9
Discours haineux
10 344
8 683
10
Terrorisme et extrémisme violent
5 585
2 951
21
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos Règles communautaires. La prévention, la détection et l'éradication du CSEA sur notre plateforme sont une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Nous utilisons des outils de détection technologique active pour aider à identifier les contenus liés au CSEA. Ces outils comprennent des outils de correspondance de hachage (notamment PhotoDNA et CSAI Match de Google, pour identifier respectivement des images et des vidéos illégales connues de CSEA) et l'API de sécurité des contenus Google (pour identifier de nouvelles images illégales « jamais hachées auparavant » ). En outre, dans certains cas, nous utilisons des signaux comportementaux pour lutter contre d'autres activités suspectées de CSEA. Nous signalons le contenu lié au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC se coordonne ensuite avec les services nationaux ou internationaux chargés de l'application de la loi, au besoin.
Durant le deuxième semestre 2024, nous avons pris les mesures suivantes lors de l'identification d'un CSEA sur Snapchat (soit de manière proactive, soit à la réception d'un signalement) :
Nombre total de contenus sanctionnés
Nombre total de comptes désactivés
Nombre total de soumissions au NCMEC*
1 228 929
242 306
417 842
*Notez que chaque soumission au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné.
Nos efforts pour fournir des ressources et une assistance aux Snapchatters dans le besoin
Snapchat permet aux amis de s'entraider dans les moments difficiles en fournissant des ressources et une assistance aux Snapchatters dans le besoin.
Notre outil de recherche Here For You fournit des ressources d'experts lorsque les utilisateurs recherchent certains sujets liés à la santé mentale, à l'anxiété, à la dépression, au stress, aux pensées suicidaires, au deuil et au harcèlement. Nous avons également créé une page consacrée à la sextorsion financière et aux autres risques et préjudices sexuels, afin de soutenir les personnes en détresse. Notre liste mondiale de ressources en matière de sécurité est publiquement disponible pour tous les Snapchatters, dans notre Centre de confidentialité, de sécurité et de politique.
Lorsque nos équipes Safety sont informées d'un Snapchatter en détresse, elles sont équipées pour fournir des ressources de prévention des automutilations et d'assistance, et pour alerter les services d'urgence, au besoin. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, qui est accessible à tous les Snapchatters.
Nombre total de fois où des ressources sur le suicide ont été partagées.
64 094
Appels
Nous fournissons ci-dessous des informations sur les appels que nous avons reçus d'utilisateurs demandant un examen de notre décision de bloquer leur compte durant le deuxième semestre 2024 :
Raison de la politique
Nombre total d'appels
Nombre total de réintégrations
Nombre total de décisions appliquées
Délai médian (jours) pour traiter les appels
TOTAL
493 782
35 243
458 539
5
Contenu à caractère sexuel
162 363
6 257
156 106
4
Exploitation sexuelle d'enfants
102 585
15 318
87 267
6
Harcèlement et intimidation
53 200
442
52 758
7
Menaces et violence
4 238
83
4 155
5
Automutilation et suicide
31
1
30
5
Fausses informations
3
0
3
<1
Usurpation d'identité
847
33
814
7
Pourriel
19 533
5 090
14 443
9
Drogues
133 478
7 598
125 880
4
Armes
4 678
136
4 542
6
Autres marchandises réglementées
9 153
168
8 985
6
Discours haineux
3 541
114
3 427
7
Terrorisme et extrémisme violent
132
3
129
9
Aperçu régional et national
Cette section fournit un aperçu des actions de nos équipes Safety pour faire respecter nos règles communautaires, de manière proactive et en réponse à des signalements de violations dans l'application, dans un échantillon de régions géographiques. Nos règles communautaires s'appliquent à tout le contenu de Snapchat – et à tous les Snapchatters – à travers le monde, peu importe leur localisation.
Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.
Région
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Amérique du Nord
3 828 389
2 117 048
Europe
2 807 070
1 735 054
Reste du monde
3 396 651
1 846 110
Total
10 032 110
5 698 212
Région
Signalements sur le contenu et les comptes
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Amérique du Nord
5 916 815
2 229 465
1 391 304
Europe
5 781 317
2 085 109
1 378 883
Reste du monde
7 681 716
2 031 934
1 319 934
Total
19 379 848
6 346 508
4 090 121
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Modération des publicités
Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques Publicitaires. Nous croyons en une approche responsable de la publicité, qui crée une expérience sûre pour tous les Snapchatters. Toutes les publicités sont vérifiées et soumises à notre approbation. En outre, nous nous réservons le droit de supprimer les publicités, y compris en réponse aux commentaires des utilisateurs, que nous prenons au sérieux.
Nous avons inclus ci-dessous des informations sur notre modération des publicités payantes qui nous sont signalées après leur publication sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les Politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours de haine et la violation de la propriété intellectuelle. En outre, vous pouvez désormais trouver la galerie de publicités de Snapchat dans le centre de transparence de Snap, accessible directement via la barre de navigation.
Nombre total de publicités signalées
Nombre total de publicités supprimées
43 098
17 833


