1er décembre 2025
1er décembre 2025
Nous publions ce rapport sur la transparence deux fois par an afin de fournir des informations sur les efforts de Snap en matière de sécurité. Dans le cadre de notre engagement en faveur de la sécurité et de la transparence, nous nous efforçons continuellement de rendre ces rapports plus complets et informatifs pour les nombreux acteurs soucieux de notre modération de contenu, de nos pratiques d'application de la loi et de la sécurité et du bien-être de la communauté Snapchat.
Le présent rapport sur la transparence couvre le premier semestre 2025 (1er janvier - 30 juin). Nous partageons des données mondiales sur les signalements d'utilisateurs et la détection proactive par Snap, les mesures d'application par nos équipes Safety dans des catégories spécifiques de violations des règles communautaires, la façon dont nous avons répondu aux demandes des services de police et des gouvernements et la façon dont nous avons répondu aux avis de violation de droits d'auteur et de marque déposée. Nous fournissons également des informations spécifiques par pays dans une série de pages liées.
Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos des rapports sur la transparence au bas de la page.
Veuillez noter que la version la plus à jour de ce rapport sur la transparence est la version anglaise.
Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires
Nos équipes Safety appliquent nos règles communautaires de manière proactive (grâce à l'utilisation d'outils de détection automatisée) et réactive (en réponse à des signalements), comme détaillé dans les sections suivantes du présent rapport. Au cours de ce cycle de reporting (1er semestre 2025), nos équipes Safety ont pris les mesures suivantes :
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
9 674 414
5 794 201
Vous trouverez ci-dessous les différents types de violations des Règles communautaires concernées, ainsi que le délai moyen entre la détection de la violation (soit de manière proactive, soit à la réception d'un signalement) et la mise en œuvre d'une mesure définitive sur le contenu ou le compte en question :
Raison de la politique
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Délai d'exécution moyen (minutes) entre la détection et l'action finale
Contenu à caractère sexuel
5 461 419
3 233 077
1
Exploitation et abus sexuels des enfants
1 095 424
733 106
5
Harcèlement et intimidation
713 448
594 302
3
Menaces et violence
187 653
146 564
3
Automutilation et suicide
47 643
41 216
5
Fausses informations
2 088
2 004
1
Usurpation d'identité
7 138
6 881
<1
Spam
267 299
189 344
1
Drogues
1 095 765
726 251
7
Armes
251 243
173 381
1
Autres marchandises réglementées
183 236
126 952
4
Discours haineux
343 051
284 817
6
Terrorisme et extrémisme violent
10 970
6 783
2
Les données relatives au nombre total de mesures d'application incluent celles prises par Snap après examen des signalements soumis via Snapchat. Cela représente la grande majorité des mesures prises par les équipes Safety de Snap. Ce nombre ne tient pas compte de la plupart des mesures d'application prises à la suite d'enquêtes basées sur des signalements adressés à Snap via notre site d'assistance ou d'autres moyens (par exemple par e-mail), ainsi que certaines enquêtes proactives menées par nos équipes Safety. Les mesures d'application concernées par ces exclusions représentaient moins de 0,5 % de l'ensemble des mesures prises au premier semestre 2025.
Au cours de la période couverte par le rapport, nous avons constaté un taux de vues non conformes (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de Story sur Snapchat, une comportait un contenu jugé contraire à nos règles communautaires. Parmi les mesures d'application concernant les « Préjudices graves », nous avons observé un taux de contestation (VVR) de 0,0003 %. Le tableau ci-dessous présente une répartition des taux de contestation par motif de politique.
Raison de la politique
VVR
Contenu à caractère sexuel
0,00482 %
Exploitation et abus sexuels des enfants
0,00096 %
Harcèlement et intimidation
0,00099 %
Menaces et violence
0,00176 %
Automutilation et suicide
0,00009 %
Fausses informations
0,00002 %
Usurpation d'identité
0,00009 %
Spam
0,00060 %
Drogues
0,00047 %
Armes
0,00083 %
Autres marchandises réglementées
0,00104 %
Discours haineux
0,00025 %
Terrorisme et extrémisme violent
0,00002 %
Violations des Règles communautaires signalées à nos équipes Trust & Safety
Du 1er janvier au 30 juin 2025, suite à 19 766 324 signalements de violations effectués dans l'application de nos Règles communautaires, les équipes Safety de Snap ont pris un total de 6 278 446 mesures à travers le monde entier, notamment des mesures visant 4 104 624 comptes individuels. Ce volume de signalements effectués dans l'application ne comprend pas ceux transmis via le site d'assistance ou par e-mail, lesquels représentent moins de 1 % du volume total de signalements. Nos équipes Safety ont mis en moyenne environ deux minutes pour appliquer une mesure après réception de ces signalements. Vous trouverez ci-après une répartition par motif de politique. (Remarque : dans les rapports précédents, nous parlions parfois de « catégorie de signalement ». Nous privilégions désormais le terme « motif politique », jugé plus représentatif des données, car nos équipes Safety veillent à appliquer la politique adéquate, quel que soit le motif de signalement choisi par l'utilisateur.)
Nombre total de signalements sur le contenu et les comptes
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Total
19 766 324
6 278 446
4 104 624
Raison de la politique
Nombre total de signalements sur le contenu et les comptes
Total des mesures d'exécution
Pourcentage du contenu total mis en œuvre par Snap
Nombre total de comptes uniques sanctionnés
Délai d'exécution moyen (minutes) entre la détection et l'action finale
Contenu à caractère sexuel
7 315 730
3 778 370
60,2 %
2 463 464
1
Exploitation et abus sexuels des enfants
1 627 097
695 679
11,1 %
577 736
10
Harcèlement et intimidation
4 103 797
700 731
11,2 %
584 762
3
Menaces et violence
997 346
147 162
2,3 %
120 397
2
Automutilation et suicide
350 775
41 150
0,7 %
36 657
3
Fausses informations
606 979
2 027
0,0 %
1 960
1
Usurpation d'identité
745 874
7 086
0,1 %
6 837
<1
Spam
1 709 559
122 499
2,0 %
94 837
1
Drogues
481 830
262 962
4,2 %
176 799
5
Armes
271 586
39 366
0,6 %
32 316
1
Autres marchandises réglementées
530 449
143 098
2,3 %
98 023
3
Discours haineux
817 262
337 263
5,4 %
280 682
6
Terrorisme et extrémisme violent
208 040
1 053
0,0 %
912
2
Au cours du premier semestre 2025, nous avons continué à réduire les délais moyens de traitement pour toutes les catégories de politiques, les abaissant de plus de 75 % en moyenne par rapport à la période précédente, pour atteindre deux minutes. Cette réduction est en grande partie le résultat d'un effort soutenu visant à améliorer la priorisation des signalements à examiner, en tenant compte de la gravité des préjudices et de l'utilisation de mécanismes d'examen automatisé.
Nous avons également apporté plusieurs modifications ciblées à nos actions en matière de sécurité au cours de la période de reporting, ce qui a eu un impact sur les données présentées ici, notamment en renforçant nos politiques relatives aux activités illicites impliquant des armes. Nous avons constaté une augmentation des signalements et des interventions dans la catégorie Exploitation sexuelle des mineurs, due essentiellement à une hausse des contenus à caractère sexuel ou sensible impliquant des mineurs, qui enfreignent nos politiques, mais ne sont pas illégaux aux États-Unis ni soumis à un signalement au National Center for Missing and Exploited Children (NCMEC). L'augmentation du volume de contenus à caractère sexuel (et la baisse de celui lié au harcèlement) s'explique par le reclassement des contenus liés au harcèlement sexuel de la catégorie Harcèlement à la catégorie Contenu sexuel.
Nos efforts proactifs de détection et de lutte contre les violations de nos Règles communautaires
Nous utilisons des outils automatisés pour détecter de manière proactive et, dans certains cas, pour lutter contre les violations de nos règles communautaires. Ces outils comprennent une technologie de hachage (notamment PhotoDNA et la correspondance d'images d'abus sexuels sur des enfants (CSAI) de Google), l'API de sécurité des contenus de Google et d'autres technologies propriétaires conçues pour détecter les textes et contenus illégaux et violents, s'appuyant parfois sur l'intelligence artificielle l'apprentissage automatique. Nos données relatives à la détection proactive connaissent des variations continues, liées aux évolutions des usages, aux améliorations techniques de nos mécanismes de détection et aux mises à jour de nos politiques.
Durant le premier semestre 2025, nous avons pris les mesures d'application suivantes après avoir détecté de manière proactive des violations de nos règles communautaires grâce à des outils de détection automatisée :
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Total
3 395 968
1 709 224
Raison de la politique
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Délai d'exécution moyen (minutes) entre la détection et l'action finale
Contenu à caractère sexuel
1 683 045
887 059
0
Exploitation et abus sexuels des enfants
399 756
162 017
2
Harcèlement et intimidation
12 716
10 412
8
Menaces et violence
40 489
27 662
6
Automutilation et suicide
6 493
4 638
7
Fausses informations
61
44
20
Usurpation d'identité
52
44
34
Spam
144 800
96 500
0
Drogues
832 803
578 738
7
Armes
211 877
144 455
0
Autres marchandises réglementées
40 139
31 408
8
Discours haineux
5 788
4 518
6
Terrorisme et extrémisme violent
9 917
5 899
5
La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos Règles communautaires. La prévention, la détection et l'éradication du CSEA sur notre plateforme sont une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Nous utilisons des outils de détection technologique active pour aider à identifier les contenus liés au CSEA. Ces outils comprennent des outils de correspondance de hachage (notamment PhotoDNA et CSAI Match de Google, pour identifier des images et des vidéos illégales connues de CSEA) et l'API de sécurité des contenus Google (pour identifier de nouvelles images illégales « jamais hachées auparavant » ). En outre, dans certains cas, nous utilisons des signaux comportementaux pour lutter contre d'autres activités suspectées de CSEA. Nous signalons le contenu lié au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC se coordonne ensuite avec les services nationaux ou internationaux chargés de l'application de la loi, au besoin.
Durant le deuxième semestre 2025, nous avons pris les mesures suivantes lors de l'identification d'un CSEA sur Snapchat (soit de manière proactive, soit à la réception d'un signalement) :
Nombre total de contenus sanctionnés
Nombre total de comptes désactivés
Nombre total de soumissions au NCMEC*
994 337
187 387
321 587
*Notez que chaque soumission au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné.
Nos efforts pour fournir des ressources et une assistance aux Snapchatters dans le besoin
Snapchat permet aux amis de s'entraider dans les moments difficiles en fournissant des ressources et une assistance aux Snapchatters dans le besoin.
Notre outil de recherche Here For You fournit des ressources élaborées par des experts lorsque les utilisateurs recherchent des sujets liés à la santé mentale, à l'anxiété, à la dépression, au stress, aux pensées suicidaires, au deuil et au harcèlement. Nous avons également créé une page consacrée à la lutte contre le chantage sexuel à motivation financière et les autres risques ou préjudices sexuels, afin d'apporter notre soutien aux personnes en détresse.
Lorsque nos équipes Safety identifient un Snapchatter en détresse, elles sont en mesure de proposer des ressources de prévention de l'automutilation et de soutien, ainsi que de prévenir les services d'urgence si nécessaire. Les ressources que nous partageons figurent sur notre liste mondiale de ressources de sécurité, accessible publiquement à tous les Snapchatters via notre Centre sur la protection de la vie privée, la sécurité et les politiques.
Nombre total de fois où des ressources sur le suicide ont été partagées.
36 162
Appels
Voici un aperçu des demandes de recours reçues de la part d'utilisateurs qui ont contesté la fermeture de leur compte durant le premier semestre 2025 :
Raison de la politique
Nombre total d'appels
Nombre total de réintégrations
Nombre total de décisions appliquées
Délai médian (jours) pour traiter les appels
Total
437 855
22 142
415 494
1
Contenu à caractère sexuel
134 358
6 175
128 035
1
Exploitation et abus sexuels des enfants*
89 493
4 179
85 314
<1
Harcèlement et intimidation
42 779
281
42 496
1
Menaces et violence
3 987
77
3 909
1
Automutilation et suicide
145
2
143
1
Fausses informations
4
0
4
1
Usurpation d'identité
1 063
33
1 030
<1
Spam
13 730
3 140
10 590
1
Drogues
128 222
7 749
120 409
1
Armes
10 941
314
10 626
1
Autres marchandises réglementées
9 719
124
9 593
1
Discours haineux
3 310
67
3 242
1
Terrorisme et extrémisme violent
104
1
103
1
Aperçu régional et national
Cette section fournit un aperçu des actions de nos équipes Safety pour faire respecter nos règles communautaires, de manière proactive et en réponse à des signalements de violations dans l'application, dans un échantillon de régions géographiques. Nos règles communautaires s'appliquent à tout le contenu de Snapchat – et à tous les Snapchatters – à travers le monde, peu importe leur localisation.
Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.
Région
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Amérique du Nord
3 468 315
2 046 888
Europe
2 815 474
1 810 223
Reste du monde
3 390 625
1 937 090
Total
9 674 414
5 794 201
Région
Signalements sur le contenu et les comptes
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Amérique du Nord
5 762 412
2 125 819
1 359 763
Europe
5 961 962
2 144 828
1 440 907
Reste du monde
8 041 950
2 007 799
1 316 070
Total
19 766 324
6 278 446
4 116 740
Région
Total des mesures d'exécution
Nombre total de comptes uniques sanctionnés
Amérique du Nord
1 342 496
785 067
Europe
670 646
422 012
Reste du monde
1 382 826
696 364
Total
3 395 968
1 709 224
Modération des publicités
Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques Publicitaires. Nous croyons en une approche responsable de la publicité, qui crée une expérience sûre pour tous les Snapchatters. Toutes les publicités sont vérifiées et soumises à notre approbation. En outre, nous nous réservons le droit de supprimer les publicités, y compris en réponse aux commentaires des utilisateurs, que nous prenons au sérieux.
Nous avons inclus ci-dessous des informations sur notre modération des publicités payantes qui nous sont signalées après leur publication sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les Politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours de haine et la violation de la propriété intellectuelle. Par ailleurs, vous pouvez trouver la galerie de publicités de Snapchat sur values.snap.com sous l’onglet « Transparence ».
Nombre total de publicités signalées
Nombre total de publicités supprimées
67 789
16 410

























