Snap Values
Rapport sur la transparence
1er janvier 2025 - 30 juin 2025

Sortie :

1er décembre 2025

Mise à jour :

1er décembre 2025

Nous publions ce rapport sur la transparence deux fois par an afin de fournir des informations sur les efforts de Snap en matière de sécurité. Dans le cadre de notre engagement en faveur de la sécurité et de la transparence, nous nous efforçons continuellement de rendre ces rapports plus complets et informatifs pour les nombreux acteurs soucieux de notre modération de contenu, de nos pratiques d'application de la loi et de la sécurité et du bien-être de la communauté Snapchat. 

Le présent rapport sur la transparence couvre le premier semestre 2025 (1er janvier - 30 juin). Nous partageons des données mondiales sur les signalements d'utilisateurs et la détection proactive par Snap, les mesures d'application par nos équipes Safety dans des catégories spécifiques de violations des règles communautaires, la façon dont nous avons répondu aux demandes des services de police et des gouvernements et la façon dont nous avons répondu aux avis de violation de droits d'auteur et de marque déposée. Nous fournissons également des informations spécifiques par pays dans une série de pages liées.

Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos des rapports sur la transparence au bas de la page.

Veuillez noter que la version la plus à jour de ce rapport sur la transparence est la version anglaise.

Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires

Nos équipes Safety appliquent nos règles communautaires de manière proactive (grâce à l'utilisation d'outils de détection automatisée) et réactive (en réponse à des signalements), comme détaillé dans les sections suivantes du présent rapport. Au cours de ce cycle de reporting (1er semestre 2025), nos équipes Safety ont pris les mesures suivantes :

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

9 674 414

5 794 201

Vous trouverez ci-dessous les différents types de violations des Règles communautaires concernées, ainsi que le délai moyen entre la détection de la violation (soit de manière proactive, soit à la réception d'un signalement) et la mise en œuvre d'une mesure définitive sur le contenu ou le compte en question :

Raison de la politique

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Délai d'exécution moyen (minutes) entre la détection et l'action finale

Contenu à caractère sexuel

5 461 419

3 233 077

1

Exploitation et abus sexuels des enfants

1 095 424

733 106

5

Harcèlement et intimidation

713 448

594 302

3

Menaces et violence

187 653

146 564

3

Automutilation et suicide

47 643

41 216

5

Fausses informations

2 088

2 004

1

Usurpation d'identité

7 138

6 881

<1

Spam

267 299

189 344

1

Drogues

1 095 765

726 251

7

Armes

251 243

173 381

1

Autres marchandises réglementées

183 236

126 952

4

Discours haineux

343 051

284 817

6

Terrorisme et extrémisme violent

10 970

6 783

2

Les données relatives au nombre total de mesures d'application incluent celles prises par Snap après examen des signalements soumis via Snapchat.  Cela représente la grande majorité des mesures prises par les équipes Safety de Snap. Ce nombre ne tient pas compte de la plupart des mesures d'application prises à la suite d'enquêtes basées sur des signalements adressés à Snap via notre site d'assistance ou d'autres moyens (par exemple par e-mail), ainsi que certaines enquêtes proactives menées par nos équipes Safety. Les mesures d'application concernées par ces exclusions représentaient moins de 0,5 % de l'ensemble des mesures prises au premier semestre 2025.

Au cours de la période couverte par le rapport, nous avons constaté un taux de vues non conformes (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de Story sur Snapchat, une comportait un contenu jugé contraire à nos règles communautaires. Parmi les mesures d'application concernant les « Préjudices graves », nous avons observé un taux de contestation (VVR) de 0,0003 %. Le tableau ci-dessous présente une répartition des taux de contestation par motif de politique.

Raison de la politique

VVR

Contenu à caractère sexuel

0,00482 %

Exploitation et abus sexuels des enfants

0,00096 %

Harcèlement et intimidation

0,00099 %

Menaces et violence

0,00176 %

Automutilation et suicide

0,00009 %

Fausses informations

0,00002 %

Usurpation d'identité

0,00009 %

Spam

0,00060 %

Drogues

0,00047 %

Armes

0,00083 %

Autres marchandises réglementées

0,00104 %

Discours haineux

0,00025 %

Terrorisme et extrémisme violent

0,00002 %

Violations des Règles communautaires signalées à nos équipes Trust & Safety

Du 1er janvier au 30 juin 2025, suite à 19 766 324 signalements de violations effectués dans l'application de nos Règles communautaires, les équipes Safety de Snap ont pris un total de 6 278 446 mesures à travers le monde entier, notamment des mesures visant 4 104 624 comptes individuels.  Ce volume de signalements effectués dans l'application ne comprend pas ceux transmis via le site d'assistance ou par e-mail, lesquels représentent moins de 1 % du volume total de signalements.  Nos équipes Safety ont mis en moyenne environ deux minutes pour appliquer une mesure après réception de ces signalements. Vous trouverez ci-après une répartition par motif de politique. (Remarque : dans les rapports précédents, nous parlions parfois de « catégorie de signalement ».  Nous privilégions désormais le terme « motif politique », jugé plus représentatif des données, car nos équipes Safety veillent à appliquer la politique adéquate, quel que soit le motif de signalement choisi par l'utilisateur.)


Nombre total de signalements sur le contenu et les comptes

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Total

19 766 324

6 278 446

4 104 624

Raison de la politique

Nombre total de signalements sur le contenu et les comptes

Total des mesures d'exécution

Pourcentage du contenu total mis en œuvre par Snap

Nombre total de comptes uniques sanctionnés

Délai d'exécution moyen (minutes) entre la détection et l'action finale

Contenu à caractère sexuel

7 315 730

3 778 370

60,2 %

2 463 464

1

Exploitation et abus sexuels des enfants

1 627 097

695 679

11,1 %

577 736

10

Harcèlement et intimidation

4 103 797

700 731

11,2 %

584 762

3

Menaces et violence

997 346

147 162

2,3 %

120 397

2

Automutilation et suicide

350 775

41 150

0,7 %

36 657

3

Fausses informations

606 979

2 027

0,0 %

1 960

1

Usurpation d'identité

745 874

7 086

0,1 %

6 837

<1

Spam

1 709 559

122 499

2,0 %

94 837

1

Drogues

481 830

262 962

4,2 %

176 799

5

Armes

271 586

39 366

0,6 %

32 316

1

Autres marchandises réglementées

530 449

143 098

2,3 %

98 023

3

Discours haineux

817 262

337 263

5,4 %

280 682

6

Terrorisme et extrémisme violent

208 040

1 053

0,0 %

912

2

Au cours du premier semestre 2025, nous avons continué à réduire les délais moyens de traitement pour toutes les catégories de politiques, les abaissant de plus de 75 % en moyenne par rapport à la période précédente, pour atteindre deux minutes. Cette réduction est en grande partie le résultat d'un effort soutenu visant à améliorer la priorisation des signalements à examiner, en tenant compte de la gravité des préjudices et de l'utilisation de mécanismes d'examen automatisé.

Nous avons également apporté plusieurs modifications ciblées à nos actions en matière de sécurité au cours de la période de reporting, ce qui a eu un impact sur les données présentées ici, notamment en renforçant nos politiques relatives aux activités illicites impliquant des armes. Nous avons constaté une augmentation des signalements et des interventions dans la catégorie Exploitation sexuelle des mineurs, due essentiellement à une hausse des contenus à caractère sexuel ou sensible impliquant des mineurs, qui enfreignent nos politiques, mais ne sont pas illégaux aux États-Unis ni soumis à un signalement au National Center for Missing and Exploited Children (NCMEC). L'augmentation du volume de contenus à caractère sexuel (et la baisse de celui lié au harcèlement) s'explique par le reclassement des contenus liés au harcèlement sexuel de la catégorie Harcèlement à la catégorie Contenu sexuel.

Nos efforts proactifs de détection et de lutte contre les violations de nos Règles communautaires

Détection et application proactive de nos Règles communautaires


Nous utilisons des outils automatisés pour détecter de manière proactive et, dans certains cas, pour lutter contre les violations de nos règles communautaires. Ces outils comprennent une technologie de hachage (notamment PhotoDNA et la correspondance d'images d'abus sexuels sur des enfants (CSAI) de Google), l'API de sécurité des contenus de Google et d'autres technologies propriétaires conçues pour détecter les textes et contenus illégaux et violents, s'appuyant parfois sur l'intelligence artificielle l'apprentissage automatique. Nos données relatives à la détection proactive connaissent des variations continues, liées aux évolutions des usages, aux améliorations techniques de nos mécanismes de détection et aux mises à jour de nos politiques.

Durant le premier semestre 2025, nous avons pris les mesures d'application suivantes après avoir détecté de manière proactive des violations de nos règles communautaires grâce à des outils de détection automatisée :


Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Total

3 395 968

1 709 224

Raison de la politique

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Délai d'exécution moyen (minutes) entre la détection et l'action finale

Contenu à caractère sexuel

1 683 045

887 059

0

Exploitation et abus sexuels des enfants

399 756

162 017

2

Harcèlement et intimidation

12 716

10 412

8

Menaces et violence

40 489

27 662

6

Automutilation et suicide

6 493

4 638

7

Fausses informations

61

44

20

Usurpation d'identité

52

44

34

Spam

144 800

96 500

0

Drogues

832 803

578 738

7

Armes

211 877

144 455

0

Autres marchandises réglementées

40 139

31 408

8

Discours haineux

5 788

4 518

6

Terrorisme et extrémisme violent

9 917

5 899

5

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos Règles communautaires. La prévention, la détection et l'éradication du CSEA sur notre plateforme sont une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.

Nous utilisons des outils de détection technologique active pour aider à identifier les contenus liés au CSEA. Ces outils comprennent des outils de correspondance de hachage (notamment PhotoDNA et CSAI Match de Google, pour identifier des images et des vidéos illégales connues de CSEA) et l'API de sécurité des contenus Google (pour identifier de nouvelles images illégales « jamais hachées auparavant » ). En outre, dans certains cas, nous utilisons des signaux comportementaux pour lutter contre d'autres activités suspectées de CSEA. Nous signalons le contenu lié au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC se coordonne ensuite avec les services nationaux ou internationaux chargés de l'application de la loi, au besoin.

Durant le deuxième semestre 2025, nous avons pris les mesures suivantes lors de l'identification d'un CSEA sur Snapchat (soit de manière proactive, soit à la réception d'un signalement) :

Nombre total de contenus sanctionnés

Nombre total de comptes désactivés

Nombre total de soumissions au NCMEC*

994 337

187 387

321 587

*Notez que chaque soumission au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné.

Nos efforts pour fournir des ressources et une assistance aux Snapchatters dans le besoin

Snapchat permet aux amis de s'entraider dans les moments difficiles en fournissant des ressources et une assistance aux Snapchatters dans le besoin. 

Notre outil de recherche Here For You fournit des ressources élaborées par des experts lorsque les utilisateurs recherchent des sujets liés à la santé mentale, à l'anxiété, à la dépression, au stress, aux pensées suicidaires, au deuil et au harcèlement. Nous avons également créé une page consacrée à la lutte contre le chantage sexuel à motivation financière et les autres risques ou préjudices sexuels, afin d'apporter notre soutien aux personnes en détresse.

Lorsque nos équipes Safety identifient un Snapchatter en détresse, elles sont en mesure de proposer des ressources de prévention de l'automutilation et de soutien, ainsi que de prévenir les services d'urgence si nécessaire. Les ressources que nous partageons figurent sur notre liste mondiale de ressources de sécurité, accessible publiquement à tous les Snapchatters via notre Centre sur la protection de la vie privée, la sécurité et les politiques.

Nombre total de fois où des ressources sur le suicide ont été partagées.

36 162

Appels

Voici un aperçu des demandes de recours reçues de la part d'utilisateurs qui ont contesté la fermeture de leur compte durant le premier semestre 2025 :

Raison de la politique

Nombre total d'appels

Nombre total de réintégrations

Nombre total de décisions appliquées

Délai médian (jours) pour traiter les appels

Total

437 855

22 142

415 494

1

Contenu à caractère sexuel

134 358

6 175

128 035

1

Exploitation et abus sexuels des enfants*

89 493

4 179

85 314

<1

Harcèlement et intimidation

42 779

281

42 496

1

Menaces et violence

3 987

77

3 909

1

Automutilation et suicide

145

2

143

1

Fausses informations

4

0

4

1

Usurpation d'identité

1 063

33

1 030

<1

Spam

13 730

3 140

10 590

1

Drogues

128 222

7 749

120 409

1

Armes

10 941

314

10 626

1

Autres marchandises réglementées

9 719

124

9 593

1

Discours haineux

3 310

67

3 242

1

Terrorisme et extrémisme violent

104

1

103

1

Aperçu régional et national

Cette section fournit un aperçu des actions de nos équipes Safety pour faire respecter nos règles communautaires, de manière proactive et en réponse à des signalements de violations dans l'application, dans un échantillon de régions géographiques. Nos règles communautaires s'appliquent à tout le contenu de Snapchat – et à tous les Snapchatters – à travers le monde, peu importe leur localisation.

Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.



Présentation des mesures prises par nos équipes Safety pour faire respecter nos Règles communautaires 

Région

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Amérique du Nord

3 468 315

2 046 888

Europe

2 815 474

1 810 223

Reste du monde

3 390 625

1 937 090

Total

9 674 414

5 794 201

Violations des règles communautaires signalées à nos équipes Safety

Région

Signalements sur le contenu et les comptes

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Amérique du Nord

5 762 412

2 125 819

1 359 763

Europe

5 961 962

2 144 828

1 440 907

Reste du monde

8 041 950

2 007 799

1 316 070

Total

19 766 324

6 278 446

4 116 740

Détection et application proactive de nos Règles communautaires

Région

Total des mesures d'exécution

Nombre total de comptes uniques sanctionnés

Amérique du Nord

1 342 496

785 067

Europe

670 646

422 012

Reste du monde

1 382 826

696 364

Total

3 395 968

1 709 224

Modération des publicités

Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques Publicitaires. Nous croyons en une approche responsable de la publicité, qui crée une expérience sûre pour tous les Snapchatters. Toutes les publicités sont vérifiées et soumises à notre approbation. En outre, nous nous réservons le droit de supprimer les publicités, y compris en réponse aux commentaires des utilisateurs, que nous prenons au sérieux. 


Nous avons inclus ci-dessous des informations sur notre modération des publicités payantes qui nous sont signalées après leur publication sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les Politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours de haine et la violation de la propriété intellectuelle. Par ailleurs, vous pouvez trouver la galerie de publicités de Snapchat sur values.snap.com sous l’onglet « Transparence ».

Nombre total de publicités signalées

Nombre total de publicités supprimées

67 789

16 410