Snap Values
Rapport sur la transparence
Du 1ᵉʳ janvier 2024 au 30 juin 2024

Publication :

5 décembre 2024

Mise à jour :

5 décembre 2024

Nous publions ce rapport sur la transparence deux fois par an afin de fournir des informations sur les efforts de Snap en matière de sécurité. Nous nous engageons à mener ces efforts et nous efforçons en permanence de rendre ces rapports plus complets et informatifs pour les nombreuses parties prenantes qui se soucient profondément de notre modération de contenu, de nos pratiques d'application de la loi et de la sécurité et du bien-être de la communauté Snapchat. 

Ce rapport sur la transparence couvre le premier semestre 2024 (du 1er janvier au 30 juin). Comme pour nos précédents rapports, nous partageons les données sur le volume total de contenus dans l'application, les signalements au niveau des comptes que nos équipes Trust & Safety ont reçu et sanctionné dans des catégories spécifiques de violations des Règles communautaires, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements ; et la façon dont nous avons répondu aux avis de violation du droit d'auteur et de la marque déposée. Nous fournissons également des informations spécifiques à chaque pays dans les fichiers liés en bas de cette page.

Dans le cadre de notre engagement continu à améliorer en permanence nos rapports sur la transparence, nous introduisons également de nouvelles données soulignant nos efforts proactifs pour détecter et faire respecter un éventail plus large de violations de nos Règles communautaires. Nous avons inclus ces données aux niveaux mondial et national dans ce rapport et nous continuerons à le faire à l'avenir. Nous avons également corrigé une erreur d'étiquetage dans nos rapports précédents : là où nous faisions précédemment référence au « Nombre total de contenus sanctionnés », nous faisons désormais référence au « Nombre total d'infractions » afin de refléter le fait que les données fournies dans les colonnes pertinentes incluent des infractions au niveau du contenu et au niveau des comptes.

Pour plus d'informations sur nos politiques de lutte contre les préjudices en ligne potentiels et sur nos plans de poursuite de l'évolution de nos pratiques de signalement, veuillez lire notre récent blog sur la sécurité et l'impact concernant ce rapport sur la transparence. Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos des rapports sur la transparence au bas de la page.

Veuillez noter que la version la plus récente de ce rapport de transparence est disponible en anglais (EN-US).

Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires

Nos équipes Trust & Safety appliquent nos Règles communautaires de manière proactive (grâce à l'utilisation d'outils automatisés) et réactive (en réponse aux signalements), comme expliqué plus en détail dans les sections suivantes de ce rapport. Au cours de ce cycle de rapports (1er semestre 2024), nos équipes Trust & Safety ont pris les mesures de sanction suivantes : 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Vous trouverez ci-dessous une ventilation par type de violations des Règles communautaires concernées, y compris le délai moyen entre le moment où nous avons détecté la violation (soit de manière proactive, soit à la réception d'un signalement) et le moment où nous avons pris des mesures définitives sur le contenu ou le compte en question :

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Au cours de la période couverte par le rapport, nous avons constaté un taux de vues non conformes (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de Story sur Snapchat, 1 comportait un contenu jugé contraire à nos Règles communautaires.

Violations des Règles communautaires signalées à nos équipes Trust & Safety

Du 1er janvier au 30 juin 2024, en réponse aux signalements intégrés à l'application de violations de nos Règles communautaires, les équipes Trust & Safety de Snap ont pris un total de 6 223 618 mesures de sanctions dans le monde, y compris des mesures d'exécution à l'encontre de 3 842 507 comptes uniques. Le délai moyen de nos équipes Trust & Safety concernant les mesures de sanctions en réponse à ces signalements était d'environ 24 minutes. Une ventilation par catégorie de signalement est fournie ci-dessous. 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Nos volumes globaux de signalement sont restés assez stables au 1er semestre 2024, par rapport aux six mois précédents. Durant ce cycle, nous avons constaté une augmentation d'environ 16 % du nombre total de mesures d'exécution et du nombre total de comptes uniques sanctionnés.

Au cours des 12 derniers mois, Snap a introduit de nouveaux mécanismes de signalement pour les utilisateurs, qui tiennent compte des modifications de nos volumes signalés et sanctionnés et de l'augmentation des délais de traitement au cours de cette période de signalement (1er semestre 2024). Plus particulièrement :

  • Signalement des chats de groupe : nous avons introduit le signalement des chats de groupe le 13 octobre 2023, ce qui permet aux utilisateurs de signaler les abus survenus dans un chat multipersonnes. Ce changement a eu un impact sur la composition de nos statistiques dans les catégories de signalement (car certains préjudices potentiels sont plus susceptibles de se produire dans un contexte de chat) et a augmenté la possibilité d'engager une action face aux signalements. 

  • Améliorations du signalement des comptes : nous avons également fait évoluer notre fonctionnalité de signalement des comptes afin de donner aux utilisateurs qui font un signalement la possibilité de soumettre des preuves de chat lorsqu'ils signalent un compte soupçonné d'être exploité par une personne malveillante. Ce changement, qui nous fournit plus de preuves et de contexte pour évaluer les signalements de comptes, a été lancé le 29 février 2024. 


Les rapports de chat, et en particulier les rapports de chat de groupe, sont parmi les plus complexes et les plus longs à examiner, ce qui a entraîné une augmentation des délais de traitement dans tous les domaines. 

Le signalement de soupçons d'exploitation et d'abus sexuels d'enfants (CSEA), de harcèlement et d'intimidation et de discours de haine a été particulièrement affecté par les deux changements décrits ci-dessus et par les changements de l'écosystème élargi. Plus particulièrement :

  • CSEA : nous avons observé une augmentation des signalements et des mesures d'exécution liés au CSEA au 1er semestre 2024. Plus précisément, nous avons constaté une augmentation de 64 % du nombre total de signalements dans l'application par les utilisateurs, une augmentation de 82 % du nombre total de mesures de sanction et une augmentation de 108 % du nombre total de comptes uniques sanctionnés. Ces augmentations sont en grande partie dues à l'introduction des fonctionnalités de chat de groupe et de signalement des comptes. Compte tenu de la nature sensible de cette file d'attente des activités de modération, une équipe sélectionnée d'agents hautement formés est affectée à l'examen des signalements de violations potentielles liées au CSEA. L'afflux de rapports supplémentaires conjugué à l'adaptation de nos équipes aux nouvelles formations, a entraîné une augmentation des délais de traitement. Face à l'avenir, nous avons augmenté de manière significative la taille de nos équipes mondiales de fournisseurs afin de réduire les délais de traitement et de faire respecter avec précision les signalements de CSEA potentiels. Nous nous attendons à ce que notre rapport sur la transparence du 2ème semestre 2024 traduise les fruits de cet effort avec un délai de traitement sensiblement meilleur. 

  • Harcèlement et intimidation : sur la base de signalements, nous avons observé que le harcèlement et l'intimidation se produisent de manière disproportionnée dans les chats, et en particulier les chats de groupe. Les améliorations que nous avons introduites dans les signalements sur les chats de groupe et sur les comptes nous aident à prendre des mesures plus complètes lors de l'évaluation des signalements dans cette catégorie de signalement. En outre, à compter de cette période, nous exigeons aux utilisateurs de saisir un commentaire lorsqu'ils soumettent un signalement de harcèlement et d'intimidation. Nous examinons ce commentaire afin de contextualiser chaque signalement. Ensemble, ces changements ont conduit à des augmentations substantielles du nombre total de mesures d'exécution (+91%), du nombre total de comptes uniques sanctionnés (+82 %) et du délai de traitement (+245 minutes) des signalements correspondants. 

  • Discours de haine : au 1er semestre 2024, nous avons observé des augmentations du contenu signalé, du nombre total de mesures d'exécution et du délai de traitement des discours de haine. Plus précisément, nous avons constaté une augmentation de 61 % des signalements dans l'application, une augmentation de 127 % du nombre total de mesures d'exécution et une augmentation de 125 % du nombre total de comptes uniques sanctionnés. Cela était dû, en partie, aux améliorations de nos mécanismes de signalement sur le chat (comme indiqué précédemment), et a été exacerbé par l'environnement géopolitique, en particulier la poursuite du conflit Israël-Hamas. 

Au cours de cette période de signalement, nous avons constaté une diminution d'environ 65 % du nombre total de mesures d'exécution et une diminution d'environ 60 % du nombre total de comptes uniques sanctionnés en réponse aux signalements de spam et d'abus présumés, ce qui témoigne des améliorations de nos outils proactifs de détection et de sanction. Nous avons constaté des baisses similaires du total des mesures d'exécution en réponse aux signalements de contenu relatif à l'automutilation et au suicide (~ 80 % de diminution), ce qui témoigne de notre approche actualisée centrée sur les victimes, selon laquelle nos équipes Trust & Safety enverront, le cas échéant, des ressources d'auto-assistance aux utilisateurs concernés, plutôt que de prendre des mesures de sanction à leur encontre. Cette approche a été instruite par les membres de notre conseil consultatif de sécurité, y compris un professeur de pédiatrie et un médecin spécialisé dans les médias interactifs et les troubles liés à Internet.

Nos efforts proactifs de détection et de lutte contre les violations de nos Règles communautaires

Détection et application proactive de nos Règles communautaires


Nous déployons des outils automatisés pour détecter de manière proactive et, dans certains cas, lutter contre les violations de nos Règles communautaires. Ces outils comprennent des outils de hachage (y compris PhotoDNA et Google Child Sexual Abuse Imagery (CSAI) Match), des outils de détection du langage abusif (qui détectent et sanctionnent sur la base d'une liste identifiée et régulièrement mise à jour de mots-clés et d'emojis abusifs), et une technologie multimodale d'intelligence artificielle / apprentissage machine. 

Au 1er semestre 2024, nous avons pris les mesures de sanction suivantes après avoir détecté de manière proactive, grâce à l'utilisation d'outils automatisés, des violations de nos Règles communautaires :

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants 

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.

Nous utilisons des outils de détection technologique active, tels que le hachage robuste de PhotoDNA et la technologie Child Sexual Abuse Imagery (CSAI) Match de Google, afin d'identifier les images et les vidéos illégales connues du CSEA. En outre, dans certains cas, nous utilisons des signaux comportementaux pour lutter contre d'autres activités potentiellement illégales du CSEA. Nous signalons le contenu lié au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.

Au cours du premier semestre 2024, nous avons pris les mesures suivantes lors de la détection d'un CSEA sur Snapchat (soit de manière proactive, soit à la réception d'un signalement) :

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Nos efforts pour fournir des ressources et un soutien aux Snapchatters qui en ont besoin

La santé mentale et le bien-être des utilisateurs de Snapchat nous tiennent particulièrement à cœur, ce qui continue d'influencer nos décisions de construire Snapchat différemment. En tant que plateforme conçue pour les communications entre amis réels, nous pensons que Snapchat peut jouer un rôle unique en permettant aux amis de s'entraider dans les moments difficiles. C'est la raison pour laquelle nous avons développé des ressources et un soutien pour les Snapchatters qui en ont besoin. 

Notre outil de recherche Here For You montre des ressources provenant de partenaires locaux spécialistes lorsque les utilisateurs recherchent certains sujets liés à la santé mentale, à l'anxiété, à la dépression, au stress, aux pensées suicidaires, au deuil et à l'intimidation. Nous avons également créé une page consacrée à la sextorsion financière et aux autres risques et préjudices sexuels, afin de soutenir les personnes en détresse. Notre liste mondiale de ressources en matière de sécurité est publiquement disponible pour tous les Snapchatters, dans notre Centre de confidentialité, de sécurité et de politique. 

Lorsque nos équipes Trust & Safety ont connaissance d'un Snapchatter en détresse, elles peuvent lui transmettre des ressources de prévention et d'assistance en matière d'automutilation et avertir le personnel d'intervention d'urgence, le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.

Total Times Suicide Resources Shared

64,094

Appels

Nous fournissons ci-dessous des informations sur les appels que nous avons reçus d'utilisateurs demandant un examen de notre décision de blocage de leur compte :

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Aperçu régional et national

Cette section fournit un aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires, à la fois de manière proactive et en réponse aux signalements de violations dans l'application, dans un échantillon de zones géographiques. Nos Règles communautaires s'appliquent à tout le contenu de Snapchat - et à tous Snapchatters - à travers le monde, peu importe leur localisation.

Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.

Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires 

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Violations des Règles communautaires signalées à nos équipes Trust & Safety

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Détection et application proactive de nos Règles communautaires

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Modération des publicités

Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques Publicitaires. Nous croyons en une approche responsable et respectueuse de la publicité, en créant une expérience sûre et agréable pour tous nos utilisateurs. Toutes les publicités sont vérifiées et soumises à notre approbation. En outre, nous nous réservons le droit de supprimer les publicités, y compris en réponse aux commentaires des utilisateurs, que nous prenons au sérieux. 


Nous avons inclus ci-dessous des informations sur notre modération des publicités payantes qui nous sont signalées après leur publication sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les Politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours de haine et la violation de la propriété intellectuelle. En outre, vous pouvez maintenant trouver la Galerie des publicités de Snapchat dans la barre de navigation de ce rapport sur la transparence. 

Total Ads Reported

Total Ads Removed

43,098

17,833