5 décembre 2024
5 décembre 2024
Nous publions ce rapport sur la transparence deux fois par an afin de fournir des informations sur les efforts de Snap en matière de sécurité. Nous nous engageons à mener ces efforts et nous efforçons en permanence de rendre ces rapports plus complets et informatifs pour les nombreuses parties prenantes qui se soucient profondément de notre modération de contenu, de nos pratiques d'application de la loi et de la sécurité et du bien-être de la communauté Snapchat.
Ce rapport sur la transparence couvre le premier semestre 2024 (du 1er janvier au 30 juin). Comme pour nos précédents rapports, nous partageons les données sur le volume total de contenus dans l'application, les signalements au niveau des comptes que nos équipes Trust & Safety ont reçu et sanctionné dans des catégories spécifiques de violations des Règles communautaires, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements ; et la façon dont nous avons répondu aux avis de violation du droit d'auteur et de la marque déposée. Nous fournissons également des informations spécifiques à chaque pays dans les fichiers liés en bas de cette page.
Dans le cadre de notre engagement continu à améliorer en permanence nos rapports sur la transparence, nous introduisons également de nouvelles données soulignant nos efforts proactifs pour détecter et faire respecter un éventail plus large de violations de nos Règles communautaires. Nous avons inclus ces données aux niveaux mondial et national dans ce rapport et nous continuerons à le faire à l'avenir. Nous avons également corrigé une erreur d'étiquetage dans nos rapports précédents : là où nous faisions précédemment référence au « Nombre total de contenus sanctionnés », nous faisons désormais référence au « Nombre total d'infractions » afin de refléter le fait que les données fournies dans les colonnes pertinentes incluent des infractions au niveau du contenu et au niveau des comptes.
Pour plus d'informations sur nos politiques de lutte contre les préjudices en ligne potentiels et sur nos plans de poursuite de l'évolution de nos pratiques de signalement, veuillez lire notre récent blog sur la sécurité et l'impact concernant ce rapport sur la transparence. Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos des rapports sur la transparence au bas de la page.
Veuillez noter que la version la plus récente de ce rapport de transparence est disponible en anglais (EN-US).
Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires
Nos équipes Trust & Safety appliquent nos Règles communautaires de manière proactive (grâce à l'utilisation d'outils automatisés) et réactive (en réponse aux signalements), comme expliqué plus en détail dans les sections suivantes de ce rapport. Au cours de ce cycle de rapports (1er semestre 2024), nos équipes Trust & Safety ont pris les mesures de sanction suivantes :
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Vous trouverez ci-dessous une ventilation par type de violations des Règles communautaires concernées, y compris le délai moyen entre le moment où nous avons détecté la violation (soit de manière proactive, soit à la réception d'un signalement) et le moment où nous avons pris des mesures définitives sur le contenu ou le compte en question :
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Au cours de la période couverte par le rapport, nous avons constaté un taux de vues non conformes (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de Story sur Snapchat, 1 comportait un contenu jugé contraire à nos Règles communautaires.
Violations des Règles communautaires signalées à nos équipes Trust & Safety
Du 1er janvier au 30 juin 2024, en réponse aux signalements intégrés à l'application de violations de nos Règles communautaires, les équipes Trust & Safety de Snap ont pris un total de 6 223 618 mesures de sanctions dans le monde, y compris des mesures d'exécution à l'encontre de 3 842 507 comptes uniques. Le délai moyen de nos équipes Trust & Safety concernant les mesures de sanctions en réponse à ces signalements était d'environ 24 minutes. Une ventilation par catégorie de signalement est fournie ci-dessous.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Nos volumes globaux de signalement sont restés assez stables au 1er semestre 2024, par rapport aux six mois précédents. Durant ce cycle, nous avons constaté une augmentation d'environ 16 % du nombre total de mesures d'exécution et du nombre total de comptes uniques sanctionnés.
Au cours des 12 derniers mois, Snap a introduit de nouveaux mécanismes de signalement pour les utilisateurs, qui tiennent compte des modifications de nos volumes signalés et sanctionnés et de l'augmentation des délais de traitement au cours de cette période de signalement (1er semestre 2024). Plus particulièrement :
Signalement des chats de groupe : nous avons introduit le signalement des chats de groupe le 13 octobre 2023, ce qui permet aux utilisateurs de signaler les abus survenus dans un chat multipersonnes. Ce changement a eu un impact sur la composition de nos statistiques dans les catégories de signalement (car certains préjudices potentiels sont plus susceptibles de se produire dans un contexte de chat) et a augmenté la possibilité d'engager une action face aux signalements.
Améliorations du signalement des comptes : nous avons également fait évoluer notre fonctionnalité de signalement des comptes afin de donner aux utilisateurs qui font un signalement la possibilité de soumettre des preuves de chat lorsqu'ils signalent un compte soupçonné d'être exploité par une personne malveillante. Ce changement, qui nous fournit plus de preuves et de contexte pour évaluer les signalements de comptes, a été lancé le 29 février 2024.
Les rapports de chat, et en particulier les rapports de chat de groupe, sont parmi les plus complexes et les plus longs à examiner, ce qui a entraîné une augmentation des délais de traitement dans tous les domaines.
Le signalement de soupçons d'exploitation et d'abus sexuels d'enfants (CSEA), de harcèlement et d'intimidation et de discours de haine a été particulièrement affecté par les deux changements décrits ci-dessus et par les changements de l'écosystème élargi. Plus particulièrement :
CSEA : nous avons observé une augmentation des signalements et des mesures d'exécution liés au CSEA au 1er semestre 2024. Plus précisément, nous avons constaté une augmentation de 64 % du nombre total de signalements dans l'application par les utilisateurs, une augmentation de 82 % du nombre total de mesures de sanction et une augmentation de 108 % du nombre total de comptes uniques sanctionnés. Ces augmentations sont en grande partie dues à l'introduction des fonctionnalités de chat de groupe et de signalement des comptes. Compte tenu de la nature sensible de cette file d'attente des activités de modération, une équipe sélectionnée d'agents hautement formés est affectée à l'examen des signalements de violations potentielles liées au CSEA. L'afflux de rapports supplémentaires conjugué à l'adaptation de nos équipes aux nouvelles formations, a entraîné une augmentation des délais de traitement. Face à l'avenir, nous avons augmenté de manière significative la taille de nos équipes mondiales de fournisseurs afin de réduire les délais de traitement et de faire respecter avec précision les signalements de CSEA potentiels. Nous nous attendons à ce que notre rapport sur la transparence du 2ème semestre 2024 traduise les fruits de cet effort avec un délai de traitement sensiblement meilleur.
Harcèlement et intimidation : sur la base de signalements, nous avons observé que le harcèlement et l'intimidation se produisent de manière disproportionnée dans les chats, et en particulier les chats de groupe. Les améliorations que nous avons introduites dans les signalements sur les chats de groupe et sur les comptes nous aident à prendre des mesures plus complètes lors de l'évaluation des signalements dans cette catégorie de signalement. En outre, à compter de cette période, nous exigeons aux utilisateurs de saisir un commentaire lorsqu'ils soumettent un signalement de harcèlement et d'intimidation. Nous examinons ce commentaire afin de contextualiser chaque signalement. Ensemble, ces changements ont conduit à des augmentations substantielles du nombre total de mesures d'exécution (+91%), du nombre total de comptes uniques sanctionnés (+82 %) et du délai de traitement (+245 minutes) des signalements correspondants.
Discours de haine : au 1er semestre 2024, nous avons observé des augmentations du contenu signalé, du nombre total de mesures d'exécution et du délai de traitement des discours de haine. Plus précisément, nous avons constaté une augmentation de 61 % des signalements dans l'application, une augmentation de 127 % du nombre total de mesures d'exécution et une augmentation de 125 % du nombre total de comptes uniques sanctionnés. Cela était dû, en partie, aux améliorations de nos mécanismes de signalement sur le chat (comme indiqué précédemment), et a été exacerbé par l'environnement géopolitique, en particulier la poursuite du conflit Israël-Hamas.
Au cours de cette période de signalement, nous avons constaté une diminution d'environ 65 % du nombre total de mesures d'exécution et une diminution d'environ 60 % du nombre total de comptes uniques sanctionnés en réponse aux signalements de spam et d'abus présumés, ce qui témoigne des améliorations de nos outils proactifs de détection et de sanction. Nous avons constaté des baisses similaires du total des mesures d'exécution en réponse aux signalements de contenu relatif à l'automutilation et au suicide (~ 80 % de diminution), ce qui témoigne de notre approche actualisée centrée sur les victimes, selon laquelle nos équipes Trust & Safety enverront, le cas échéant, des ressources d'auto-assistance aux utilisateurs concernés, plutôt que de prendre des mesures de sanction à leur encontre. Cette approche a été instruite par les membres de notre conseil consultatif de sécurité, y compris un professeur de pédiatrie et un médecin spécialisé dans les médias interactifs et les troubles liés à Internet.
Nos efforts proactifs de détection et de lutte contre les violations de nos Règles communautaires
Nous déployons des outils automatisés pour détecter de manière proactive et, dans certains cas, lutter contre les violations de nos Règles communautaires. Ces outils comprennent des outils de hachage (y compris PhotoDNA et Google Child Sexual Abuse Imagery (CSAI) Match), des outils de détection du langage abusif (qui détectent et sanctionnent sur la base d'une liste identifiée et régulièrement mise à jour de mots-clés et d'emojis abusifs), et une technologie multimodale d'intelligence artificielle / apprentissage machine.
Au 1er semestre 2024, nous avons pris les mesures de sanction suivantes après avoir détecté de manière proactive, grâce à l'utilisation d'outils automatisés, des violations de nos Règles communautaires :
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Nous utilisons des outils de détection technologique active, tels que le hachage robuste de PhotoDNA et la technologie Child Sexual Abuse Imagery (CSAI) Match de Google, afin d'identifier les images et les vidéos illégales connues du CSEA. En outre, dans certains cas, nous utilisons des signaux comportementaux pour lutter contre d'autres activités potentiellement illégales du CSEA. Nous signalons le contenu lié au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.
Au cours du premier semestre 2024, nous avons pris les mesures suivantes lors de la détection d'un CSEA sur Snapchat (soit de manière proactive, soit à la réception d'un signalement) :
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Nos efforts pour fournir des ressources et un soutien aux Snapchatters qui en ont besoin
La santé mentale et le bien-être des utilisateurs de Snapchat nous tiennent particulièrement à cœur, ce qui continue d'influencer nos décisions de construire Snapchat différemment. En tant que plateforme conçue pour les communications entre amis réels, nous pensons que Snapchat peut jouer un rôle unique en permettant aux amis de s'entraider dans les moments difficiles. C'est la raison pour laquelle nous avons développé des ressources et un soutien pour les Snapchatters qui en ont besoin.
Notre outil de recherche Here For You montre des ressources provenant de partenaires locaux spécialistes lorsque les utilisateurs recherchent certains sujets liés à la santé mentale, à l'anxiété, à la dépression, au stress, aux pensées suicidaires, au deuil et à l'intimidation. Nous avons également créé une page consacrée à la sextorsion financière et aux autres risques et préjudices sexuels, afin de soutenir les personnes en détresse. Notre liste mondiale de ressources en matière de sécurité est publiquement disponible pour tous les Snapchatters, dans notre Centre de confidentialité, de sécurité et de politique.
Lorsque nos équipes Trust & Safety ont connaissance d'un Snapchatter en détresse, elles peuvent lui transmettre des ressources de prévention et d'assistance en matière d'automutilation et avertir le personnel d'intervention d'urgence, le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.
Total Times Suicide Resources Shared
64,094
Appels
Nous fournissons ci-dessous des informations sur les appels que nous avons reçus d'utilisateurs demandant un examen de notre décision de blocage de leur compte :
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Aperçu régional et national
Cette section fournit un aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires, à la fois de manière proactive et en réponse aux signalements de violations dans l'application, dans un échantillon de zones géographiques. Nos Règles communautaires s'appliquent à tout le contenu de Snapchat - et à tous Snapchatters - à travers le monde, peu importe leur localisation.
Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Modération des publicités
Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques Publicitaires. Nous croyons en une approche responsable et respectueuse de la publicité, en créant une expérience sûre et agréable pour tous nos utilisateurs. Toutes les publicités sont vérifiées et soumises à notre approbation. En outre, nous nous réservons le droit de supprimer les publicités, y compris en réponse aux commentaires des utilisateurs, que nous prenons au sérieux.
Nous avons inclus ci-dessous des informations sur notre modération des publicités payantes qui nous sont signalées après leur publication sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les Politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours de haine et la violation de la propriété intellectuelle. En outre, vous pouvez maintenant trouver la Galerie des publicités de Snapchat dans la barre de navigation de ce rapport sur la transparence.
Total Ads Reported
Total Ads Removed
43,098
17,833


