Notre rapport sur la transparence pour le compte du deuxième semestre de 2021

1er avril 2022

Nous nous engageons à rendre chacun de nos rapports de transparence plus complet que le précédent. C'est une responsabilité que nous ne prenons pas à la légère, car nous savons que nos partenaires se soucient autant que nous de la sécurité et de la responsabilité en ligne. Dans le cadre de ces efforts toujours en cours, nous avons apporté plusieurs ajouts et améliorations à notre dernier rapport sur la transparence qui couvre le deuxième semestre de 2021.

Premièrement, nous proposons de nouveaux détails sur la quantité de contenu que nous avons appliqué contre les violations liées aux drogues. Nous avons zéro tolérance pour la promotion des drogues illicites sur Snapchat et nous interdisons l'achat ou la vente de drogues illégales ou réglementées. 

Au cours de la dernière année, nous nous sommes particulièrement concentrés sur la lutte contre l'augmentation de l'activité des drogues illicites dans le cadre de l'épidémie de fentanyl et d'opioïdes en croissance plus importante à travers les États-Unis. Nous adoptons une approche holistique qui comprend le déploiement d'outils qui détectent de manière proactive le contenu lié aux drogues, nous travaillons avec les forces de l'ordre pour soutenir leurs enquêtes et fournissons des informations et du soutien aux Snapchatters dans l'application via notre portail d'éducation lié au fentanyl, Heads Up. Heads Up rassemble des ressources provenant d'organisations spécialisées lorsque des Snapchatters recherche une gamme de termes liés aux drogues et à leurs dérivés. En raison de ces efforts continus, la grande majorité du contenu lié aux drogues que nous découvrons est détectée de manière proactive par notre technologie d'apprentissage automatique et d'intelligence artificielle, et nous continuerons à travailler pour éradiquer l'activité des drogues depuis notre plateforme

Lorsque nous trouvons des activités impliquant la vente de drogues dangereuses, nous interdisons rapidement le compte et empêchons le délinquant de créer de nouveaux comptes sur Snapchat, et avons la possibilité de préserver le contenu lié au compte pour soutenir les enquêtes des forces de l'ordre. Au cours de cette période de rapport, sept pour cent de tout le contenu que nous avons bloqué mondialement, et 10 pour cent de tout le contenu que nous avons bloqué aux États-Unis, impliquait des violations liées aux drogues. Mondialement, le délai médian de livraison que nous avons pour prendre des mesures contre ces comptes était dans les 13 minutes suivant la réception d'un rapport.

Deuxièmement, nous avons créé une nouvelle catégorie pour le suicide et l'automutilation pour partager le nombre total de rapports, de contenus et de comptes que nous avons reçus et prendre des mesures lorsque nos équipes de confiance et de sécurité ont déterminé qu'un Snapchatter pouvait être en crise. Lorsque notre équipe Trust & Safety reconnaît un Snapchatter en détresse, elle a la possibilité de transmettre des ressources de prévention et d'assistance en matière d'automutilation, et d'informer le personnel d'intervention d'urgence le cas échéant. Nous nous soucions profondément de la santé mentale et du bien-être des Snapchatters et croyons que nous avons le devoir de soutenir notre communauté dans ces moments difficiles. 

En plus de ces nouveaux éléments dans notre dernier rapport sur la transparence, nos données montrent que nous avons vu une réduction dans deux domaines clés : le taux de vue non conforme (VVR) et le nombre de comptes que nous avons bloqués qui tentaient de diffuser des discours haineux, de la violence ou des préjudices. Notre taux de vue non conforme actuel est de 0,08 pour cent. Cela signifie que pour 10 000 vues Snap et Story sur Snapchat, huit contenaient du contenu qui enfreignait nos règles communautaires. C'est une amélioration par rapport à notre dernier cycle de rapport, au cours duquel notre VVR était de 0,10 %. 

L'architecture fondamentale de Snapchat empêche le contenu nocif de devenir viral, ce qui supprime les incitations pour le contenu qui attrait aux pires instincts des gens, et limite les préoccupations liées à la propagation de mauvais contenu tels que la désinformation, les discours haineux, le contenu d'automutilation, ou l'extrémisme. Dans les parties plus publiques de Snapchat telles que notre plateforme de contenu Découvrir et notre plateforme de divertissement Spotlight, nous proposons du contenu trié ou modéré pour nous assurer qu'il est conforme à nos directives avant de pouvoir atteindre une audience plus large. 

Nous continuons à être vigilants pour améliorer notre modération humaine, et par conséquent, nous avons amélioré le délai de livraison médian pour les discours haineux de 25 % et de 8 % pour les menaces et violences ou les dommages et à 12 minutes dans les deux catégories. 

Nous croyons que c'est notre responsabilité la plus importante de garder notre communauté en sécurité sur Snapchat et nous ne cessons de renforcer nos efforts globaux pour ce faire. Notre travail ici n'est jamais terminé, mais nous continuerons à communiquer sur nos progrès et nous sommes reconnaissants à nos nombreux partenaires qui nous aident régulièrement à nous améliorer.

Retour aux actualités