Notre rapport sur la transparence pour le premier semestre de 2022

29 novembre 2022

Aujourd'hui, nous publions notre dernier rapport sur la transparence qui couvre le premier semestre 2022. 
Chez Snap, la sécurité et le bien-être de notre communauté sont notre priorité absolue, et nos rapports semestriels sur la transparence sont un outil essentiel que nous utilisons pour partager des informations clés et nous tenir responsables. 
Depuis notre rapport sur la transparence en 2015, nous avons eu pour mission de rendre chaque rapport plus instructif, assimilable et efficace que le précédent. Dans notre dernier rapport, nous avons apporté divers ajouts et améliorations pour aider notre communauté à mieux comprendre notre rapport et à poursuivre notre engagement à rendre ces rapports plus complets et informatifs. 
Mettre à disposition « Information fausse » à l'échelle du pays
Pour la première fois, nous introduisons « Information fausse » en tant que catégorie autonome disponible à l'échelle du pays, en nous appuyant sur notre pratique antérieure de signalement de fausses informations à l'échelle mondiale. Nous sommes l'une des seules plateformes à fournir ces informations par pays. Ce semestre, nous avons signalé un total de 4 877 éléments de contenu faux ou trompeurs comme potentiellement nocifs ou malveillants. Nous avons toujours adopté une approche différente pour empêcher la propagation de fausses informations sur Snapchat en commençant par la conception de notre plateforme. Sur Snapchat nous ne permettons pas au contenu non vérifié de devenir viral, et lorsque nous trouvons du contenu qui viole nos Règles communautaires, notre politique est de le supprimer, réduisant immédiatement le risque de partage plus large. Notre approche de luttre contre le contenu incluant de fausses informations est également simple : nous le supprimons. 
Avec les récentes élections à mi-mandat des États-Unis et d'autres élections qui ont lieu à l'échelle mondiale, nous estimons que des données détaillées spécifiques à chaque pays sur notre lutte contre les fausses informations sont utiles. Vous pouvez en savoir plus sur la façon dont nous empêchons la propagation de fausses informations sur Snapchat ici. 
La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants 
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. Prévenir, détecter et éliminer les images d'exploitation et d'abus sexuels à l'encontre des enfants (CSEAI) sur notre plateforme est une priorité absolue pour nous, et nous faisons constamment évoluer nos capacités pour aider à combattre ce type d'abus sur notre plateforme. Au cours du premier semestre 2022, nous avons détecté et traité de manière proactive 94 % des violations liées à l'exploitation et aux abus sexuels concernant des enfants dans ce rapport, soit une augmentation de 6 % par rapport à notre rapport précédent.
Nous fournissons également un langage à jour et avons une meilleure connaissance de nos efforts pour lutter contre le CSEAI. Nous partageons maintenant le nombre total de contenu CSEAI que nous avons supprimé, ainsi que le nombre total de rapports CSEAI que nos équipes Trust and Safety ont transmis au Centre national américain pour les enfants disparus et exploités (NCMEC).
Présentation d'un Glossaire des définitions de politiques et des données
Nous avons ajouté un glossaire des définitions de politiques et de données à inclure dans tous les prochains rapports. L'objectif de ce glossaire est d'augmenter la transparence autour des termes et indicateurs que nous utilisons, en expliquant clairement les formes de violation du contenu qui sont incluses et appliquées dans chaque catégorie. Par exemple, si les lecteurs ne sont pas sûrs de ce que nous entendons par « Menaces et violence », « Discours haineux », « Autres biens réglementés » ou d'autres catégories de contenu, ils peuvent facilement se référer au glossaire pour une description.
Suppression proactive du contenu enfreignant les règles
Lorsque vous regardez les données dans le rapport, il est également important de noter que les chiffres pour le total des rapports et l'application de la loi ne comptent que le contenu qui nous est signalé. Cela ne comptabilise pas les cas où Snap a détecté de manière proactive et pris des mesures contre le contenu avant qu'il ne nous soit signalé. Nous pensons que les améliorations que nous avons apportées à nos efforts de détection proactive ont joué un grand rôle dans la diminution du nombre de rapports, du nombre de signalements et des délais d'exécution de notre dernier rapport dans des catégories clés. Nos outils de détection automatisée améliorés ayant identifié et supprimé le contenu avant qu'il n'ait eu une chance d'atteindre les Snapchatters, nous avons vu une diminution des contrôles de contenu réactifs (c.-à-d. des rapports de Snapchatters). 
Plus précisément, depuis notre dernier rapport, nous avons vu une diminution de 44 % des signalements pour du contenu menaçant ou violent sur les rapports de Snapchatters, ainsi qu'une diminution de 37 % des signalements pour du contenu en rapport avec la drogue et une diminution de 34 % des signalements pour des discours haineux. En moyenne, notre délai d'exécution moyen pour supprimer le contenu enfreignant la loi s'est amélioré de 33 % depuis le dernier semestre, à un peu plus d'une minute.
Alors que Snapchat a évolué au fil des ans, notre engagement pour la transparence et la priorité à la sécurité et au bien-être de notre communauté reste inchangé. Nous continuerons à nous tenir responsables et à communiquer les mises à jour sur nos progrès. 
Retour aux Actualités