Notre rapport sur la transparence pour le premier semestre de 2021

22 novembre 2021

Aujourd'hui, nous publions notre rapport sur la transparence pour le premier semestre 2021, qui couvre la période du 1er janvier au 30 juin de cette année. Comme pour nos rapports précédents, ce document partage les données sur le nombre total des violations de nos Règles communautaires dans le monde entier pendant cette période ; le nombre de contenus signalés que nous avons reçus et sanctionnés en fonction de catégories de violation spécifiques ; la façon dont nous répondu aux demandes des autorités judiciaires et gouvernementales ; nos mesures de sanction ventilées par pays ; le taux de vues non conforme du contenu Snapchat ; et les incidences des fausses informations sur la plateforme. 
Nous ajoutons plusieurs mises à jour à notre rapport pour cette période, dont notre délai médian partagé en minutes plutôt qu'en heures afin de fournir davantage de détails sur nos pratiques opérationnelles et notre efficacité.
Chaque jour, plus de cinq milliards de Snaps en moyenne sont créés à l'aide de notre appareil photo Snapchat. Du 1er janvier au 30 juin 2021, nous avons sanctionné 6 629 165 éléments de contenu enfreignant nos Règles dans le monde entier. Au cours de cette période, notre Taux de violations par rapport aux vues (VVR) était de 0,10 %, ce qui signifie que sur 10 000 vues du contenu présent sur Snap, 10 contenaient un contenu enfreignant nos Règles. En outre, nous avons considérablement amélioré notre temps de réponse aux signalements d'infractions, en particulier pour le contenu sexuellement explicite, le harcèlement et l'intimidation, les marchandises réglementées contrefaites et illégales, dont les drogues. 
Notre travail pour lutter contre le matériel relatif à des abus sexuels sur enfants 
La sécurité de notre communauté est une priorité absolue. En tant que plateforme conçue pour communiquer avec de vrais amis, nous avons intentionnellement conçu Snapchat pour qu'il soit plus difficile pour les étrangers d'entrer en contact avec des jeunes. Par exemple, les Snapchatters ne peuvent pas voir les listes d'amis des autres utilisateurs et, par défaut, ils ne peuvent recevoir que les messages provenant d'une personne qui figure déjà dans leur liste d'amis.
Nous appliquons une tolérance zéro vis-à-vis des abus commis contre tout membre de notre communauté, en particulier les mineurs. Ils sont illégaux, inacceptables et interdits par nos Règles communautaires. Nous travaillons assidûment pour lutter contre ces violations en faisant évoluer nos capacités de prévention, de détection et d'éradication des abus sur notre plateforme, dont le matériel relatif à des abus sexuels sur enfants et d'autres types de contenu à caractère pédopornographique.
Nos équipes de confiance et de sécurité utilisent des outils de détection proactifs, tels que la détection PhotoDNA et la technologie Child Sexual Abuse Imagery (CSAI) Match, pour identifier les images et les vidéos à caractère pédopornographique illégales et connues et les signalent au National Center for Missing and Exploited Children (NCMEC). Le NCMEC collabore ensuite avec les forces de l'ordre nationales ou internationales. 
Au cours du premier semestre 2021, 5,43 % du nombre total de comptes que nous avons sanctionnés à l'échelle mondiale contenait du matériel relatif à des abus sexuels sur enfants. De ce nombre nous avons détecté de manière proactive et pris des mesures pour 70 % des violations du CSAM. Cette capacité de détection proactive accrue combinée à une augmentation des attaques de spam coordonnées visant à répandre du matériel relatif à des abus sexuels sur enfants a entraîné une augmentation notable dans cette catégorie pour cette période de rapport. 
Nous avons continué d'étendre nos partenariats avec des experts en sécurité ainsi que nos fonctionnalités in-app afin de contribuer à informer les Snapchatters sur les risques que présentent toute interaction avec des étrangers et sur l'utilisation du signalement in-app pour alerter nos équipes de confiance et de sécurité sur tout type de problème ou d'abus. En outre, nous continuons d'ajouter des partenaires à notre programme Lanceur d'alerte qui fournit aux experts en sécurité habilités un moyen de communication confidentiel pour signaler des situations d'urgence, comme une menace de mort imminente ou un cas impliquant du contenu à caractère pédopornographique. Nous travaillons en étroite collaboration avec ces partenaires pour leur fournir des informations sur la sécurité, des ressources de bien-être et d'autres conseils en matière de signalement afin qu'ils puissent contribuer à soutenir la communauté Snapchat.
Notre approche envers la diffusion de fausses informations
La période couverte par ce rapport sur la transparence souligne en outre combien il est essentiel de veiller à ce que le public ait accès à des informations précises et crédibles. Nous évaluons régulièrement de nouveaux moyens de protection et nous investissons dans ceux-ci pour protéger notre communauté de Snapchatters contre la diffusion de fausses informations sur les processus démocratiques, la santé publique et la COVID-19.
Au cours du premier semestre 2021, nous avons sanctionné un total de 2 597 comptes et d'éléments de contenu en raison d'une violation des règles sur les fausses informations, soit près de la moitié du nombre de violations de la période précédente. Puisque le contenu sur Découvrir et Spotlight sont modérés de manière proactive afin d'empêcher la distribution de contenu contraire aux règles, la majorité de ces violations proviennent de Snaps et de Stories privés. Ces dernières nous ont été signalées par le biais de nos propres efforts de modération active ainsi que par des signalements de Snapchatters.  
Nous avons toujours cru que lorsqu'il s'agit de contenu nocif, il ne suffit pas de penser aux politiques et aux sanctions ; les plateformes doivent réfléchir à leur architecture fondamentale et à la conception de leur produit. Depuis le début, Snapchat a été construit différemment par rapport aux plateformes de médias sociaux traditionnelles, pour gérer notre premier exemple d'utilisation qui est de parler avec des amis proches, plutôt qu'un flux d'informations ouvert où n'importe qui a le droit de tout distribuer à tout le monde. La conception de Snapchat limite la viralité, ce qui supprime les incitations pour du contenu qui séduit les pires instincts d'autrui et qui limite ainsi les préoccupations liées à la diffusion de contenu illégal et nocif.
Cette approche s'inscrit également dans notre travail visant à empêcher la diffusion de contenu à caractère extrémiste. Au cours de la période de référence, nous avons supprimé cinq comptes pour violation de notre interdiction de contenu terroriste et extrémiste, ce qui représente une légère diminution par rapport au dernier cycle de référence. Chez Snap, nous surveillons régulièrement les développements dans cet espace en cherchant à atténuer tout vecteur potentiel d'abus sur notre plateforme. Tant l'architecture de notre plateforme que la conception de notre fonctionnalité Chat à plusieurs aident à limiter la diffusion de contenu nocif et les possibilités d'organisation. Nous proposons des discussions de groupe, mais leur taille est limitée, elles ne sont pas recommandées par des algorithmes et aucun utilisateur de notre plateforme ne peut y accéder, à l'exception des membres de ce groupe. 
Au cours de cette période, nous avons continué de promouvoir de manière proactive des informations factuelles en matière de sécurité publique sur la COVID-19 à notre communauté, y compris à l'aide de la couverture fournie par nos partenaires éditoriaux de Découvrir, de messages d'intérêt public et de sessions de questions-réponses avec des fonctionnaires de la santé publique, des agences et des experts de la santé ainsi que d'outils créatifs tels que des objectifs et des filtres de réalité augmentée, tous conçus pour rappeler aux Snapchatters des conseils partagés par des spécialistes de la santé publique. Au début de l'année, alors que les vaccins sont devenus disponibles pour les jeunes aux États-Unis, nous avons lancé une nouvelle initiative avec la Maison-Blanche pour aider les Snapchatters à répondre aux questions courantes, et en juillet, nous avons fait équipe avec le National Health Service du Royaume-Uni pour un effort similaire.
À l'avenir, nous nous engageons à continuer de rendre nos rapports de transparence plus complets et utiles aux nombreuses parties prenantes qui se soucient de la sécurité en ligne, de la transparence et de la responsabilité multisectorielle. Nous évaluons constamment la manière dont nous pouvons renforcer nos efforts globaux de lutte contre le contenu nocif et les mauvais acteurs, et nous sommes reconnaissants envers les nombreux partenaires et collaborateurs de sécurité qui nous aident régulièrement à nous améliorer.
Retour aux Actualités