29 novembre 2022
29 novembre 2022
Pour donner un aperçu des efforts de Snap en matière de sécurité ainsi que de la nature et du volume du contenu signalé sur notre plateforme, nous publions des rapports sur la transparence deux fois par an. Nous entendons poursuivre la publication de ces rapports dans l'objectif de les rendre plus complets et plus documentés, afin que les nombreuses parties prenantes qui s'intéressent de près à nos pratiques en matière de modération de contenu et d'application de la loi, ainsi qu'au bien-être de notre communauté puissent en profiter.
Le présent rapport couvre le premier semestre 2022 (1er janvier - 30 juin). Comme pour nos précédents rapports, nous partageons les données sur le nombre total de contenus dans l'application et des signalements au niveau des comptes que nous avons reçus et sanctionnés dans des catégories spécifiques de violations, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements, et nos différentes sanctions ventilées par pays. Il inclut également les ajouts récents, notamment le taux de vues non conformes du contenu Snapchat, les violations potentielles des marques déposées et les cas de fausses informations sur la plateforme.
Dans le cadre de notre engagement à continuellement améliorer nos rapports sur la transparence, nous introduisons plusieurs nouveaux éléments dans ce rapport. Pour cette version et celles à venir, nous ajoutons un glossaire des termes utilisés dans le rapport. Notre objectif est d'accroître la transparence autour de ces termes, en indiquant clairement quelles formes de contenu illicite sont comprises et sanctionnées dans chaque catégorie. Pour la toute première fois, nous introduisons également les fausses informations en tant que catégorie autonome au niveau national, dans le prolongement de notre pratique antérieure consistant à signaler les fausses informations à l'échelle mondiale.
En outre, nous fournissons des informations plus détaillées sur nos efforts de lutte contre les images d'exploitation et d'abus pédosexuels (CSEAI). À l'avenir, nous partagerons des informations sur le nombre total de contenus relatifs à l'exploitation et aux abus sexuels sur les enfants que nous avons supprimés, ainsi que sur le nombre total de signalements*, (c'est-à-dire les « CyberTips ») que nous avons transmises au Centre américain pour les enfants disparus et exploités (NCMEC).
Pour plus d'informations sur nos politiques de lutte contre les contenus préjudiciables en ligne et sur nos plans visant à améliorer nos pratiques de signalement, veuillez consulter notre récent blog de sécurité et d'impact sur ce rapport sur la transparence.
Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos du rapport sur la transparence au bas de la page.
Aperçu du contenu et des comptes en infraction
Entre le 1er janvier et le 30 juin 2022, nous avons pris des mesures contre 5 688 970 éléments de contenus non conformes à nos politiques dans le monde entier. Les mesures de sanction peuvent inclure la suppression du contenu offensant ou la fermeture du compte concerné.
Pendant la période considérée, nous avons vu un taux de vues non conformes (TVNC) de 0,04 %, ce qui signifie que sur les 10 000 vues de contenu Snap et de Story sur Snapchat, quatre contenaient du contenu qui violait nos politiques.