Rapport sur la transparence
Du 1er janvier 2022 au 30 juin 2022

Publication :

29 novembre 2022

Mise à jour :

29 novembre 2022

Pour donner un aperçu des efforts de Snap en matière de sécurité ainsi que de la nature et du volume du contenu signalé sur notre plateforme, nous publions des rapports sur la transparence deux fois par an. Nous entendons poursuivre la publication de ces rapports dans l'objectif de les rendre plus complets et plus documentés, afin que les nombreuses parties prenantes qui s'intéressent de près à nos pratiques en matière de modération de contenu et d'application de la loi, ainsi qu'au bien-être de notre communauté puissent en profiter. 

Le présent rapport couvre le premier semestre 2022 (1er janvier - 30 juin). Comme pour nos précédents rapports, nous partageons les données sur le nombre total de contenus dans l'application et des signalements au niveau des comptes que nous avons reçus et sanctionnés dans des catégories spécifiques de violations, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements, et nos différentes sanctions ventilées par pays. Il inclut également les ajouts récents, notamment le taux de vues non conformes du contenu Snapchat, les violations potentielles des marques déposées et les cas de fausses informations sur la plateforme.

Dans le cadre de notre engagement à continuellement améliorer nos rapports sur la transparence, nous introduisons plusieurs nouveaux éléments dans ce rapport. Pour cette version et celles à venir, nous ajoutons un glossaire des termes utilisés dans le rapport. Notre objectif est d'accroître la transparence autour de ces termes, en indiquant clairement quelles formes de contenu illicite sont comprises et sanctionnées dans chaque catégorie. Pour la toute première fois, nous introduisons également les fausses informations en tant que catégorie autonome au niveau national, dans le prolongement de notre pratique antérieure consistant à signaler les fausses informations à l'échelle mondiale. 

En outre, nous fournissons des informations plus détaillées sur nos efforts de lutte contre les images d'exploitation et d'abus pédosexuels (CSEAI). À l'avenir, nous partagerons des informations sur le nombre total de contenus relatifs à l'exploitation et aux abus sexuels sur les enfants que nous avons supprimés, ainsi que sur le nombre total de signalements*, (c'est-à-dire les « CyberTips ») que nous avons transmises au Centre américain pour les enfants disparus et exploités (NCMEC). 

Pour plus d'informations sur nos politiques de lutte contre les contenus préjudiciables en ligne et sur nos plans visant à améliorer nos pratiques de signalement, veuillez consulter notre récent blog de sécurité et d'impact sur ce rapport sur la transparence.

Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos du rapport sur la transparence au bas de la page.

Aperçu du contenu et des comptes en infraction

Entre le 1er janvier et le 30 juin 2022, nous avons pris des mesures contre 5 688 970 éléments de contenus non conformes à nos politiques dans le monde entier. Les mesures de sanction peuvent inclure la suppression du contenu offensant ou la fermeture du compte concerné.

Pendant la période considérée, nous avons vu un taux de vues non conformes (TVNC) de 0,04 %, ce qui signifie que sur les 10 000 vues de contenu Snap et de Story sur Snapchat, quatre contenaient du contenu qui violait nos politiques. 

Infractions sanctionnées

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (CSEAI) sur notre plateforme est une priorité absolue pour nous, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.

Nos équipes Trust and Safety utilisent des outils de détection de technologie active, tels que le hachage robuste de PhotoDNA et l' appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au Centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.

Au cours du premier semestre 2022, nous avons détecté et traité de manière proactive 94 % des violations liées à l'exploitation et aux abus sexuels concernant des enfants signalées ici, soit une augmentation de 6 % par rapport à notre rapport précédent.

*Notez que chaque soumission au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné.

Contenu d'extrémistes terroristes et violents

Au cours de la période considérée, nous avons supprimé 73 comptes pour violation de notre politique d'interdiction des contenus liés au terrorisme et à l'extrémisme violent.

Chez Snap, nous supprimons les contenus terroristes et extrémistes violents signalés sur des canaux multiples. Nous encourageons notamment les utilisateurs à signaler les contenus liés au terrorisme et à l'extrémisme violent via notre menu de signalement dans l'application, et nous travaillons en étroite collaboration avec les forces de l'ordre pour traiter les contenus terroristes et extrémistes violents susceptibles d'apparaître sur Snap.

Contenu portant sur l'automutilation et le suicide

La santé mentale et le bien-être des Snapchatters nous tiennent à cœur, ce qui a influencé - et continue d'influencer - nos décisions visant à concevoir Snapchat différemment. En tant que plateforme conçue pour les communications entre de véritables amis, nous pensons que Snapchat peut jouer un rôle unique en permettant aux amis de s'entraider dans les moments difficiles.

Lorsque notre équipe Trust & Safety reconnaît un Snapchatter en détresse, elle a la possibilité de transmettre des ressources de prévention et d'assistance en matière d'automutilation, et d'informer le personnel d'intervention d'urgence, le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.

Aperçu de pays

Cette section fournit un aperçu de l'application de nos Règles communautaires dans un échantillon de régions géographiques. Nos Règles s'appliquent à tout le contenu de Snapchat - et à tous les Snapchatters - à travers le monde, peu importe leur localisation.

Les informations relatives aux différents pays sont disponibles pour le téléchargement via le fichier CSV ci-joint :