Rapport de transparence
1er janvier 2023 - 30 juin 2023

Publication :

25 octobre 2023

Mise à jour :

13 décembre 2023

Pour donner un aperçu des efforts de Snap en matière de sécurité ainsi que de la nature et du volume du contenu signalé sur notre plateforme, nous publions des rapports sur la transparence deux fois par an. Nous entendons poursuivre la publication de ces rapports dans l'objectif de les rendre plus complets et plus documentés, afin que les nombreuses parties prenantes qui s'intéressent de près à nos pratiques en matière de modération de contenu et d'application de la loi, ainsi qu'au bien-être de notre communauté puissent en profiter.

Le présent rapport de transparence couvre le premier semestre 2021 (1er janvier - 30 juin). Comme pour nos précédents rapports, nous partageons les données sur le nombre total de contenus dans l'application, les signalements au niveau des comptes que nous avons reçus et sanctionnés dans des catégories spécifiques de violations des politiques, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements, et nos différentes sanctions ventilées par pays. et nos mesures d’exécution ventilées par pays.

Dans le cadre de notre engagement permanent à améliorer nos rapports sur la transparence, nous introduisons quelques nouveaux éléments avec cette publication. Nous avons ajouté des points de données supplémentaires sur nos pratiques publicitaires et notre modération, ainsi que sur le contenu et les appels sur le compte. Pour se conformer à la loi de l’UE sur les services numériques, nous avons également ajouté de nouvelles informations contextuelles sur nos opérations dans les états membres de l’UE, telles que le nombre de modérateurs de contenu et d’utilisateurs actifs mensuels (MAU) dans la région. Une grande partie de ces informations se trouve dans le rapport et sur la page de notre Centre de transparence dédiée à l'Union européenne.

Enfin, nous avons mis à jour notre Glossaireen y ajoutant des liens vers nos « Explications sur les règles communautaires », qui offrent un contexte supplémentaire sur la politique de notre plateforme et sur nos efforts opérationnels.

Pour plus d'informations sur nos politiques de lutte contre les contenus préjudiciables en ligne et sur nos plans visant à améliorer nos pratiques de signalement, veuillez consulter notre récent blog sécurité et impact sur ce rapport de transparence.

Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos du rapport sur la transparence au bas de la page.

Veuillez noter que la version la plus récente de ce rapport de transparence est disponible en anglais (en-US).

Aperçu du contenu et des comptes en infraction

Du 1er janvier au 30 juin 2023, Snap a fait imposer 6 216 118 contenus dans le monde entier qui ont violé nos politiques.

Pendant ladite période, nous avons enregistré un taux de vues non conformes (TVNC) de 0,03 %, ce qui signifie que sur 10 000 vues de contenu Snap et de Story sur Snapchat, trois contenaient du contenu qui violait nos politiques.

*L'application correcte et cohérente de la législation contre les fausses informations est un processus dynamique qui nécessite un contexte actualisé et de la diligence.  Comme nous nous efforçons d'améliorer continuellement la précision de l'application de la loi de nos agents dans cette catégorie, nous avons choisi, depuis le premier semestre 2022, de signaler des chiffres dans les catégories « Contenu appliqué » et « Comptes uniques appliqués » qui sont estimés sur la base d'un examen rigoureux d'assurance qualité d'une partie statistiquement significative de l'application de la loi sur les fausses informations.  Plus précisément, nous échantillonnons une partie statistiquement significative des cas d'application de la législation sur les fausses informations dans chaque pays et contrôlons la qualité des décisions d'application.  Nous utilisons ensuite ces contrôles de qualité pour obtenir des évaluations de modération avec un intervalle de confiance de 95 % (marge d'erreur de +/- 5 %), que nous utilisons pour calculer le nombre de modération pour fausses informations signalées dans le rapport sur la transparence. 

Analyse des violations de contenus et de comptes

Nos taux globaux de signalement et d’application sont restés assez similaires à ceux des six mois précédents, à quelques exceptions près dans les catégories clés. Nous avons observé une diminution d’environ 3 % du nombre total de contenu, de rapports et de modération sur ce cycle.

Les catégories les plus importantes étaient le harcèlement et l’intimidation, le spam, les armes et les fausses informations. Le harcèlement et l’intimidation ont augmenté d'environ 56 % comparé au nombre total de signalements, puis une augmentation de près de 39 % du contenu et des impositions sur le compte unique. Ces augmentations des exécutions ont été couplées à une diminution d’environ 46 % du délai d’exécution, ce qui souligne l’efficacité opérationnelle de notre équipe pour ce type de contenu. De même, nous avons observé une augmentation d’environ 65 % du nombre total de signalements de spam, une augmentation de près de 110 % des modérations de contenu et une augmentation de près de 80 % des comptes uniques imposés à la loi et nos équipes ont également réduit le délai de traitement de près de 80 %. Notre catégorie d’armes a vu une diminution d’environ 13 % du nombre total de signalements, une diminution d’environ 51 % des modérations de contenu et une réduction d’environ 53 % des comptes uniques imposés. Enfin, notre catégorie de fausses informations a vu une augmentation d’environ 14 % du nombre total de signalements, mais une diminution d’environ 78 % des modérations de contenu et une diminution d’environ 74 % des comptes uniques imposés. Cela peut être attribué à la poursuite du processus d’assurance de la qualité (QA) et au recours aux ressources que nous appliquons aux rapports de fausses informations pour nous assurer que nos équipes de modération identifient les fausses informations et agissent avec précision sur la plateforme.

Dans l’ensemble, bien que nous ayons observé des chiffres globalement similaires à ceux de la dernière période, nous pensons qu’il est important de poursuivre l’amélioration des outils de notre communauté pour signaler activement et précisément les violations potentielles telles qu’elles apparaissent sur la plateforme.

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (CSEAI) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.

Nous utilisons des outils de détection de technologie active tels que le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.

Au cours du premier semestre 2023, nous avons détecté et traité de manière proactive 98 % des violations liées à l'exploitation et aux abus sexuels concernant des enfants signalées ici, soit une augmentation de 4 % par rapport à notre rapport précédent.

**Notez que chaque envoi au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné.

Contenu d'extrémistes terroristes et violents

Pendant la période de rapport (1er janvier 2023 au 30 juin 2023), nous avons supprimé 18 comptes pour violation de notre politique d’interdiction du contenu terroriste et extrémiste violent.

Chez Snap, nous supprimons les contenus terroristes et extrémistes violents signalés sur des canaux multiples. Nous encourageons les utilisateurs à signaler les contenus terroristes et extrémistes violents via notre menu de signalement dans l'application, et nous travaillons en étroite collaboration avec les forces de l'ordre pour traiter les contenus terroristes et extrémistes violents susceptibles d'apparaître sur Snap.

Contenu portant sur l'automutilation et le suicide

La santé mentale et le bien-être des Snapchatters nous tiennent à cœur, ce qui a influencé - et continue d'influencer - nos décisions visant à concevoir Snapchat différemment. En tant que plateforme conçue pour les communications entre de véritables amis, nous pensons que Snapchat peut jouer un rôle unique en permettant aux amis de s'entraider dans les moments difficiles.

Lorsque notre équipe Trust & Safety reconnaît un Snapchatter en détresse, elle a la possibilité de transmettre des ressources de prévention et d'assistance en matière d'automutilation, et d'informer le personnel d'intervention d'urgence, le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.

Appels

À partir de ce rapport, nous commençons à signaler le nombre d’appels lancés par des utilisateurs dont les comptes ont été verrouillés pour violation de nos politiques. Nous rétablissons uniquement les comptes qui, selon nos modérateurs, ont été injustement verrouillés. Pendant cette période, nous signalons les appels relatifs au contenu lié aux drogues.  Dans notre prochain rapport, nous nous publierons plus de données relatives aux appels découlant d’autres violations de nos politiques.

Modération des publicités

Snap s’engage à veiller à ce que toutes les publicités soient conformes aux politiques de nos plateformes. Nous croyons en une approche responsable et respectueuse de la publicité, en créant une expérience sûre et agréable pour tous nos utilisateurs. Ci-dessous, nous avons inclus des informations sur notre modération publicitaire. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons telles que décrites dans les politiques publicitaires de Snap, y compris les contenus trompeurs, les contenus adulte, les contenus violents ou inquiétants, les discours de haine et la violation de la propriété intellectuelle. En outre, vous pouvez maintenant trouver la Galerie des publicités de Snapchat dans la barre de navigation de ce rapport sur la transparence. 

Aperçu de pays

Cette section fournit un aperçu de l'application de nos Règles communautaires dans un échantillon de régions géographiques. Nos Règles s'appliquent à tout le contenu de Snapchat - et à tous les Snapchatters - à travers le monde, peu importe leur localisation.

Les informations relatives aux différents pays sont disponibles pour le téléchargement via le fichier CSV ci-joint :