Rapport de transparence

1er juillet 2022 - 31 décembre 2022

Publication :

15 juin 2023

Mise à jour :

15 juin 2023

Pour donner un aperçu des efforts de Snap en matière de sécurité ainsi que de la nature et du volume du contenu signalé sur notre plateforme, nous publions des rapports sur la transparence deux fois par an. Nous entendons poursuivre la publication de ces rapports dans l'objectif de les rendre plus complets et plus documentés, afin que les nombreuses parties prenantes qui s'intéressent de près à nos pratiques en matière de modération de contenu et d'application de la loi, ainsi qu'au bien-être de notre communauté puissent en profiter.

Le présent rapport couvre le second semestre 2022 (1er juillet - 31 décembre). Comme pour nos précédents rapports, nous partageons les données sur le nombre total de contenus dans l'application et des signalements au niveau des comptes que nous avons reçus et sanctionnés dans des catégories spécifiques de violations des politiques, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements, et nos différentes sanctions ventilées par pays. Il inclut également les ajouts récents, notamment le taux de vues non conformes du contenu Snapchat, les violations potentielles des marques déposées et les cas de fausses informations sur la plateforme.

Dans le cadre de notre engagement visant à continuellement améliorer nos rapports sur la transparence, nous introduisons quelques nouveaux éléments dans la présente version. Nous avons ajouté une section intitulée « Analyse des violations de contenu et de compte » dans laquelle nous évaluons les principaux changements de données observés par rapport à la période de rapport précédente.

En outre, nous avons actualisé le mode de présentation des données dans nos tables de contenu et de violations de comptes, sur la page d'atterrissage et sur nos sous-pages par pays. Dans la version précédente, nous avons classé les violations par ordre décroissant d'application du contenu. Notre système de classement reflète désormais les Règles communautaires pour une meilleure cohérence. Cette mesure a été suggérée par le Conseil consultatif de sécurité de Snap, qui, de manière indépendante, éduque, remet en question, soulève des problèmes et conseille Snap sur la manière de garantir la sécurité de la communauté Snapchat.

Enfin, nous avons mis à jour notre glossaire en y ajoutant des liens vers nos « Explications sur les règles communautaires », qui offrent un contexte supplémentaire sur la politique de notre plateforme et sur nos efforts opérationnels.

Pour plus d'informations sur nos politiques de lutte contre les contenus préjudiciables en ligne et sur nos plans visant à améliorer nos pratiques de signalement, veuillez consulter notre récent blog Sécurité et impact sur ce rapport sur la transparence.

Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos du rapport sur la transparence au bas de la page.

Aperçu du contenu et des comptes en infraction

Entre le 1er juillet et décembre 2022, Snap a pris des mesures envers 6 360 594 éléments de contenus non conformes à nos politiques dans le monde entier.

Pendant la période considérée, nous avons vu un taux de vues non conformes (TVNC) de 0,03 %, ce qui signifie que sur 10 000 vues de contenu Snap et de Story sur Snapchat, trois contenaient du contenu qui violait nos politiques.

*L'application correcte et cohérente de la législation contre les fausses informations est un processus dynamique qui nécessite un contexte actualisé et de la diligence.  Comme nous nous efforçons d'améliorer continuellement la précision de l'application de la loi de nos agents dans cette catégorie, nous avons choisi, depuis le premier semestre 2022, de signaler des chiffres dans les catégories « Contenu appliqué » et « Comptes uniques appliqués » qui sont estimés sur la base d'un examen rigoureux d'assurance qualité d'une partie statistiquement significative de l'application de la loi sur les fausses informations.  Plus précisément, nous échantillonnons une partie statistiquement significative des cas d'application de la législation sur les fausses informations dans chaque pays et contrôlons la qualité des décisions d'application.  Nous utilisons ensuite ces contrôles de qualité pour obtenir des évaluations d'exécution avec un intervalle de confiance de 95 % (marge d'erreur de +/- 5 %), que nous utilisons pour calculer le nombre d'exécutions pour fausses informations signalé dans le rapport sur la transparence.  

Analyse des violations de contenus et de comptes

Au cours de ce cycle, nous avons constaté une augmentation de 38 % du nombre total de rapports sur les contenus et les comptes. Cette augmentation est due à la mise à jour de notre menu de rapport in-app pour les comptes, qui, en retour, a fourni aux Snapchatters plus d'options pour les rapports. Ainsi, nous avons noté une augmentation de 12 % du contenu total appliqué et de 40 % du nombre total de comptes uniques appliqués. Les Snapchatteurs ont notamment signalé plus de contenus et de comptes dans les catégories Harcèlement et intimidation et Autres biens réglementés. Celles-ci ont connu une augmentation respective de 300 % et 100 % des signalements, et de 83 % et 86 % des applications de contenu. Nous avons également enregistré une augmentation de 68 % des signalements et de 88 % des applications de contenu relatives au spam.

En outre, la multiplication des rapports sur les contenus et les comptes se traduit par une augmentation des délais d'application de la loi sur les contenus et les comptes. Le délai d'exécution médian pour tous les types de contenus et de comptes reste inférieur à une heure pour toutes les catégories.

De manière générale, bien que nous ayons enregistré des augmentations globales, nous pensons qu'il est important de continuer à améliorer les outils utilisés par notre communauté afin de signaler de manière active et précise les violations dès qu'elles apparaissent sur la plateforme.

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (CSEAI) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.

Notre équipe Trust & Safety utilise des outils de détection technologique active, tels que le hachage robuste de PhotoDNA et l'imagerie pédopornographique (CSAI) Match de Google pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.

Au cours du second semestre 2022, nous avons détecté de manière proactive et pris des mesures pour 94 % de l'ensemble des violations liées à l'exploitation et aux abus sexuels concernant des enfants signalées dans le présent rapport.

**Notez que chaque envoi au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné.

Contenu d'extrémistes terroristes et violents

Contenu d'extrémistes terroristes et violents

Au cours de la période considérée, nous avons supprimé 132 comptes pour violation de notre politique d'interdiction des contenus terroristes et extrémistes violents.

Chez Snap, nous supprimons les contenus terroristes et extrémistes violents signalés sur des canaux multiples. Nous encourageons notamment les utilisateurs à signaler les contenus terroristes et extrémistes violents via notre menu de signalement dans l'application, et nous travaillons en étroite collaboration avec les forces de l'ordre pour traiter les contenus terroristes et extrémistes violents susceptibles d'apparaître sur Snap.

Contenu portant sur l'automutilation et le suicide

Contenu portant sur l'automutilation et le suicide

La santé mentale et le bien-être des Snapchatters nous tiennent à cœur, ce qui a influencé - et continue d'influencer - nos décisions visant à concevoir Snapchat différemment. En tant que plateforme conçue pour les communications entre de véritables amis, nous pensons que Snapchat peut jouer un rôle unique en permettant aux amis de s'entraider dans les moments difficiles.

Lorsque notre équipe Trust & Safety reconnaît un Snapchatter en détresse, elle a la possibilité de transmettre des ressources de prévention et d'assistance en matière d'automutilation, et d'informer le personnel d'intervention d'urgence, le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.

Aperçu de pays

Cette section fournit un aperçu de l'application de nos Règles communautaires dans un échantillon de régions géographiques. Nos Règles s'appliquent à tout le contenu de Snapchat - et à tous les Snapchatters - à travers le monde, peu importe leur localisation.

Les informations relatives aux différents pays sont disponibles pour le téléchargement via le fichier CSV ci-joint :