25 octobre 2023
13 décembre 2023
Pour donner un aperçu des efforts de Snap en matière de sécurité ainsi que de la nature et du volume du contenu signalé sur notre plateforme, nous publions des rapports sur la transparence deux fois par an. Nous entendons poursuivre la publication de ces rapports dans l'objectif de les rendre plus complets et plus documentés, afin que les nombreuses parties prenantes qui s'intéressent de près à nos pratiques en matière de modération de contenu et d'application de la loi, ainsi qu'au bien-être de notre communauté puissent en profiter.
Le présent rapport de transparence couvre le premier semestre 2021 (1er janvier - 30 juin). Comme pour nos précédents rapports, nous partageons les données sur le nombre total de contenus dans l'application, les signalements au niveau des comptes que nous avons reçus et sanctionnés dans des catégories spécifiques de violations des politiques, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements, et nos différentes sanctions ventilées par pays. et nos mesures d’exécution ventilées par pays.
Dans le cadre de notre engagement permanent à améliorer nos rapports sur la transparence, nous introduisons quelques nouveaux éléments avec cette publication. Nous avons ajouté des points de données supplémentaires sur nos pratiques publicitaires et notre modération, ainsi que sur le contenu et les appels sur le compte. Pour se conformer à la loi de l’UE sur les services numériques, nous avons également ajouté de nouvelles informations contextuelles sur nos opérations dans les états membres de l’UE, telles que le nombre de modérateurs de contenu et d’utilisateurs actifs mensuels (MAU) dans la région. Une grande partie de ces informations se trouve dans le rapport et sur la page de notre Centre de transparence dédiée à l'Union européenne.
Enfin, nous avons mis à jour notre Glossaireen y ajoutant des liens vers nos « Explications sur les règles communautaires », qui offrent un contexte supplémentaire sur la politique de notre plateforme et sur nos efforts opérationnels.
Pour plus d'informations sur nos politiques de lutte contre les contenus préjudiciables en ligne et sur nos plans visant à améliorer nos pratiques de signalement, veuillez consulter notre récent blog sécurité et impact sur ce rapport de transparence.
Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos du rapport sur la transparence au bas de la page.
Veuillez noter que la version la plus récente de ce rapport de transparence est disponible en anglais (en-US).
Aperçu du contenu et des comptes en infraction
Du 1er janvier au 30 juin 2023, Snap a fait imposer 6 216 118 contenus dans le monde entier qui ont violé nos politiques.
Pendant ladite période, nous avons enregistré un taux de vues non conformes (TVNC) de 0,03 %, ce qui signifie que sur 10 000 vues de contenu Snap et de Story sur Snapchat, trois contenaient du contenu qui violait nos politiques.
*L'application correcte et cohérente de la législation contre les fausses informations est un processus dynamique qui nécessite un contexte actualisé et de la diligence. Comme nous nous efforçons d'améliorer continuellement la précision de l'application de la loi de nos agents dans cette catégorie, nous avons choisi, depuis le premier semestre 2022, de signaler des chiffres dans les catégories « Contenu appliqué » et « Comptes uniques appliqués » qui sont estimés sur la base d'un examen rigoureux d'assurance qualité d'une partie statistiquement significative de l'application de la loi sur les fausses informations. Plus précisément, nous échantillonnons une partie statistiquement significative des cas d'application de la législation sur les fausses informations dans chaque pays et contrôlons la qualité des décisions d'application. Nous utilisons ensuite ces contrôles de qualité pour obtenir des évaluations de modération avec un intervalle de confiance de 95 % (marge d'erreur de +/- 5 %), que nous utilisons pour calculer le nombre de modération pour fausses informations signalées dans le rapport sur la transparence.
Analyse des violations de contenus et de comptes
Nos taux globaux de signalement et d’application sont restés assez similaires à ceux des six mois précédents, à quelques exceptions près dans les catégories clés. Nous avons observé une diminution d’environ 3 % du nombre total de contenu, de rapports et de modération sur ce cycle.
Les catégories les plus importantes étaient le harcèlement et l’intimidation, le spam, les armes et les fausses informations. Le harcèlement et l’intimidation ont augmenté d'environ 56 % comparé au nombre total de signalements, puis une augmentation de près de 39 % du contenu et des impositions sur le compte unique. Ces augmentations des exécutions ont été couplées à une diminution d’environ 46 % du délai d’exécution, ce qui souligne l’efficacité opérationnelle de notre équipe pour ce type de contenu. De même, nous avons observé une augmentation d’environ 65 % du nombre total de signalements de spam, une augmentation de près de 110 % des modérations de contenu et une augmentation de près de 80 % des comptes uniques imposés à la loi et nos équipes ont également réduit le délai de traitement de près de 80 %. Notre catégorie d’armes a vu une diminution d’environ 13 % du nombre total de signalements, une diminution d’environ 51 % des modérations de contenu et une réduction d’environ 53 % des comptes uniques imposés. Enfin, notre catégorie de fausses informations a vu une augmentation d’environ 14 % du nombre total de signalements, mais une diminution d’environ 78 % des modérations de contenu et une diminution d’environ 74 % des comptes uniques imposés. Cela peut être attribué à la poursuite du processus d’assurance de la qualité (QA) et au recours aux ressources que nous appliquons aux rapports de fausses informations pour nous assurer que nos équipes de modération identifient les fausses informations et agissent avec précision sur la plateforme.
Dans l’ensemble, bien que nous ayons observé des chiffres globalement similaires à ceux de la dernière période, nous pensons qu’il est important de poursuivre l’amélioration des outils de notre communauté pour signaler activement et précisément les violations potentielles telles qu’elles apparaissent sur la plateforme.