5 décembre 2024
5 décembre 2024
Nous publions ce rapport sur la transparence deux fois par an afin de fournir des informations sur les efforts de Snap en matière de sécurité. Nous nous engageons à mener ces efforts et nous efforçons en permanence de rendre ces rapports plus complets et informatifs pour les nombreuses parties prenantes qui se soucient profondément de notre modération de contenu, de nos pratiques d'application de la loi et de la sécurité et du bien-être de la communauté Snapchat.
Ce rapport sur la transparence couvre le premier semestre 2024 (du 1er janvier au 30 juin). Comme pour nos précédents rapports, nous partageons les données sur le volume total de contenus dans l'application, les signalements au niveau des comptes que nos équipes Trust & Safety ont reçu et sanctionné dans des catégories spécifiques de violations des Règles communautaires, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements ; et la façon dont nous avons répondu aux avis de violation du droit d'auteur et de la marque déposée. Nous fournissons également des informations spécifiques à chaque pays dans les fichiers liés en bas de cette page.
Dans le cadre de notre engagement continu à améliorer en permanence nos rapports sur la transparence, nous introduisons également de nouvelles données soulignant nos efforts proactifs pour détecter et faire respecter un éventail plus large de violations de nos Règles communautaires. Nous avons inclus ces données aux niveaux mondial et national dans ce rapport et nous continuerons à le faire à l'avenir. Nous avons également corrigé une erreur d'étiquetage dans nos rapports précédents : là où nous faisions précédemment référence au « Nombre total de contenus sanctionnés », nous faisons désormais référence au « Nombre total d'infractions » afin de refléter le fait que les données fournies dans les colonnes pertinentes incluent des infractions au niveau du contenu et au niveau des comptes.
Pour plus d'informations sur nos politiques de lutte contre les préjudices en ligne potentiels et sur nos plans de poursuite de l'évolution de nos pratiques de signalement, veuillez lire notre récent blog sur la sécurité et l'impact concernant ce rapport sur la transparence. Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos des rapports sur la transparence au bas de la page.
Veuillez noter que la version la plus récente de ce rapport de transparence est disponible en anglais (EN-US).
Aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires
Nos équipes Trust & Safety appliquent nos Règles communautaires de manière proactive (grâce à l'utilisation d'outils automatisés) et réactive (en réponse aux signalements), comme expliqué plus en détail dans les sections suivantes de ce rapport. Au cours de ce cycle de rapports (1er semestre 2024), nos équipes Trust & Safety ont pris les mesures de sanction suivantes :
Aperçu du contenu et des comptes en infraction
Entre le 1er juillet et le 31 décembre 2023, Snap a pris des mesures contre 5 376 714 éléments de contenu dans le monde entier qui nous ont été signalés et qui ont violé nos règles communautaires.
Au cours de la période couverte par le rapport, nous avons constaté un taux de visualisation violente (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de story sur Snapchat, 1 contenait un contenu jugé contraire à nos politiques. Le délai médian de mise en œuvre du contenu signalé était d'environ 10 minutes.
Aperçu du contenu et des comptes en infraction
Entre le 1er juillet et le 31 décembre 2023, Snap a pris des mesures contre 5 376 714 éléments de contenu dans le monde entier qui nous ont été signalés et qui ont violé nos règles communautaires.
Au cours de la période couverte par le rapport, nous avons constaté un taux de visualisation violente (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de story sur Snapchat, 1 contenait un contenu jugé contraire à nos politiques. Le délai médian de mise en œuvre du contenu signalé était d'environ 10 minutes.
Aperçu du contenu et des comptes en infraction
Entre le 1er juillet et le 31 décembre 2023, Snap a pris des mesures contre 5 376 714 éléments de contenu dans le monde entier qui nous ont été signalés et qui ont violé nos règles communautaires.
Au cours de la période couverte par le rapport, nous avons constaté un taux de visualisation violente (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de story sur Snapchat, 1 contenait un contenu jugé contraire à nos politiques. Le délai médian de mise en œuvre du contenu signalé était d'environ 10 minutes.
Analyse des violations de contenus et de comptes
Nos taux globaux de signalement et d'application sont restés relativement similaires à ceux des six mois précédents Au cours de ce cycle, nous avons constaté une augmentation d'environ 10 % du nombre total de rapports sur le contenu et les comptes.
Le conflit entre Israël et le Hamas a débuté au cours de cette période, ce qui a entraîné une augmentation des contenus violents. Le nombre total de signalements liés à des propos haineux a augmenté de ~61%, tandis que le nombre total d'infractions liées au contenu des propos haineux a augmenté de ~97% et le nombre d'infractions liées à des comptes uniques a augmenté de ~124%. Les signalements de terrorisme et d'extrémisme violent ont également augmenté, bien qu'ils représentent moins de 0,1 % du total des contenus mis en application sur notre plateforme. Nos équipes de confiance et de sécurité continuent de rester vigilantes face aux conflits mondiaux afin d'assurer la sécurité de Snapchat. Nous avons également élargi notre rapport sur la transparence afin d'y inclure davantage d'informations au niveau mondial et national concernant le nombre total de rapports, de contenus appliqués et de comptes uniques appliqués pour des violations de notre politique en matière de terrorisme et d'extrémisme violent.
Aperçu du contenu et des comptes en infraction
Entre le 1er juillet et le 31 décembre 2023, Snap a pris des mesures contre 5 376 714 éléments de contenu dans le monde entier qui nous ont été signalés et qui ont violé nos règles communautaires.
Au cours de la période couverte par le rapport, nous avons constaté un taux de visualisation violente (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de story sur Snapchat, 1 contenait un contenu jugé contraire à nos politiques. Le délai médian de mise en œuvre du contenu signalé était d'environ 10 minutes.
La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Nous utilisons des outils de détection de technologie active tels que le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.
Au cours du second semestre 2023, nous avons détecté de manière proactive 59 % de l'ensemble des violations signalées en matière d'exploitation et d'abus sexuels concernant des enfants et nous avons pris des mesures à cet égard. Cela reflète une diminution totale de 39% par rapport à la période précédente, en raison des améliorations apportées aux options de signalement des Snapchatters, augmentant ainsi notre visibilité sur les envois potentiels de l'ACSE sur Snapchat.
*Notez que chaque soumission au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné. Nous avons aussi exclu les soumissions rétractées au NCMEC de ce numéro.
Contenu portant sur l'automutilation et le suicide
La santé mentale et le bien-être des utilisateurs de Snapchat nous tiennent particulièrement à cœur, ce qui continue d'influencer nos décisions de construire Snapchat différemment. En tant que plateforme conçue pour les communications entre et parmi de vrais amis, nous pensons que Snapchat peut jouer un rôle unique en permettant aux amis de s'entraider dans les moments difficiles.
Lorsque notre équipe Trust & Safety a connaissance d'un Snapchatter en détresse, elle peut lui transmettre des ressources de prévention et d'assistance en matière d'automutilation et avertir le personnel d'intervention d'urgence, le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.
Appels
Dans notre précédent rapport, nous avons introduit des statistiques sur les recours, en indiquant le nombre de fois où les utilisateurs nous ont demandé de réexaminer la décision initiale de modération de leur compte. Dans ce rapport, nous avons élargi nos appels afin de capturer l'ensemble des catégories de notre politique en matière de violations au niveau des comptes.
* L'arrêt de la diffusion de contenus ou d'activités liés à l'exploitation sexuelle des enfants est une priorité absolue. Snap consacre des ressources importantes pour cet objectif et ne tolère aucunement ce type de comportement. Une formation spéciale est nécessaire pour examiner les appels de dénonciation d'exploitation sexuelle des enfants, et une équipe limitée d'agents qui est chargée de ces examens en raison de la nature graphique du contenu. Au cours de l'automne 2023, Snap a mis en œuvre des changements de politique qui ont affecté la cohérence de certaines mesures contre les exploitations sexuelles des enfants, et nous avons remédié à ces incohérences par le biais d'une nouvelle formation des agents et d'une assurance qualité rigoureuse. Nous nous attendons à ce que le prochain rapport sur la transparence de Snap révèlera les progrès réalisés dans l'amélioration des délais de réponse aux appels de dénonciation d'exploitation sexuelle des enfants et dans l'amélioration de la précision des mesures d'exécution.
Aperçu régional et national
Cette section fournit un aperçu des actions de nos équipes Trust & Safety pour faire respecter nos Règles communautaires, à la fois de manière proactive et en réponse aux signalements de violations dans l'application, dans un échantillon de zones géographiques. Nos Règles communautaires s'appliquent à tout le contenu de Snapchat - et à tous Snapchatters - à travers le monde, peu importe leur localisation.
Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.
La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Nous utilisons des outils de détection de technologie active tels que le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.
Au cours du second semestre 2023, nous avons détecté de manière proactive 59 % de l'ensemble des violations signalées en matière d'exploitation et d'abus sexuels concernant des enfants et nous avons pris des mesures à cet égard. Cela reflète une diminution totale de 39% par rapport à la période précédente, en raison des améliorations apportées aux options de signalement des Snapchatters, augmentant ainsi notre visibilité sur les envois potentiels de l'ACSE sur Snapchat.
La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Nous utilisons des outils de détection de technologie active tels que le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.
Au cours du second semestre 2023, nous avons détecté de manière proactive 59 % de l'ensemble des violations signalées en matière d'exploitation et d'abus sexuels concernant des enfants et nous avons pris des mesures à cet égard. Cela reflète une diminution totale de 39% par rapport à la période précédente, en raison des améliorations apportées aux options de signalement des Snapchatters, augmentant ainsi notre visibilité sur les envois potentiels de l'ACSE sur Snapchat.
Modération des publicités
Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques PublicitairesPolitiques Publicitaires. Nous croyons en une approche responsable et respectueuse de la publicité, en créant une expérience sûre et agréable pour tous nos utilisateurs. Vous trouverez ci-dessous un aperçu de notre modération des publicités payantes sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours haine et la violation de la propriété intellectuelle. En outre, vous pouvez maintenant trouver la Galerie des publicités de Snapchat dans la barre de navigation de ce rapport sur la transparence.

























