Publication : 30 janvier 2026
Dernière mise à jour : 30 janvier 2026
Ce rapport couvre la période allant du 1er janvier 2025 au 31 décembre 2025.
Contexte
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Les technologies que nous utilisons comprennent (a) la correspondance de hachage robuste PhotoDNA et le système d'images d'abus sexuels sur mineur (Child Sexual Abuse Imagery, CSAI) de Google pour identifier respectivement les images et vidéos illégales connues de CSEA, et (b) l'API de sécurité du contenu (Content Safety API) de Google pour identifier les images CSEA nouvelles, "non encore recensées". Nous signalons ces images au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC, à son tour, travaille en étroite collaboration avec les forces de l'ordre aux États-Unis et dans d'autres pays, le cas échéant.
Rapport
Le graphique ci-dessous comprend des données sur la détection proactive et les mesures d'exécution qui en résultent à l'encontre des utilisateurs·rices de l'UE pour les images de CSEA en 2025. (Veuillez noter que certaines mesures d'exécution résultant de cet examen proactif en 2025 peuvent toujours faire l'objet d'un appel au moment de l'élaboration du présent rapport et ne seront donc pas reflétées dans les données ci-dessous sur les appels et les rétablissements.)
Données de l'UE
Totaux
Contenu total identifié comme étant de possibles images de CSEA grâce à un examen proactif
189 057
Total des mesures d'exécution pour violation des politiques de Snap concernant la CSEA
61 774
Nombre total d'appels
12 246
Total des appels examinés
12 246
Total des poursuites annulées à la suite d'un appel
1 012
Taux de mesures d'exécution annulées après appel (Total des mesures d'exécution annulées / Total des appels examinés)
8,26 %
Période de conservation du CSEA détectée
730 jours
1. Cette catégorie signale les mesures d'exécution en cas de violations des Règles communautaires de Snap interdisant l'exploitation sexuelle des enfants. Le contenu détecté de manière proactive et sanctionnés au titre d’autres violations des Règles communautaires de Snap n'est pas signalé ici.
2. Une mesure d'exécution peut être annulée si nous déterminons qu'elle était erronée sur la base de nos politiques en vigueur au moment de l'application de cette mesure, ou si nous déterminons qu'elle a été correctement appliquée au départ, mais que notre politique applicable a été modifiée au moment de l'examen de l'appel.
Mesures de protection en matière de modération du contenu
Les mesures de protection appliquées pour l'analyse des médias du CSEA sont exposées dans le rapport sur la transparence de la DSA de l'UE ci-dessus.