Snap Values
Rapport d’analyse des médias sur l’exploitation et les abus sexuels d’enfants (CSEA)

Publication : 30 janvier 2026

Dernière mise à jour : 30 janvier 2026 


Ce rapport couvre la période allant du 1er janvier 2025 au 31 décembre 2025.


Contexte

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.


Les technologies que nous utilisons comprennent (a) la correspondance de hachage robuste PhotoDNA et le système d'images d'abus sexuels sur mineur (Child Sexual Abuse Imagery, CSAI) de Google pour identifier respectivement les images et vidéos illégales connues de CSEA, et (b) l'API de sécurité du contenu (Content Safety API) de Google pour identifier les images CSEA nouvelles, "non encore recensées". Nous signalons ces images au CSEA au National Center for Missing and Exploited Children (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC, à son tour, travaille en étroite collaboration avec les forces de l'ordre aux États-Unis et dans d'autres pays, le cas échéant.


Rapport

Le graphique ci-dessous comprend des données sur la détection proactive et les mesures d'exécution qui en résultent à l'encontre des utilisateurs·rices de l'UE pour les images de CSEA en 2025. (Veuillez noter que certaines mesures d'exécution résultant de cet examen proactif en 2025 peuvent toujours faire l'objet d'un appel au moment de l'élaboration du présent rapport et ne seront donc pas reflétées dans les données ci-dessous sur les appels et les rétablissements.)


Données de l'UE 

Totaux

Contenu total identifié comme étant de possibles images de CSEA grâce à un examen proactif 

189 057

Total des mesures d'exécution pour violation des politiques de Snap concernant la CSEA

61 774

Nombre total d'appels

12 246

Total des appels examinés 

12 246

Total des poursuites annulées à la suite d'un appel

1 012

Taux de mesures d'exécution annulées après appel (Total des mesures d'exécution annulées / Total des appels examinés)

8,26 %

Période de conservation du CSEA détectée

730 jours

1.   Cette catégorie signale les mesures d'exécution en cas de violations des Règles communautaires de Snap interdisant l'exploitation sexuelle des enfants.  Le contenu détecté de manière proactive et sanctionnés au titre d’autres violations des Règles communautaires de Snap n'est pas signalé ici.

2. Une mesure d'exécution peut être annulée si nous déterminons qu'elle était erronée sur la base de nos politiques en vigueur au moment de l'application de cette mesure, ou si nous déterminons qu'elle a été correctement appliquée au départ, mais que notre politique applicable a été modifiée au moment de l'examen de l'appel.

Mesures de protection en matière de modération du contenu

Les mesures de protection appliquées pour l'analyse des médias du CSEA sont exposées dans le rapport sur la transparence de la DSA de l'UE ci-dessus.