Union européenne
1er juillet 2023 au 31 décembre 2023

Publication :

25 avril 2024

Mise à jour :

25 avril 2024

Bienvenue sur notre page de transparence de l'Union européenne (UE), où nous publions des informations spécifiques à l'UE requises par la loi sur les services numériques (DSA), la directive sur les services de médias audiovisuels (AVMSD) et la loi néerlandaise sur les médias (DMA). Veuillez noter que la version la plus récente de ces rapports de transparence est disponible en anglais (en-US).

Représentant légal 

Snap Group Limited a désigné Snap B.V. comme son représentant légal aux fins du DSA. Vous pouvez contacter le représentant sur dsa-enquiries [@] snapchat.com pour le DSA, sur vsp-enquiries [@] snapchat.com pour l'AVMSD et le DMA, via notre Site d'assistance [ici], ou sur :

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Pays-Bas

Si vous êtes un organisme chargé de l'application de la loi, veuillez suivre les étapes décrites ici. Veuillez communiquer avec nous en néerlandais ou en anglais.

Autorités de régulation

Pour le DSA, nous sommes réglementés par la Commission européenne et l’Autorité néerlandaise pour les consommateurs et les marchés (ACM).  Pour l'AVMSD et le DMA, nous sommes réglementés par l'Autorité néerlandaise des médias (CvdM).

Rapport sur la transparence du DSA

Snap est tenu, en vertu des articles 15, 24 et 42 du DSA, de publier des rapports renfermant des informations prescrites sur la modération de contenu de Snap pour les services de Snapchat qui sont qualifiées de « plateformes en ligne », c’est-à-dire Spotlight, Pour vous, les profils publics, les cartes, les Lenses et la publicité. Ce rapport doit être publié tous les 6 mois, à partir du 25 octobre 2023.

Snap publie des rapports sur la transparence deux fois par an pour fournir des informations sur les efforts de sécurité de Snap, ainsi que sur la nature et le volume du contenu signalé sur notre plateforme. Notre dernier rapport pour le second semestre de 2023 (1er Juillet-31 Décembre) est disponible ici. Les mesures spécifiques à la loi sur les services numériques sont disponibles sur cette page.

Bénéficiaires actifs mensuels moyens 
(Articles 24.2 et 42.3 du DSA)

Au 31 août 2023, nous comptions 90,9 millions de bénéficiaires actifs mensuels moyens (« AMAR ») de notre application Snapchat dans l’UE. Cela signifie qu'en moyenne sur les 6 derniers mois, 90,9 millions d'utilisateurs enregistrés dans l'UE ont ouvert l'application Snapchat au moins une fois au cours d'un mois donné.

Ces chiffres se décomposent comme suit par État-membre :

Ces chiffres servent à répondre aux règles actuelles du DSA et ne doivent être utilisés qu’à des fins de DSA. Nous avons modifié le mode de calcul de ce chiffre au fil du temps, notamment en réponse à l’évolution des technologies, de notre politique interne et des orientations des autorités de régulation. Les chiffres ne sont pas destinés à être comparés d’une période à l’autre. Cela peut également différer des estimations utilisées pour d’autres chiffres d’utilisateur actif que nous publions à d’autres fins.


Demandes des autorités des États membres
(Article 15.1(a) du DSA)

Demandes de retrait 

Au cours de la période, nous avons reçu 0 demande de retrait de la part des États membres de l'UE en vertu de l'article 9 du DSA. 

Demandes d'informations 

Au cours de la période, nous avons reçu les demandes d’informations suivantes de la part des États membres de l'UE en vertu de l'article 10 du DSA :

Le délai médian d’information des autorités de la réception des Demandes d’information est de 0 minute. Nous accusons réception de façon automatisée. Le délai médian pour donner suite aux demandes d'information est d'environ 10 jours. Ce chiffre porte sur la période allant de la réception d’une demande d’informations par Snap au moment où Snap estime que la demande est entièrement résolue. Dans certains cas, la durée de ce processus dépend en partie de la rapidité avec laquelle les forces de l’ordre répondent à toute demande de clarification de la part de Snap, nécessaire au traitement de la demande.

Modération de contenu 


Tous les contenus sur Snapchat doivent respecter nos Règles communautaires et à nos Conditions d'utilisation du service ainsi que les conditions, règles et explications afférentes. Les mécanismes de détection proactifs et les signalements de contenu ou de comptes illégaux ou en violation de la loi incitent à un examen, auquel cas, nos systèmes d'outils traitent la demande, recueillent les métadonnées pertinentes et acheminent le contenu à notre équipe de modération via une interface utilisateur structurée conçue pour faciliter les opérations d'examen efficaces et efficientes. Lorsque nos équipes de modération déterminent, soit par un examen humain ou des moyens automatisés, qu'un utilisateur a enfreint nos Conditions, nous pouvons supprimer le contenu ou le compte en infraction, résilier ou limiter la visibilité du compte en question, et/ou aviser les forces de l'ordre comme indiqué dans notre présentation sur la modération, l'exécution et les appels de Snapchat.  Les utilisateurs dont les comptes sont verrouillés par notre équipe de sécurité en raison de violations des Règles communautaires peuvent soumettre un appel sur le compte verrouillé, et les utilisateurs peuvent faire appel de certaines mesures d'application de contenu.

Notifications relatives aux contenus et aux comptes (Article 15.1(b) du DSA)

Snap a mis en place des mécanismes permettant aux utilisateurs et aux non-utilisateurs de notifier à Snap les contenus et les comptes enfreignant nos Règles communautaires et nos Conditions d’utilisation du service sur la plateforme, y compris ceux jugés illégaux en vertu de l’Article 16 du DSA.  Ces mécanismes de signalement sont disponibles dans l’application elle-même (c’est-à-dire directement à partir du contenu) et sur notre site web.

Au cours de la période concernée, nous avons reçu les notifications suivantes relatives aux contenus et aux comptes dans l’UE :

Au cours de la deuxième moitié de 2023, nous avons traité 664 896 signalements via des moyens automatisés uniquement. Toutes les mesures ont été appliquées en vertu de nos Règles communautaires, qui incluent les contenus illégaux. 

Outre les contenus et les comptes générés par les utilisateurs, nous modérons les publicités si elles enfreignent les politiques de notre plateforme. Vous trouverez ci-dessous le nombre total de publicités signalées et supprimées dans l'UE. 

Notifications des signaleurs de confiance (Article 15.1(b))

Concernant la période sur laquelle porte notre Rapport sur la transparence le plus récent (2° trimestre 2023), aucun signaleur de confiance n’a été formellement notifié en vertu du DSA. De ce fait, le nombre de notifications soumises par ces signaleurs de confiance était de zéro (0) au cours de cette période.

Modération proactive des contenus (Article 15.1(c))

Au cours de la période concernée, Snap a appliqué des mesures suivantes sur des contenus et des comptes dans l’UE après avoir initié la modération des contenus de sa propre initiative :

L’ensemble des efforts de modération de la propre initiative de Snap sont exécutés par intervention humaine ou automatisation. ALl Sur nos surfaces de contenu public, le contenu passe généralement à la fois par une modération automatique et un examen humain avant de pouvoir être diffusé à un large public. Les outils automatisés sont :

  • Détection proactive des contenus illégaux et en violation de l'utilisation de l'apprentissage automatique ;

  • Outils de correspondances de hachage (tels que PhotoDNA et le CSAI Match de Google) ;

  • Détection de langage abusif pour refuser le contenu sur la base d'une liste de mots-clés illicites identifiée et régulièrement mise à jour, y compris les emojis.


Appels (Article 15.1(d))

Au cours de la période concernée, Snap a traité les appels relatifs aux contenus et aux comptes suivants par le biais de ses systèmes internes de traitement des réclamations :


* La lutte contre l'exploitation sexuelle des enfants est une priorité absolue. Snap consacre des ressources importantes à cet effet et ne tolère aucunement ce type de comportement.  Une formation spéciale est nécessaire pour examiner les appels de dénonciation d'exploitation sexuelle des enfants, et une équipe limitée d'agents est chargée de ces examens en raison de la nature graphique du contenu.  Au cours de l'automne 2023, Snap a mis en œuvre des changements de politique qui ont affecté la cohérence de certaines mesures contre les exploitations sexuelles des enfants, et nous avons remédié à ces incohérences par le biais d'une nouvelle formation des agents et d'une assurance qualité rigoureuse.  Nous nous attendons à ce que le prochain rapport sur la transparence révèle les progrès réalisés dans l'amélioration des délais de réponse aux appels de dénonciation d'exploitation sexuelle des enfants et dans l'amélioration de la précision des mesures d'exécution.

Outils automatisés de modération de contenu (article 15.1(e))

Sur nos surfaces de contenu public, le contenu passe généralement à la fois par une modération automatique et un examen humain avant de pouvoir être diffusé à un large public. Les outils automatisés comprennent :

  • Détection proactive des contenus illégaux et interdits grâce à l'apprentissage automatique ;

  • Des outils de hachage (comme PhotoDNA et le CSAI Match de Google) ;

  • Détection de langage abusif pour refuser le contenu sur la base d'une liste de mots-clés abusifs identifiée et régulièrement mise à jour, y compris les emojis.


La précision des technologies de modération automatisée pour tous les préjudices était d'environ 96,61 % et le taux d'erreur était d'environ 3,39 %.


Garanties relatives à la modération du contenu (Articles 15.1(e))

Nous sommes conscients qu’il y a des risques associés à la modération du contenu, y compris des risques pour la liberté d’expression qui peuvent être causés par la partialité des modérateurs automatisés et humains et par des rapports abusifs, notamment par des gouvernements, des constitutions politiques ou des personnes bien organisées. Snapchat n’est généralement pas un lieu de contenu politique ou activiste, en particulier dans nos espaces publics. 


Néanmoins, pour prévenir ces risques, Snap a mis en place des tests et des formations, et dispose de procédures robustes et cohérentes pour le traitement des rapports sur le contenu illégal ou en violation de la loi, y compris auprès des autorités gouvernementales. Nous évaluons et améliorons constamment nos algorithmes de modération de contenu. Bien qu'il soit difficile de détecter les atteintes potentielles à la liberté d'expression, nous n'avons pas connaissance de problèmes importants et nous mettons à la disposition de nos utilisateurs des moyens de signaler les erreurs éventuelles.


Nos politiques et nos systèmes favorisent une application cohérente et équitable et, comme décrit ci-dessus, offrent aux Snapchatters la possibilité de contester de manière significative les résultats de l'application par le biais de procédures de notification et d'appel qui visent à sauvegarder les intérêts de notre communauté tout en protégeant les droits individuels des Snapchatters.

Nous nous efforçons en permanence d’améliorer nos politiques et nos procédures d’exécution. Nous avons également fait de grands progrès pour combattre le contenu et les activités potentiellement nuisibles et illégales sur Snapchat. Cela se reflète dans la hausse de nos chiffres de signalement et d’exécution de notre dernier Rapport sur la transparence et la diminution des taux de prévalence pour les violations sur Snapchat dans son ensemble. 


Règlements extrajudiciaires (Article 24.1(a))

Pour la période couverte par notre dernier rapport sur la transparence (deuxième semestre 2023), il n'y avait pas d'organismes de règlement extrajudiciaire des litiges officiellement désignés dans le cadre du règlement sur les services numériques. Par conséquent, le nombre de litiges soumis à ces organismes était nul (0) au cours de cette période, et nous ne sommes pas en mesure de fournir les résultats, les délais médians de règlement et la part des litiges pour lesquels nous avons mis en œuvre les décisions de l'organisme. 



Suspensions de compte (Article 24.1(b))

Au cours du deuxième semestre 2023, aucune suspension de compte n'a été imposée en vertu de l'article 23. L'équipe de confiance et de sécurité de Snap a mis en place des procédures pour limiter la possibilité que des comptes d'utilisateurs soumettent fréquemment des avis ou des plaintes qui sont manifestement infondés. Ces procédures comprennent la limitation de la création de rapports en double et l'utilisation de filtres d'e-mail pour empêcher les utilisateurs qui ont fréquemment soumis des rapports manifestement infondés de continuer à le faire. Snap prend les mesures d’exécution appropriées à l’égard des comptes comme détaillé dans notre Note explicative sur la modération, l’exécution et les appels de Snapchat et les informations sur le niveau d’exécution du compte Snap se trouvent dans notre Rapport sur la transparence (S2 2023). Ces mesures continueront à être examinées et à faire l'objet d'itérations.


Ressources, spécialité et assistance des modérateurs (Article 42.2)

Notre équipe de modération de contenu opère dans le monde entier, ce qui nous permet de garantir la sécurité des Snapchatters 24h/24, 7j/7. Ci-dessous, vous trouverez la répartition de nos ressources de modération humaine par les spécialités linguistiques des modérateurs (veuillez noter que certains modérateurs se spécialisent dans plusieurs langues) à partir du 31 décembre 2023 :

Le tableau ci-dessus inclut tous les modérateurs qui prennent en charge les langues des États membres de l'UE au 31 décembre 2023. Dans les situations où nous avons besoin d’une assistance linguistique supplémentaire, nous utilisons des services de traduction.

Les modérateurs sont recrutés sur la base d’une description de poste standard qui inclut une exigence linguistique (en fonction du besoin). L’exigence linguistique stipule que le candidat doit être en mesure de démontrer sa maîtrise écrite et orale de la langue et avoir au moins un an d’expérience professionnelle pour les postes de premier niveau. Les candidats doivent également satisfaire aux exigences en matière de formation et d'expérience pour que leur candidature soit prise en considération. Les candidats doivent également faire montre d'une compréhension des événements en cours pour le pays ou la région où ils participent à la modération du contenu.

Notre équipe de modération applique nos politiques et nos mesures d’exécution pour aider à protéger notre communauté Snapchat. La formation se déroule sur plusieurs semaines et les nouveaux membres de l’équipe sont formés aux politiques, aux outils et aux procédures d’escalade de Snap. Après la formation, chaque modérateur doit passer un examen de certification avant d’être autorisé à examiner le contenu. Notre équipe de modération participe régulièrement à une formation de remise à niveau en rapport à leurs flux de travail, notamment lorsque nous faisons face à des cas à la limite de nos politiques et à des situations dépendantes du contexte. Nous organisons également des programmes de perfectionnement, des sessions de certification et des quiz pour nous assurer que tous les modérateurs sont à jour et qu’ils sont conformes à toutes les politiques mises à jour. Enfin, lorsque des tendances de contenu urgentes font surface sur des événements en cours, nous diffusons rapidement des clarifications de politique afin que les équipes puissent répondre en fonction des politiques de Snap.

Nous fournissons à notre équipe de modération de contenu, les « premiers répondants numériques » de Snap, un soutien et des ressources importants, y compris un soutien en matière de bien-être sur le lieu de travail et un accès facile aux services de santé mentale. 

Rapport d’analyse des médias sur l’exploitation et les abus sexuels d’enfants (CSEA)


Contexte

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.


Nous utilisons le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.


Rapport

Les données ci-dessous sont basées sur le résultat d'un balayage proactif utilisant PhotoDNA et/ou CSAI Match des médias téléchargés sur la galerie photos d'un utilisateur sur Snapchat.

La lutte contre l'exploitation sexuelle des enfants est une priorité absolue. Snap consacre des ressources importantes à cet effet et ne tolère aucunement ce type de comportement.  Une formation spéciale est nécessaire pour examiner les appels de dénonciation d'exploitation sexuelle des enfants, et une équipe limitée d'agents est chargée de ces examens en raison de la nature graphique du contenu.  Au cours de l'automne 2023, Snap a mis en œuvre des changements de politique qui ont affecté la cohérence de certaines mesures contre les exploitations sexuelles des enfants, et nous avons remédié à ces incohérences par le biais d'une nouvelle formation des agents et d'une assurance qualité rigoureuse.  Nous nous attendons à ce que le prochain rapport sur la transparence révèle les progrès réalisés dans l'amélioration des délais de réponse aux appels de dénonciation d'exploitation sexuelle des enfants et dans l'amélioration de la précision des mesures d'exécution.  

Mesures de protection en matière de modération du contenu

Les garanties appliquées pour l'analyse des médias du CSEA sont énoncées dans la section ci-dessus « Mesures de protection en matière de modération du contenu » en vertu de notre rapport sur le DSA.


Rapport d’analyse des médias sur l’exploitation et les abus sexuels d’enfants (CSEA)


Contexte

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.


Nous utilisons le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.


Rapport

Les données ci-dessous sont basées sur le résultat d'un balayage proactif utilisant PhotoDNA et/ou CSAI Match des médias téléchargés sur la galerie photos d'un utilisateur sur Snapchat.

La lutte contre l'exploitation sexuelle des enfants est une priorité absolue. Snap consacre des ressources importantes à cet effet et ne tolère aucunement ce type de comportement.  Une formation spéciale est nécessaire pour examiner les appels de dénonciation d'exploitation sexuelle des enfants, et une équipe limitée d'agents est chargée de ces examens en raison de la nature graphique du contenu.  Au cours de l'automne 2023, Snap a mis en œuvre des changements de politique qui ont affecté la cohérence de certaines mesures contre les exploitations sexuelles des enfants, et nous avons remédié à ces incohérences par le biais d'une nouvelle formation des agents et d'une assurance qualité rigoureuse.  Nous nous attendons à ce que le prochain rapport sur la transparence révèle les progrès réalisés dans l'amélioration des délais de réponse aux appels de dénonciation d'exploitation sexuelle des enfants et dans l'amélioration de la précision des mesures d'exécution.  

Mesures de protection en matière de modération du contenu

Les garanties appliquées pour l'analyse des médias du CSEA sont énoncées dans la section ci-dessus « Mesures de protection en matière de modération du contenu » en vertu de notre rapport sur le DSA.


La lutte contre l'exploitation sexuelle des enfants est une priorité absolue. Snap consacre des ressources importantes à cet effet et ne tolère aucunement ce type de comportement.  Une formation spéciale est nécessaire pour examiner les appels de dénonciation d'exploitation sexuelle des enfants, et une équipe limitée d'agents est chargée de ces examens en raison de la nature graphique du contenu.  Au cours de l'automne 2023, Snap a mis en œuvre des changements de politique qui ont affecté la cohérence de certaines mesures contre les exploitations sexuelles des enfants, et nous avons remédié à ces incohérences par le biais d'une nouvelle formation des agents et d'une assurance qualité rigoureuse.  Nous nous attendons à ce que le prochain rapport sur la transparence révèle les progrès réalisés dans l'amélioration des délais de réponse aux appels de dénonciation d'exploitation sexuelle des enfants et dans l'amélioration de la précision des mesures d'exécution.  

Mesures de protection en matière de modération du contenu

Les garanties appliquées pour l'analyse des médias du CSEA sont énoncées dans la section ci-dessus « Mesures de protection en matière de modération du contenu » en vertu de notre rapport sur le DSA.


Ces chiffres se décomposent comme suit par État-membre :

Ces chiffres se décomposent comme suit par État-membre :