Privacy, Safety, and Policy Hub
Union européenne
Du 1ᵉʳ janvier 2024 au 30 juin 2024

Publication :

25 octobre 2024

Mise à jour :

17 décembre 2024

Bienvenue sur notre page de transparence de l'Union européenne (UE), où nous publions des informations spécifiques à l'UE requises par la loi sur les services numériques (DSA), la directive sur les services de médias audiovisuels (directive SMA), la loi néerlandaise sur les médias (DMA) et le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste (TCO). Veuillez noter que la version la plus récente de ces rapports de transparence est disponible en anglais (en-US).

Représentant légal 

Snap Group Limited a désigné Snap B.V. comme son représentant légal aux fins du DSA. Vous pouvez contacter le représentant à l'adresse dsa-enquiries [@] snapchat.com pour le DSA, à l'adresse vsp-enquiries [@] snapchat.com pour la directive SMA et le DMA, à l'adresse tco-enquiries [@] snapchat.com pour le TCO, par l'intermédiaire de notre site d'assistance [ici], ou à l'adresse :

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Pays-Bas

Si vous êtes un organisme chargé de l'application de la loi, veuillez suivre les étapes décrites ici.

Veuillez nous contacter en anglais ou en néerlandais.

Autorités de régulation

Pour le DSA, nous sommes réglementés par la Commission européenne et l’Autorité néerlandaise pour les consommateurs et les marchés (ACM). Pour l'AVMSD et le DMA, nous sommes réglementés par l'Autorité néerlandaise des médias (CvdM). Pour le TCO, nous sommes réglementés par l'Autorité néerlandaise de prévention du contenu en ligne à caractère terroriste et des supports d'abus sexuel sur les enfants (ATKM).

Rapport sur la transparence du DSA

Dernière mise à jour : 25 octobre 2024

Nous publions ce rapport sur nos efforts de modération de contenu sur Snapchat en conformité aux exigences de publication de rapports de transparence stipulées dans les articles 15, 24 et 42 de la loi sur les services numériques de l'Union européenne (UE) (Règlement (UE) 2022/2065) (« DSA »). Sauf indication contraire, les informations contenues dans ce rapport portent sur la période de déclaration allant du 1er janvier 2024 au 30 juin 2024 (1er semestre 2024) et couvrent la modération de contenu sur les fonctionnalités de Snapchat qui sont réglementées par le DSA. 

Nous nous efforçons en permanence d'améliorer notre reporting. Pour cette période de déclaration (1er semestre 2024), nous avons apporté des modifications à la structure de notre rapport en intégrant de nouveaux tableaux plus distinctifs pour fournir un meilleur aperçu de nos efforts de modération de contenu. 

1. Bénéficiaires actifs mensuels moyens 
(Articles 24.2 et 42.3 du DSA)


Au 1er octobre 2024, nous comptions environ 92,9 millions de bénéficiaires actifs mensuels moyens (« AMAR ») de notre application Snapchat dans l'UE. Cela signifie qu'en moyenne sur la période de 6 mois se terminant le 30 septembre 2024, 92,9 millions d'utilisateurs enregistrés dans l'UE ont ouvert l'application Snapchat au moins une fois au cours d'un mois donné.

Ces chiffres se décomposent comme suit par État-membre :

Ces chiffres servent à répondre aux attentes actuelles du DSA et ne doivent être utilisés qu’à des fins de DSA. Nous avons modifié le mode de calcul de ce chiffre au fil du temps, notamment en réponse à l’évolution des technologies, de notre politique interne et des orientations des autorités de régulation. Les chiffres ne sont pas destinés à être comparés d’une période à l’autre. Cela peut également différer des estimations utilisées pour d’autres chiffres d’utilisateur actif que nous publions à d’autres fins.

2. Demandes de l'autorité de l'État membre
(Article 15.1(a) du DSA)
a) Ordres d'agir à l'égard du contenu illégal


Au cours de cette période de signalement (1er semestre 2024), nous avons reçu zéro (0) ordre d'agir à l'égard des éléments de contenu illégal spécifiquement identifiés de la part des autorités des États membres de l'UE, y compris ceux délivrés en conformité à l'article 9 du DSA. 

Étant donné que ce nombre est zéro (0), nous ne pouvons pas fournir de ventilation par type de contenu illégal en cause ou par État membre qui émet la commande, ou les délais médians pour accuser réception ou donner effet aux commandes.

b) Commandes de fournir des informations 


Au cours de cette période de signalement (1er semestre 2024), nous avons reçu les commandes suivantes de divulguer les données utilisateur des autorités des États membres de l'UE, y compris celles émises en conformité à l'article 10 du DSA :


Le délai médian pour informer les autorités compétentes de la réception de ces commandes de fournir des informations était de 0 minutes, nous fournissons une réponse automatisée en accusant la réception. 

Le délai médian pour donner effet à ces commandes de fournir des informations était d'environ 7 jours. Cette mesure reflète la période à partir du moment où Snap a reçu une commande jusqu'au moment où Snap a estimé que la question était entièrement résolue, qui, dans des cas individuels, peut dépendre en partie de la vitesse avec laquelle l'autorité de l'État membre compétente répond à toute demande de clarification de la part de Snap nécessaire pour traiter la commande.

Notez que nous ne fournissons pas de ventilation des commandes ci-dessus pour fournir des informations classées par type de contenu illégal en cause parce que ces informations ne sont généralement pas disponibles pour nous.

3. Modération du contenu 


Tout le contenu sur Snapchat doit être conforme aux Règles communautaires et aux Conditions d'utilisation du service. Certains contenus doivent également respecter des règles et politiques supplémentaires. Par exemple, le contenu soumis pour recommandation algorithmique à un public plus large sur nos surfaces de diffusion publique doit répondre aux normes supplémentaires et plus élevées fournies dans notre Charte des contenus pour l'accès à plus de visibilité, tandis que les publicités doivent être conformes à nos politiques relatives à la publicité.

Nous appliquons ces politiques en utilisant la technologie et l'examen humain. Nous fournissons également des mécanismes permettant aux Snapchatters de signaler les violations, y compris le contenu et les activités illégales, directement dans l'application ou via notre site Web. Les mécanismes et les rapports de détection proactifs incitent à un examen,qui exploite ensuite une combinaison d'outils automatisés et de modérateurs humains pour prendre des mesures appropriées en conformité à nos politiques. 

Nous fournissons ci-dessous de plus amples informations sur notre modération de contenu sur nos surfaces publiques au cours du 1er semestre 2024.

a) Avis soumis en conformité à l'article 16 du DSA 
(Article 15.1(b) du DSA)

En conformité à l'article 16 du DSA, Snap a mis en place des mécanismes permettant aux utilisateurs et aux non-utilisateurs de notifier à Snap la présence sur Snapchat de éléments d'informations spécifiques qu'ils jugent illégaux. Ils peuvent le faire en signalant des éléments spécifiques de contenu ou de comptes, soit directement dans l'application Snapchat ou sur notre site Web. 

Au cours de la période de signalement (1er semestre 2024), nous avons reçu les avis suivants soumis en conformité à l'article 16 du DSA dans l'UE :


Ci-dessous, nous fournissons une ventilation reflétant la façon dont ces avis ont été traités - c'est-à-dire par le biais d'un processus comportant un examen humain ou uniquement par des moyens automatisés : 

En envoyant des avis dans l'application ou via notre site Web, les signaleurs peuvent sélectionner une raison de signaler spécifique dans un menu d'options reflétant les catégories de violations énumérées dans nos Règles communautaires (par exemple les discours de haine, l'utilisation ou les ventes de drogues). Nos Règles communautaires interdisent le contenu et les activités qui sont illégales dans l'UE, de sorte que nos raisons de signaler reflètent largement des catégories spécifiques de contenu illégal dans l'UE. Toutefois, dans la mesure où un journaliste dans l'UE estime que le contenu ou le compte qu'il signale est illégal pour des raisons qui ne sont pas spécifiquement référencées dans notre menu de signalement, il peut le signaler pour « d'autres contenus illégaux » et a la possibilité d'expliquer pourquoi il pense que ce qu'il signale est illégal. 

Si, après examen, nous déterminons que le contenu ou le compte signalé enfreint nos Règles communautaires (y compris pour des raisons d'illégalité), nous pouvons (i) supprimer le contenu offensant, (ii) avertir le titulaire du compte pertinent et appliquer une suppression au compte, et / ou (iii) verrouiller le compte pertinent, comme expliqué plus en détail dans notre Explication sur la modération de Snapchat, l'exécution et les appels

Au cours du 1er semestre 2024, nous avons pris les mesures suivantes à la réception des avis soumis en conformité à l'article 16 du DSA dans l'UE :

Au cours du 1er semestre 2024, tous les signalements « d'autres contenus illégaux » que nous avons effectués ont finalement été appliqués en vertu de nos Règles communautaires dans la mesure où elles interdisaient le contenu ou l'activité en question. Nous avons donc classé ces mesures dans la catégorie correspondant à la violation de la Règle communautaire dans le tableau ci-dessus.

En plus des mesures d'application ci-dessus, nous pouvons prendre des mesures à l'égard du contenu qui nous a été notifié en conformité à d'autres politiques et règles en vigueur de Snap :

  • En ce qui concerne le contenu sur nos lieux de diffusion publique, si nous déterminons que le contenu signalé ne répond pas aux normes les plus rigoureuses de notre Charte des contenus éligibles à la recommandation, nous pouvons refuser le contenu pour recommandation algorithmique (si le contenu ne répond pas à nos critères d'éligibilité), ou nous pouvons limiter sa distribution afin d'exclure les publics sensibles (si le contenu répond à nos critères d'éligibilité pour la recommandation, mais s'il est par ailleurs sensible ou suggestif).  

Au cours du 1er semestre 2024, nous avons pris les mesures suivantes à l'égard du contenu sur les lieux de diffusion publique de Snapchat qui nous a été signalé dans l'UE, en conformité à notre Charte des contenus pour l'accès à plus de visibilité :

  • Si nous déterminons qu'une publicité signalée enfreint nos politiques relatives à la publicité, nous pouvons être amenés à la supprimer après examen. 


Au cours du 1er semestre 2024, nous avons pris les mesures suivantes à l'égard des publicités qui nous ont été signalées dans l'UE :


b) La modération du contenu engagée à la propre initiative de
(Article 15.1(c))


En plus d'examiner les avis soumis en conformité à l'article 16 du DSA, Snap modère, de sa propre initiative, le contenu sur les surfaces publiques de Snapchat (par exemple Spotlight, Discover). Ci-dessous, nous fournissons des informations sur la modération du contenu engagée à la propre initiative de Snap, y compris l'utilisation d'outils automatisés, les mesures prises pour fournir une formation et une assistance aux personnes en charge de la modération du contenu, et le nombre et les types de restrictions imposées à la suite de ces efforts proactifs de modération du contenu.


  • Utilisation d'outils automatisés dans la modération de la propre initiative de Snap


Nous déployons des outils automatisés pour détecter et, dans certains cas, appliquer les violations de nos conditions et politiques sur nos surfaces de contenu public. Citons notamment des outils de hachage (y compris PhotoDNA et Google CSAI Match), des modèles de détection de langage abusif (qui détectent et rejettent le contenu basé sur une liste identifiée et régulièrement mise à jour de mots-clés et d'emojis abusifs), et une technologie d'intelligence artificielle / d'apprentissage automatique. Nos outils automatisés sont conçus pour détecter les violations de nos Règles communautaires (qui, entre autres, interdisent les contenus illégaux) et, le cas échéant, de notre Charte des contenus pour l'accès à plus de visibilité et de nos politiques relatives à la publicité. 


Au cours du 1er semestre 2024, toute notre détection proactive a été menée à l'aide d'outils automatisés. Lorsque nos outils automatisés détectent une violation potentielle de nos politiques, ils prennent automatiquement des mesures en conformité à nos politiques, ou ils créent une tâche destinée à être examinée par un être humain.  Le nombre et les types de restrictions imposées à la suite de ce processus sont décrits ci-dessous. 


  • Nombre et types de restrictions imposées à la propre initiative de Snap


Au cours du 1er semestre 2024, Snap a pris les mesures suivantes après avoir détecté de manière proactive, par le biais de l'utilisation d'outils automatisés, les violations de nos Règles communautaires (y compris les violations équivalant au contenu et aux activités illégales en vertu des lois de l'UE et des États membres) :

En outre, au cours du 1er semestre 2024, en ce qui concerne le contenu sur nos lieux de diffusion publique, nous avons pris les mesures suivantes après avoir détecté de manière proactive sur Snapchat, par le biais de l'utilisation d'outils automatisés, des violations de notre Charte des contenus pour l'accès à plus de visibilité :

* Comme indiqué dans notre Charte des contenus pour l'accès à plus de visibilité, les comptes qui enfreignent de manière répétée ou flagrante cette Charte peuvent être temporairement ou définitivement interdits de recommandations sur nos lieux de diffusion publique. Nous appliquons cette mesure dans le cadre de nos efforts proactifs de modération.

En outre, au cours du 1er semestre 2024, nous avons pris les mesures suivantes après avoir détecté de manière proactive sur Snapchat, par le biais de l'utilisation d'outils automatisés, de violations de nos politiques relatives à la publicité :

  • Mesures prises pour fournir une formation et une assistance aux personnes en charge de la modération du contenu


Nos équipes de modération de contenu appliquent nos politiques de modération de contenu pour aider à protéger notre communauté Snapchat. Ils sont entraînés sur plusieurs semaines et les nouveaux membres de l’équipe sont formés aux politiques, aux outils et aux procédures d’escalade de Snap. Nos équipes de modération participent régulièrement à des formations de recyclage pertinentes à leurs flux de travail, notamment lorsque nous faisons face à des cas limites et dépendants du contexte. Nous organisons également des programmes de perfectionnement, des sessions de certification et des quiz pour nous assurer que tous les modérateurs sont à jour et qu’ils sont conformes à toutes les politiques actualisées. Enfin, lorsque des tendances de contenu urgentes font surface sur des événements en cours, nous diffusons rapidement des clarifications de politique afin que les équipes puissent répondre en fonction des politiques de Snap.


Nous fournissons à nos équipes de modération de contenu un soutien et des ressources importantes, y compris un soutien au bien-être en cours de travail et un accès facile aux services de santé mentale. 

c) Les plaintes reçues par l'intermédiaire des systèmes internes de traitement des plaintes de Snap (c'est-à-dire les appels) 
(Article 15.1(d))


Les utilisateurs dont les comptes sont verrouillés par nos équipes de sécurité pour des violations des Règles communautaires (y compris pour le contenu et les activités illégales) peuvent soumettre un appel de compte verrouillé. Les utilisateurs peuvent également faire appel de certaines décisions de modération de contenu.

Au cours de la période de signalement (1er semestre 2024), Snap a traité les appels suivants (y compris les appels à l'égard des verrous de compte et des décisions de modération au niveau du contenu) soumis via ses systèmes internes de traitement des plaintes dans l'UE :

d) Utilisation de moyens automatisés à des fins de modération du contenu 
(Articles 15.1(e) et 42.2(c))

  • Description et objectifs qualitatifs


Comme expliqué ci-dessus dans la section 3(b), nous déployons des outils automatisés pour détecter et, dans certains cas, appliquer les violations de nos conditions et politiques sur nos espaces de contenu public. Citons notamment des outils de hachage (y compris PhotoDNA et Google CSAI Match), des modèles de détection de langage abusif (qui détectent et rejettent le contenu basé sur une liste identifiée et régulièrement mise à jour de mots-clés et d'emojis abusifs), et une technologie d'intelligence artificielle / d'apprentissage automatique. Nos outils automatisés sont conçus pour détecter les violations de nos Règles communautaires (qui, entre autres choses, interdisent les contenus illégaux) et, le cas échéant, de notre Charte des contenus pour l'accès à plus de visibilité et de nos politiques relatives à la publicité. 

Lorsque nos outils automatisés détectent une violation potentielle de nos politiques, ils prennent automatiquement des mesures en conformité à nos politiques, ou ils créent une tâche destinée à être examinée par un être humain. 

  • Indicateurs de la précision et de taux d'erreur possible, ventilés par État membre


Nous contrôlons l'exactitude de nos outils de modération automatisés en sélectionnant des échantillons aléatoires de tâches traitées par nos outils automatisés sur nos espaces publics et en les soumettant à un nouvel examen par nos équipes de modération humaine. Le taux de précision est le pourcentage de tâches provenant de ces échantillons aléatoires qui ont été maintenues par nos modérateurs humains lors de leur réexamen. Le taux d'erreur est la différence entre 100 % et le taux de précision calculé comme décrit ci-dessus. 

Sur la base de l'échantillonnage, au cours du 1er semestre 2024, les indicateurs de la précision et du taux d'erreur possible des moyens automatisés utilisés pour toutes les catégories de violations étaient d'environ 93 % et le taux d'erreur était d'environ 7 %. 

En règle générale, nous ne suivons pas la langue du contenu que nous modérons sur Snapchat, et nous ne pouvons donc pas fournir de ventilation des taux de précision et d'erreur de nos outils de modération automatisés dans chaque langue officielle des États membres.  En tant que substitut de ces informations, nous fournissons ci-dessous une ventilation de nos taux de précision et d'erreur pour le contenu automatiquement modéré provenant dans chaque État membre. 

  • Mesures de protection


Nous sommes attentifs à l'impact potentiel des outils de modération automatisés sur les droits fondamentaux, et nous prenons des mesures de protection pour minimiser cet impact.

Nos outils automatisés de modération de contenu sont testés avant d'être déployés sur Snapchat. Nos modèles sont testés hors ligne pour en vérifier la performance et déployés via des tests A/B pour s'assurer de leur bon fonctionnement avant d'être entièrement mis en production. Nous effectuons des examens d'assurance qualité avant le lancement, des revues de lancement et des contrôles continus et précis d'assurance qualité pendant des déploiements partiels (échelonnés). 

Après le lancement de nos outils automatisés, nous évaluons leur performance et leur précision sur une base régulière et nous leur apportons des ajustements si nécessaire. Ce processus comporte notamment un réexamen d'échantillons de tâches automatisées par nos modérateurs humains pour identifier les modèles qui nécessitent des ajustements pour en améliorer la précision. Nous contrôlons également la prévalence de préjudices spécifiques sur Snapchat via un échantillonnage quotidien aléatoire de Stories publiques, et nous utilisons ces informations pour identifier les domaines à améliorer. 

Nos politiques et nos systèmes favorisent une application cohérente et équitable, y compris par nos outils automatisés, et offrent aux Snapchatters la possibilité de contester de manière significative les résultats de l'application par le biais de procédures de notification et d'appel qui visent à sauvegarder les intérêts de notre communauté tout en protégeant les droits individuels des Snapchatters.

Nous nous efforçons d'améliorer en permanence nos outils de modération de contenu automatisés pour en accroître la précision et encourageons l'application cohérente et équitable de nos politiques.

e) Les litiges soumis aux organismes de résolution extrajudiciaire de l'article 21
(Article 24.1(a))

Pour la période de signalement (1er semestre 2024), le nombre de litiges soumis à des organismes de résolution extrajudiciaire formellement certifiés, en conformité avec l'article 21 du DSA, était nul (0) et nous ne sommes pas en mesure de fournir une ventilation reflétant les résultats, les délais moyens de traitement ou la proportion des litiges pour lesquels Snap a mis en œuvre les décisions d'un organisme de résolution extrajudiciaire. 

À noter qu'au cours du 1er semestre 2024, nous avons reçu deux (2) avis de litiges soumis à un organisme cherchant à obtenir la certification d'organisme de résolution extrajudiciaire des litiges en vertu de l'article 21 du DSA. Nous n'avons pas inclus ces litiges dans le décompte ci-dessus, car l'organisme qui a transmis ces avis de litiges n'a pas été en mesure de vérifier l'état de sa certification à notre demande.

f) Suspensions imposées en vertu de l'article 23 
(Article 24.1(b))
  • Suspensions en vertu de l'article 23.1 : suspension de comptes qui fournissent fréquemment du contenu manifestement illégal 

Comme détaillé dans notre Explication sur la modération, l'exécution et les appels de Snapchat, les comptes ciblés sont principalement utilisés pour enfreindre nos Règles communautaires (y compris en mettant à disposition du contenu manifestement illégal) et les comptes qui commettent de graves préjudices sont immédiatement désactivés Pour d'autres violations de nos Règles communautaires, Snap applique généralement une procédure en trois étapes :

  • Première étape : le contenu en violation est supprimé.

  • Deuxième étape : le Snapchatter reçoit une notification, indiquant qu'il a enfreint nos Règles communautaires, que son contenu a été supprimé et que les violations répétées entraîneront des mesures supplémentaires, y compris la désactivation de son compte.

  • Troisième étape : notre équipe enregistre une violation sur le compte du Snapchatter.

Les informations sur le nombre d'attaques (c'est-à-dire les avertissements) et de blocages imposés au cours du 1er semestre 2024 sur des comptes dans l'UE en relation avec le contenu ou les activités sur les espaces publics de Snapchat sont disponibles ci-dessus, dans les sections 3(a) et 3(b).

  • Suspensions en vertu de l'article 23.2 : suspension du traitement des avis et des plaintes de la part de personnes, d'entités et de plaignants qui soumettent fréquemment des avis ou des plaintes qui sont manifestement infondés

En application de notre définition interne des avis et des plaintes « manifestement infondés » et de nos seuils internes pour ce que nous considérons être une soumission fréquente de ces avis et plaintes, le nombre de suspensions du traitement des avis et des plaintes imposés au cours du 1er semestre 2024 en vertu de l'article 23.2 du DSA est le suivant :

4. Informations sur nos équipes de modération de contenu
a) Des ressources humaines dédiées à la modération du contenu, y compris pour la conformité aux articles 16, 20 et 22 du DSA, ventilés par langues officielles des États membres
(Article 42.2(a))


Nos équipes de modération de contenu opèrent dans le monde entier, ce qui nous permet de garantir la sécurité des Snapchatters 24h/24, 7j/7. Ci-dessous, vous trouverez la répartition de nos ressources de modération humaine par les spécialités linguistiques des modérateurs (veuillez noter que certains modérateurs se spécialisent dans plusieurs langues) à partir du 30 juin 2024 :

Le tableau ci-dessus comprend toutes les ressources humaines dédiées à la modération de contenu qui soutiennent les langues officielles des États membres de l'UE à partir du 30 juin 2024. Dans les situations où nous avons besoin d’une assistance linguistique supplémentaire, nous utilisons des services de traduction.

b) Qualifications et expertise linguistique des modérateurs de contenu ; formation et soutien fournis
(Article 42.2(b))


Les modérateurs sont recrutés sur la base d’une description de poste standard qui inclut une exigence linguistique (en fonction du besoin). L’exigence linguistique stipule que le candidat doit être en mesure de démontrer sa maîtrise écrite et orale de la langue et avoir au moins un an d’expérience professionnelle pour les postes de premier niveau. Les candidats doivent également satisfaire aux exigences en matière de formation et d'expérience pour que leur candidature soit prise en considération. Les candidats doivent également démontrer une compréhension des événements en cours pour le pays ou la région où ils participent à la modération du contenu. 

Voir ci-dessus pour des informations sur la formation et l'assistance que Snap fournit aux modérateurs de contenu, qui est séparément requis en vertu de l'article 15(1)(c) du DSA et donc inclus dans la section 3(b), dans la dernière sous-section : « Mesures prises pour fournir une formation et une assistance aux personnes en charge de la modération de contenu »

Rapport d’analyse des médias sur l’exploitation et les abus sexuels d’enfants (CSEA)


Contexte

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.


Nous utilisons le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.


Rapport

Les données ci-dessous sont basées sur le résultat d'un balayage proactif utilisant PhotoDNA et/ou CSAI Match des médias téléchargés sur la galerie photos d'un utilisateur sur Snapchat.

La lutte contre l'exploitation sexuelle des enfants est une priorité absolue. Snap consacre des ressources importantes à cet effet et ne tolère aucunement ce type de comportement.  Une formation spéciale est nécessaire pour examiner les appels de dénonciation d'exploitation sexuelle des enfants, et une équipe limitée d'agents est chargée de ces examens en raison de la nature graphique du contenu.  Au cours de l'automne 2023, Snap a mis en œuvre des changements de politique qui ont affecté la cohérence de certaines mesures contre les exploitations sexuelles des enfants, et nous avons remédié à ces incohérences par le biais d'une nouvelle formation des agents et d'une assurance qualité rigoureuse.  Nous nous attendons à ce que le prochain rapport sur la transparence révèle les progrès réalisés dans l'amélioration des délais de réponse aux appels de dénonciation d'exploitation sexuelle des enfants et dans l'amélioration de la précision des mesures d'exécution.  

Mesures de protection en matière de modération du contenu

Les garanties appliquées pour l'analyse des médias du CSEA sont énoncées dans la section ci-dessus « Mesures de protection en matière de modération du contenu » en vertu de notre rapport sur le DSA.


Rapport sur la transparence en ligne du contenu terroriste de l'Union européenne

Publié : le 17 juin 2024

Dernière mise à jour : le 17 juin 2024

Le présent rapport sur la transparence est publié en conformité aux articles 7(2) et 7(3) du règlement 2021/784 du Parlement européen et du contenu de l'UE, traitant de la diffusion du contenu terroriste en ligne (le Règlement). Il couvre la période de signalement du 1er janvier au 31 décembre 2023.


Informations générales
  • Article 7(3)(a) : des informations sur les mesures du fournisseur de services d'hébergement en relation avec l'identification et la suppression ou la désactivation de l'accès au contenu terroriste

  • Article 7(3)(b) : des informations sur les mesures du fournisseur de services d'hébergement pour traiter de la réapparition en ligne de matériel qui a précédemment été supprimé ou dont l'accès a été désactivé parce qu'il a été contenu à caractère terroriste, notamment lorsque des outils automatisés ont été utilisés


Les terroristes, les organisations terroristes et les extrémistes violents ne sont pas autorisés à utiliser Snapchat. Le contenu qui défend, promeut, glorifie ou fait la promotion du terrorisme ou d'autres actes criminels violents est interdit en vertu de nos Règles communautaires. Les utilisateur·rice·s peuvent signaler le contenu qui enfreint nos Règles communautaires via notre menu de signalement intégré à l'application et notre site d'assistance. Nous utilisons également la détection proactive pour tenter d'identifier le contenu violent sur des surfaces publiques telles que Spotlight et Discover. 


Peu importe la façon dont nous sommes informés à la violation du contenu, nos équipes Trust & Safety, par le biais d'une combinaison de l'automatisation et de la modération humaine, examinent rapidement le contenu identifié et prennent des décisions d'application. Les mesures d'exécution peuvent inclure la suppression du contenu, l'avertissement ou le verrouillage du compte en violation et, si cela est justifié, le signalement du compte aux forces de l'ordre. Pour prévenir la réapparition de contenus terroristes ou d'autres contenus extrémistes violents sur Snapchat, en plus de travailler avec les forces de l'ordre, nous prenons des mesures pour bloquer l'appareil associé au compte en violation et empêcher l'utilisateur·rice de créer un autre compte Snapchat.


Des informations supplémentaires sur nos mesures pour identifier et supprimer le contenu terroriste sont disponibles dans notre Explicatif sur le contenu haineux, le terrorisme et l'extrémisme violent et notre Explicatif sur la modération, l'exécution et les appels



Rapports et mesures d'exécution 
  • Article 7(3)(c) : le nombre d'articles du contenu terroriste supprimés ou dont l'accès a été désactivé après des ordres de suppression ou des mesures spécifiques, et le nombre de commandes de suppression où le contenu n'a pas été supprimé ou dont l'accès n'a pas été désactivé en vertu de l'article 3(7) et du premier alinéa de l'article 3(8), ainsi que les motifs


Au cours de la période de signalement, Snap n'a pas reçu d'ordres de suppression, et nous n'avons pas été tenus de mettre en œuvre des mesures spécifiques en vertu de l'article 5 du règlement. Nous n'étions donc pas tenus de prendre des mesures d'exécution en vertu du règlement.


Le tableau suivant décrit les mesures d'exécution prises sur la base des signalements d'utilisateur·rice·s et de la détection proactive du contenu et des comptes, dans l'UE et ailleurs dans le monde, qui ont enfreint nos Règles communautaires relatives au terrorisme et à l'extrémisme violent

Appels en matière d'exécution
  • Article 7(3)(d) : le nombre et l'issue des plaintes traitées par le fournisseur de services d'hébergement en conformité à l'article 10

  • Article 7(3)(g) : le nombre de cas dans lesquels le fournisseur de services d'hébergement a rétabli le contenu ou l'accès à celui-ci à la suite d'une plainte du fournisseur de contenu


Comme nous n'avons pris aucune mesure d'exécution requise par le Règlement pendant la période de signalement comme indiqué ci-dessus, nous n'avons traité aucune plainte en vertu de l'article 10 du règlement et aucun rétablissement n'a été effectué.


Le tableau suivant contient des informations relatives aux appels et aux rétablissements, dans l'UE et ailleurs dans le monde, qui comportent du contenu terroriste et extrémiste violent en application de nos Règles communautaires.

Procédures judiciaires et appels
  • Article 7(3)(e) : le nombre et le résultat de la procédure de révision administrative ou judiciaire introduite par le fournisseur de services d'hébergement

  • Article 7(3)(f) : le nombre de cas dans lesquels le prestataire de services d'hébergement a été tenu de rétablir le contenu ou l'accès à celui-ci à la suite d'une procédure de révision administrative ou judiciaire


Comme nous n'avons pris aucune mesure d'exécution requise en vertu du règlement pendant la période de signalement, comme indiqué ci-dessus, nous n'avons pas eu de procédure de révision administrative ou judiciaire associée, et nous n'avons pas été tenus de rétablir le contenu à la suite de cette procédure.

Évaluation des risques du règlement sur les services numériques (DSA)

Ce rapport a été préparé afin de respecter les obligations de Snap en vertu des articles 34 et 35 du règlement (UE) 2022/2065 et fournit les résultats de notre évaluation des risques systémiques découlant de la conception, du fonctionnement et de l'utilisation des plateformes en ligne de Snapchat, ainsi que la méthodologie utilisée pour évaluer ces risques et les mesures prises pour les réduire.


Rapport d'évaluation des risques et de leur réduction du DSA| Snapchat | Août 2023 (PDF)


Audit et mise en œuvre de l'audit du DSA

Ces rapports ont été préparés dans le respect des obligations de Snap en vertu de l'article 37 du règlement (UE) 2022/2065 et fournissent : (i) les résultats de l'audit indépendant de la conformité de Snap avec les obligations énoncées dans le chapitre III du règlement (UE) 2022/2065 et (ii) les mesures prises pour mettre en œuvre les recommandations opérationnelles issues de cet audit indépendant.

Rapport d'audit indépendant du DSA | Snapchat | Août 2024 (PDF)

Rapport de mise en œuvre de l'audit du DSA | Snapchat | Septembre 2024 (PDF)



Code de pratique VSP de l'UE

Snap est un fournisseur de « service de plate-forme de partage vidéo » (« VSP ») en vertu de l'article 1(1)(aa) AVMSD. Ce Code de conduite (« Code ») a été préparé pour décrire comment Snap se conforme à ses obligations en tant que VSP en vertu de la loi néerlandaise sur les médias (« DMA ») et de la directive (UE) 2010/13 (telle que modifiée par la directive (UE) 2018/1808 (la « Directive sur les services de médias audiovisuels » ou « AVMSD »)). Le Code est applicable dans toute l'Union européenne ainsi que dans l'Espace économique européen.

Code de conduite VSP de l'UE | Snapchat | Décembre 2024 (PDF)