25 octobre 2024
17 décembre 2024
Bienvenue sur notre page de transparence de l'Union européenne (UE), où nous publions des informations spécifiques à l'UE requises par la loi sur les services numériques (DSA), la directive sur les services de médias audiovisuels (directive SMA), la loi néerlandaise sur les médias (DMA) et le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste (TCO). Veuillez noter que la version la plus récente de ces rapports de transparence est disponible en anglais (en-US).
Snap Group Limited a désigné Snap B.V. comme son représentant légal aux fins du DSA. Vous pouvez contacter le représentant à l'adresse dsa-enquiries [@] snapchat.com pour le DSA, à l'adresse vsp-enquiries [@] snapchat.com pour la directive SMA et le DMA, à l'adresse tco-enquiries [@] snapchat.com pour le TCO, par l'intermédiaire de notre site d'assistance [ici], ou à l'adresse :
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Pays-Bas
Si vous êtes un organisme chargé de l'application de la loi, veuillez suivre les étapes décrites ici.
Veuillez nous contacter en anglais ou en néerlandais.
Pour le DSA, nous sommes réglementés par la Commission européenne et l’Autorité néerlandaise pour les consommateurs et les marchés (ACM). Pour l'AVMSD et le DMA, nous sommes réglementés par l'Autorité néerlandaise des médias (CvdM). Pour le TCO, nous sommes réglementés par l'Autorité néerlandaise de prévention du contenu en ligne à caractère terroriste et des supports d'abus sexuel sur les enfants (ATKM).
Dernière mise à jour : 25 octobre 2024
Nous publions ce rapport sur nos efforts de modération de contenu sur Snapchat en conformité aux exigences de publication de rapports de transparence stipulées dans les articles 15, 24 et 42 de la loi sur les services numériques de l'Union européenne (UE) (Règlement (UE) 2022/2065) (« DSA »). Sauf indication contraire, les informations contenues dans ce rapport portent sur la période de déclaration allant du 1er janvier 2024 au 30 juin 2024 (1er semestre 2024) et couvrent la modération de contenu sur les fonctionnalités de Snapchat qui sont réglementées par le DSA.
Nous nous efforçons en permanence d'améliorer notre reporting. Pour cette période de déclaration (1er semestre 2024), nous avons apporté des modifications à la structure de notre rapport en intégrant de nouveaux tableaux plus distinctifs pour fournir un meilleur aperçu de nos efforts de modération de contenu.
Au 1er octobre 2024, nous comptions environ 92,9 millions de bénéficiaires actifs mensuels moyens (« AMAR ») de notre application Snapchat dans l'UE. Cela signifie qu'en moyenne sur la période de 6 mois se terminant le 30 septembre 2024, 92,9 millions d'utilisateurs enregistrés dans l'UE ont ouvert l'application Snapchat au moins une fois au cours d'un mois donné.
Ces chiffres se décomposent comme suit par État-membre :
Ces chiffres servent à répondre aux attentes actuelles du DSA et ne doivent être utilisés qu’à des fins de DSA. Nous avons modifié le mode de calcul de ce chiffre au fil du temps, notamment en réponse à l’évolution des technologies, de notre politique interne et des orientations des autorités de régulation. Les chiffres ne sont pas destinés à être comparés d’une période à l’autre. Cela peut également différer des estimations utilisées pour d’autres chiffres d’utilisateur actif que nous publions à d’autres fins.
Au cours de cette période de signalement (1er semestre 2024), nous avons reçu zéro (0) ordre d'agir à l'égard des éléments de contenu illégal spécifiquement identifiés de la part des autorités des États membres de l'UE, y compris ceux délivrés en conformité à l'article 9 du DSA.
Étant donné que ce nombre est zéro (0), nous ne pouvons pas fournir de ventilation par type de contenu illégal en cause ou par État membre qui émet la commande, ou les délais médians pour accuser réception ou donner effet aux commandes.
Au cours de cette période de signalement (1er semestre 2024), nous avons reçu les commandes suivantes de divulguer les données utilisateur des autorités des États membres de l'UE, y compris celles émises en conformité à l'article 10 du DSA :
Le délai médian d'information des autorités compétentes de la réception de ces commandes afin de fournir des informations était de 0 minutes. Nous fournissons une réponse automatisée avec un accusé de réception.
Le délai médian pour donner effet à ces commandes afin de fournir des informations était d'environ 7 jours. Cette mesure reflète la période à partir du moment où Snap a reçu une commande jusqu'au moment où Snap a estimé que la question était entièrement résolue, qui, dans des cas individuels, peut dépendre en partie de la vitesse avec laquelle l'autorité de l'État membre compétente répond à toute demande de clarification de la part de Snap nécessaire pour traiter la commande.
Notez que nous ne fournissons pas de ventilation des commandes ci-dessus en vue de fournir des informations classées par type de contenu illégal en cause, car ces informations ne nous sont généralement pas disponibles.
Tout le contenu sur Snapchat doit être conforme aux Règles communautaires et aux Conditions d'utilisation du service. Certains contenus doivent également respecter des règles et politiques supplémentaires. Par exemple, le contenu soumis pour recommandation algorithmique à un public plus large sur nos surfaces de diffusion publique doit répondre aux normes supplémentaires et plus élevées fournies dans notre Charte des contenus pour l'accès à plus de visibilité, tandis que les publicités doivent être conformes à nos politiques relatives à la publicité.
Nous appliquons ces politiques en utilisant la technologie et l'évaluation humaine. Nous fournissons également des mécanismes permettant aux Snapchatters de signaler les violations, y compris le contenu et les activités illégales, directement dans l'application ou via notre site Web. Les mécanismes et les rapports de détection proactifs incitent à un examen, qui exploite ensuite une combinaison d'outils automatisés et de modérateurs humains et prend des mesures appropriées conformément à nos politiques.
Vous trouverez plus d'informations sur notre modération de contenu au 1er semestre 2024 ci-dessous.
Conformément à l'article 16 du DSA, Snap a mis en place des mécanismes permettant aux utilisateurs et aux non-utilisateurs de notifier à Snap la présence sur Snapchat d'éléments d'informations spécifiques qu'ils jugent illégaux. Ils peuvent le faire en signalant des éléments spécifiques de contenu ou de comptes, soit directement dans l'application Snapchat, soit sur notre site Web.
Au cours de la période de signalement (1er semestre 2024), nous avons reçu les avis suivants soumis conformément à l'article 16 du DSA dans l'UE :
Ci-dessous, nous fournissons une ventilation reflétant la façon dont ces avis ont été traités - c'est-à-dire par le biais d'un processus comportant un examen humain ou uniquement par des moyens automatisés :
En envoyant des avis dans l'application ou via notre site Web, les signaleurs peuvent sélectionner une raison de signaler spécifique dans un menu d'options reflétant les catégories de violations énumérées dans nos Règles communautaires (par exemple les discours de haine, l'utilisation ou les ventes de drogues). Nos Règles communautaires interdisent le contenu et les activités qui sont illégales dans l'UE, de sorte que nos raisons de signaler reflètent largement des catégories spécifiques de contenu illégal dans l'UE. Toutefois, dans la mesure où un journaliste dans l'UE estime que le contenu ou le compte qu'il signale est illégal pour des raisons qui ne sont pas spécifiquement référencées dans notre menu de signalement, il peut le signaler pour « d'autres contenus illégaux » et a la possibilité d'expliquer pourquoi il pense que ce qu'il signale est illégal.
Si, après examen, nous déterminons que le contenu ou le compte signalé enfreint nos Règles communautaires (y compris pour des raisons d'illégalité), nous pouvons (i) supprimer le contenu offensant, (ii) avertir le titulaire du compte pertinent et appliquer une suppression au compte, et / ou (iii) verrouiller le compte pertinent, comme expliqué plus en détail dans notre Explication sur la modération de Snapchat, l'exécution et les appels.
Au cours du 1er semestre 2024, nous avons pris les mesures suivantes à la réception des avis soumis en conformité à l'article 16 du DSA dans l'UE :
Au cours du 1er semestre 2024, tous les signalements « d'autres contenus illégaux » que nous avons effectués ont finalement été appliqués en vertu de nos Règles communautaires dans la mesure où elles interdisaient le contenu ou l'activité en question. Nous avons donc classé ces mesures dans la catégorie correspondant à la violation de la Règle communautaire dans le tableau ci-dessus.
En plus des mesures d'application ci-dessus, nous pouvons prendre des mesures à l'égard du contenu qui nous a été notifié en conformité à d'autres politiques et règles en vigueur de Snap :
En ce qui concerne le contenu sur nos lieux de diffusion publique, si nous déterminons que le contenu signalé ne répond pas aux normes les plus rigoureuses de notre Charte des contenus éligibles à la recommandation, nous pouvons refuser le contenu pour recommandation algorithmique (si le contenu ne répond pas à nos critères d'éligibilité), ou nous pouvons limiter sa distribution afin d'exclure les publics sensibles (si le contenu répond à nos critères d'éligibilité pour la recommandation, mais s'il est par ailleurs sensible ou suggestif).
Au cours du 1er semestre 2024, nous avons pris les mesures suivantes à l'égard du contenu sur les lieux de diffusion publique de Snapchat qui nous a été signalé dans l'UE, en conformité à notre Charte des contenus pour l'accès à plus de visibilité :
Si nous déterminons qu'une publicité signalée enfreint nos politiques relatives à la publicité, nous pouvons être amenés à la supprimer après examen.
Au cours du 1er semestre 2024, nous avons pris les mesures suivantes à l'égard des publicités qui nous ont été signalées dans l'UE :
En plus d'examiner les avis soumis conformément à l'article 16 du DSA, Snap procède également à la modération du contenu à sa propre initiative. Ci-dessous, nous fournissons des informations sur la modération du contenu engagée à la propre initiative de Snap, y compris l'utilisation d'outils automatisés, les mesures prises pour fournir une formation et une assistance aux personnes en charge de la modération du contenu, et le nombre et les types de restrictions imposées à la suite de ces efforts proactifs de modération du contenu.
Utilisation d'outils automatisés dans la modération à l'initiative de Snap
Nous déployons des outils automatisés pour détecter et, dans certains cas, faire respecter les violations de nos conditions et politiques. Citons notamment des outils de hachage (y compris PhotoDNA et Google CSAI Match), des modèles de détection de langage abusif (qui détectent et rejettent le contenu basé sur une liste identifiée et régulièrement mise à jour de mots-clés et d'emojis abusifs), et une technologie d'intelligence artificielle / d'apprentissage automatique. Nos outils automatisés sont conçus pour détecter les violations de nos Règles communautaires (qui, entre autres, interdisent les contenus illégaux) et, le cas échéant, de notre Charte des contenus pour l'accès à plus de visibilité et de nos politiques relatives à la publicité.
Au cours du 1er semestre 2024, toute notre détection proactive a été menée à l'aide d'outils automatisés. Lorsque nos outils automatisés détectent une violation potentielle de nos politiques, ils prennent automatiquement des mesures conformément à nos politiques, ou ils créent une tâche destinée à être examinée par un être humain. Le nombre et les types de restrictions imposées à la suite de ce processus sont décrits ci-dessous.
Nombre et types de restrictions imposées à l'initiative de Snap
Au cours du 1er semestre 2024, Snap a pris les mesures suivantes après avoir détecté de manière proactive, par le biais de l'utilisation d'outils automatisés, les violations de nos Règles communautaires (y compris les violations équivalant au contenu et aux activités illégales en vertu des lois de l'UE et des États membres) :
En outre, au cours du 1er semestre 2024, en ce qui concerne le contenu sur nos lieux de diffusion publique, nous avons pris les mesures suivantes après avoir détecté de manière proactive sur Snapchat, par le biais de l'utilisation d'outils automatisés, des violations de notre Charte des contenus pour l'accès à plus de visibilité :
* Comme indiqué dans notre Charte des contenus pour l'accès à plus de visibilité, les comptes qui enfreignent de manière répétée ou flagrante cette Charte peuvent être temporairement ou définitivement interdits de recommandations sur nos lieux de diffusion publique. Nous appliquons cette mesure dans le cadre de nos efforts proactifs de modération.
En outre, au cours du 1er semestre 2024, nous avons pris les mesures suivantes après avoir détecté de manière proactive sur Snapchat, par le biais de l'utilisation d'outils automatisés, de violations de nos politiques relatives à la publicité :
Mesures prises pour fournir une formation et une assistance aux personnes en charge de la modération du contenu
Nos équipes de modération de contenu appliquent nos politiques de modération de contenu pour aider à protéger notre communauté Snapchat. Ils sont entraînés sur plusieurs semaines et les nouveaux membres de l’équipe sont formés aux politiques, aux outils et aux procédures d’escalade de Snap. Nos équipes de modération participent régulièrement à des formations de recyclage pertinentes à leurs flux de travail, notamment lorsque nous faisons face à des cas limites et dépendants du contexte. Nous organisons également des programmes de perfectionnement, des sessions de certification et des quiz pour nous assurer que tous les modérateurs sont à jour et qu’ils sont conformes à toutes les politiques actualisées. Enfin, lorsque des tendances de contenu urgentes font surface sur des événements en cours, nous diffusons rapidement des clarifications de politique afin que les équipes puissent répondre en fonction des politiques de Snap.
Nous fournissons à nos équipes de modération de contenu un soutien et des ressources importantes, y compris un soutien au bien-être en cours de travail et un accès facile aux services de santé mentale.
Les utilisateurs dont les comptes sont verrouillés par nos équipes de sécurité pour des violations des Règles communautaires (y compris pour le contenu et les activités illégales) peuvent soumettre un appel de compte verrouillé. Les utilisateurs peuvent également faire appel de certaines décisions de modération de contenu.
Au cours de la période de signalement (1er semestre 2024), Snap a traité les appels suivants (y compris les appels à l'égard des verrous de compte et des décisions de modération au niveau du contenu) soumis via ses systèmes internes de traitement des plaintes dans l'UE :
Description et objectifs qualitatifs
Comme expliqué ci-dessus dans la section 3(b), nous déployons des outils automatisés pour détecter et, dans certains cas, appliquer les violations de nos conditions et politiques sur nos espaces de contenu public. Citons notamment des outils de hachage (y compris PhotoDNA et Google CSAI Match), des modèles de détection de langage abusif (qui détectent et rejettent le contenu basé sur une liste identifiée et régulièrement mise à jour de mots-clés et d'emojis abusifs), et une technologie d'intelligence artificielle / d'apprentissage automatique. Nos outils automatisés sont conçus pour détecter les violations de nos Règles communautaires (qui, entre autres choses, interdisent les contenus illégaux) et, le cas échéant, de notre Charte des contenus pour l'accès à plus de visibilité et de nos politiques relatives à la publicité.
Lorsque nos outils automatisés détectent une violation potentielle de nos politiques, ils prennent automatiquement des mesures conformément à nos politiques, ou ils créent une tâche destinée à être examinée par un être humain.
Indicateurs de la précision et de taux d'erreur possible, ventilés par État membre
Nous surveillons les indicateurs de la précision et du taux d'erreur possible de nos outils de modération automatisés en sélectionnant des échantillons aléatoires de tâches traitées par nos outils automatisés sur nos surfaces publiques, et en les soumettant pour réexamen par nos équipes de modération humaine. Le taux de précision est le pourcentage de tâches provenant de ces échantillons aléatoires qui ont été maintenues par nos modérateurs humains lors de leur réexamen. Le taux d'erreur est la différence entre 100 % et le taux de précision calculé comme décrit ci-dessus.
Selon un échantillonnage, au cours du 1er semestre 2024, le taux de précision des moyens automatisés utilisés dans toutes les catégories de violations était d'environ 93 % et le taux d'erreur d'environ 7 %.
En règle générale, nous ne suivons pas la langue du contenu que nous modérons sur Snapchat, et nous ne pouvons donc pas fournir de ventilation des taux de précision et d'erreur de nos outils de modération automatisés dans chaque langue officielle des États membres. En tant que substitut de ces informations, nous fournissons ci-dessous une ventilation de nos taux de précision et d'erreur pour le contenu automatiquement modéré provenant dans chaque État membre.
Mesures de protection
Nous sommes attentifs à l'impact potentiel des outils de modération automatisés sur les droits fondamentaux, et nous prenons des mesures de protection pour minimiser cet impact.
Nos outils automatisés de modération de contenu sont testés avant d'être déployés sur Snapchat. Nos modèles sont testés hors ligne pour en vérifier la performance et déployés via des A/B tests pour s'assurer de leur bon fonctionnement avant d'être entièrement mis en production. Nous effectuons des examens d'assurance qualité avant le lancement, des revues de lancement et des contrôles continus et précis d'assurance qualité pendant des déploiements partiels (échelonnés).
Après le lancement de nos outils automatisés, nous évaluons leur performance et leur précision sur une base régulière et nous leur apportons des ajustements si nécessaire. Ce processus comporte notamment un réexamen d'échantillons de tâches automatisées par nos modérateurs humains pour identifier les modèles qui nécessitent des ajustements pour en améliorer la précision. Nous contrôlons également la prévalence de préjudices spécifiques sur Snapchat via un échantillonnage quotidien aléatoire de Stories publiques, et nous utilisons ces informations pour identifier les domaines à améliorer.
Nos politiques et nos systèmes favorisent une application cohérente et équitable, y compris par nos outils automatisés, et offrent aux Snapchatters la possibilité de contester de manière significative les résultats de l'application par le biais de procédures de notification et d'appel qui visent à sauvegarder les intérêts de notre communauté tout en protégeant les droits individuels des Snapchatters.
Nous nous efforçons d'améliorer en permanence nos outils de modération de contenu automatisés pour en accroître la précision et encourageons l'application cohérente et équitable de nos politiques.
Pour la période de signalement (1er semestre 2024), le nombre de litiges soumis à des organismes de résolution extrajudiciaire formellement certifiés, en conformité avec l'article 21 du DSA, était nul (0) et nous ne sommes pas en mesure de fournir une ventilation reflétant les résultats, les délais moyens de traitement ou la proportion des litiges pour lesquels Snap a mis en œuvre les décisions d'un organisme de résolution extrajudiciaire.
À noter qu'au cours du 1er semestre 2024, nous avons reçu deux (2) avis de litiges soumis à un organisme cherchant à obtenir la certification d'organisme de résolution extrajudiciaire des litiges en vertu de l'article 21 du DSA. Nous n'avons pas inclus ces litiges dans le décompte ci-dessus, car l'organisme qui a transmis ces avis de litiges n'a pas été en mesure de vérifier l'état de sa certification à notre demande.
Suspensions en vertu de l'article 23.1 : suspension de comptes qui fournissent fréquemment du contenu manifestement illégal
Comme détaillé dans notre Explication sur la modération, l'exécution et les appels de Snapchat, les comptes ciblés sont principalement utilisés pour enfreindre nos Règles communautaires (y compris en mettant à disposition du contenu manifestement illégal) et les comptes qui commettent de graves préjudices sont immédiatement désactivés. Pour d'autres violations de nos Règles communautaires, Snap applique généralement une procédure en trois étapes :
Première étape : le contenu en violation est supprimé.
Deuxième étape : le Snapchatter reçoit une notification, indiquant qu'il a enfreint nos Règles communautaires, que son contenu a été supprimé et que les violations répétées entraîneront des mesures supplémentaires, y compris la désactivation de son compte.
Troisième étape : notre équipe enregistre une violation sur le compte du Snapchatter.
Des informations sur le nombre d'infractions (c'est-à-dire d'avertissements) et de verrouillages imposés au 1er semestre 2024 sur les comptes dans l'UE sont disponibles ci-dessus, dans les sections 3(a) et 3(b).
Suspensions en vertu de l'article 23.2 : suspension du traitement des avis et des plaintes de la part de personnes, d'entités et de plaignants qui soumettent fréquemment des avis ou des plaintes qui sont manifestement infondés
En application de notre définition interne des avis et des plaintes « manifestement infondés » et de nos seuils internes pour ce que nous considérons être une soumission fréquente de ces avis et plaintes, le nombre de suspensions du traitement des avis et des plaintes imposés au cours du 1er semestre 2024 en vertu de l'article 23.2 du DSA est le suivant :
Mesures de protection
Nous sommes attentifs à l'impact potentiel des outils de modération automatisés sur les droits fondamentaux, et nous prenons des mesures de protection pour minimiser cet impact.
Nos outils automatisés de modération de contenu sont testés avant d'être déployés sur Snapchat. Nos modèles sont testés hors ligne pour en vérifier la performance et déployés via des A/B tests pour s'assurer de leur bon fonctionnement avant d'être entièrement mis en production. Nous effectuons des examens d'assurance qualité avant le lancement, des revues de lancement et des contrôles continus et précis d'assurance qualité pendant des déploiements partiels (échelonnés).
Après le lancement de nos outils automatisés, nous évaluons leur performance et leur précision sur une base régulière et nous leur apportons des ajustements si nécessaire. Ce processus comporte notamment un réexamen d'échantillons de tâches automatisées par nos modérateurs humains pour identifier les modèles qui nécessitent des ajustements pour en améliorer la précision. Nous contrôlons également la prévalence de préjudices spécifiques sur Snapchat via un échantillonnage quotidien aléatoire de Stories publiques, et nous utilisons ces informations pour identifier les domaines à améliorer.
Nos politiques et nos systèmes favorisent une application cohérente et équitable, y compris par nos outils automatisés, et offrent aux Snapchatters la possibilité de contester de manière significative les résultats de l'application par le biais de procédures de notification et d'appel qui visent à sauvegarder les intérêts de notre communauté tout en protégeant les droits individuels des Snapchatters.
Nous nous efforçons d'améliorer en permanence nos outils de modération de contenu automatisés pour en accroître la précision et encourageons l'application cohérente et équitable de nos politiques.
Pour la période de signalement (1er semestre 2024), le nombre de litiges soumis à des organismes de résolution extrajudiciaire formellement certifiés, en conformité avec l'article 21 du DSA, était nul (0) et nous ne sommes pas en mesure de fournir une ventilation reflétant les résultats, les délais moyens de traitement ou la proportion des litiges pour lesquels Snap a mis en œuvre les décisions d'un organisme de résolution extrajudiciaire.
À noter qu'au cours du 1er semestre 2024, nous avons reçu deux (2) avis de litiges soumis à un organisme cherchant à obtenir la certification d'organisme de résolution extrajudiciaire des litiges en vertu de l'article 21 du DSA. Nous n'avons pas inclus ces litiges dans le décompte ci-dessus, car l'organisme qui a transmis ces avis de litiges n'a pas été en mesure de vérifier l'état de sa certification à notre demande.
Suspensions en vertu de l'article 23.1 : suspension de comptes qui fournissent fréquemment du contenu manifestement illégal
Comme détaillé dans notre Explication sur la modération, l'exécution et les appels de Snapchat, les comptes ciblés sont principalement utilisés pour enfreindre nos Règles communautaires (y compris en mettant à disposition du contenu manifestement illégal) et les comptes qui commettent de graves préjudices sont immédiatement désactivés. Pour d'autres violations de nos Règles communautaires, Snap applique généralement une procédure en trois étapes :
Première étape : le contenu en violation est supprimé.
Deuxième étape : le Snapchatter reçoit une notification, indiquant qu'il a enfreint nos Règles communautaires, que son contenu a été supprimé et que les violations répétées entraîneront des mesures supplémentaires, y compris la désactivation de son compte.
Troisième étape : notre équipe enregistre une violation sur le compte du Snapchatter.
Des informations sur le nombre d'infractions (c'est-à-dire d'avertissements) et de verrouillages imposés au 1er semestre 2024 sur les comptes dans l'UE sont disponibles ci-dessus, dans les sections 3(a) et 3(b).
Suspensions en vertu de l'article 23.2 : suspension du traitement des avis et des plaintes de la part de personnes, d'entités et de plaignants qui soumettent fréquemment des avis ou des plaintes qui sont manifestement infondés
En application de notre définition interne des avis et des plaintes « manifestement infondés » et de nos seuils internes pour ce que nous considérons être une soumission fréquente de ces avis et plaintes, le nombre de suspensions du traitement des avis et des plaintes imposés au cours du 1er semestre 2024 en vertu de l'article 23.2 du DSA est le suivant :
Nos équipes de modération de contenu opèrent dans le monde entier, ce qui nous permet de garantir la sécurité des Snapchatters 24h/24, 7j/7. Ci-dessous, vous trouverez la répartition de nos ressources de modération humaine par les spécialités linguistiques des modérateurs (veuillez noter que certains modérateurs se spécialisent dans plusieurs langues) à partir du 30 juin 2024 :
Le tableau ci-dessus comprend toutes les ressources humaines dédiées à la modération de contenu qui soutiennent les langues officielles des États membres de l'UE à partir du 30 juin 2024. Dans les situations où nous avons besoin d’une assistance linguistique supplémentaire, nous utilisons des services de traduction.
Les modérateurs sont recrutés sur la base d’une description de poste standard qui inclut une exigence linguistique (en fonction du besoin). L’exigence linguistique stipule que le candidat doit être en mesure de démontrer sa maîtrise écrite et orale de la langue et avoir au moins un an d’expérience professionnelle pour les postes de premier niveau. Les candidats doivent également satisfaire aux exigences en matière de formation et d'expérience pour que leur candidature soit prise en considération. Les candidats doivent également démontrer une compréhension des événements en cours pour le pays ou la région où ils participent à la modération du contenu.
Voir ci-dessus pour des informations sur la formation et l'assistance que Snap fournit aux modérateurs de contenu, qui est séparément requis en vertu de l'article 15(1)(c) du DSA et donc inclus dans la section 3(b), dans la dernière sous-section : « Mesures prises pour fournir une formation et une assistance aux personnes en charge de la modération de contenu »
Publié le : 31 janvier 2025
Dernière mise à jour le : 31 janvier 2025
Ce rapport couvre la période allant du 1ᵉʳ janvier 2024 au 31 décembre 2024.
Contexte
L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite en vertu de nos Règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur enfants (CSEA) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.
Les technologies que nous utilisons sont, respectivement, (a) hachage et correspondance d'image robuste par PhotoDNA et correspondance d'images d'abus sexuels sur enfants (CSAI) par Google pour identifier les images et vidéos illégales connues du CSEA ; et (b) l'API de Content Safety de Google pour identifier de nouvelles images du CSEA « jamais hachées auparavent ». Nous signalons les images du CSEA au Centre National pour les Enfants Manquants et Exploités (NCMEC) des États-Unis, comme l'exige la loi. Le NCMEC, à son tour, se coordonne avec les forces de l'ordre aux États-Unis et dans d'autres pays, selon les besoins.
Rapport
Le graphique ci-dessous présente des données sur la détection proactive et les applications qui en résultent contre les utilisateurs·rices de l'UE pour les images du CSEA en 2024. (Notez que certaines applications résultant de ce balayage proactif en 2024 peuvent toujours faire soumis à un appel au moment de la compilation de ce rapport et ne sont donc pas reflétées dans les données sur les appels et les réintégrations ci-dessous.)
*Cette catégorie rapporte les cas d'application pour des violations des Règles communautaires de Snap interdisant l'exploitation sexuelle d'enfants. Le contenu détecté de manière proactive comme déjà mis en œuvre pour d'autres violations des Règles communautaires de Snap n'est pas signalé ici.
**Une application peut être annulée si nous déterminons qu'elle était erronée d'après nos politiques en vigueur au moment de la condamnation, ou si nous déterminons qu'elle a été dument appliquée à l'origine, mais notre politique en vigueur a changé au moment de l'examen de l'appel.
Mesures de protection en matière de modération du contenu
Les mesures de protection appliquées pour le balayage des médias du CSEA sont énoncées dans le rapport sur la transparence du DSA de l'UE ci-dessus.
Publié : le 17 juin 2024
Dernière mise à jour : le 17 juin 2024
Le présent rapport sur la transparence est publié en conformité aux articles 7(2) et 7(3) du règlement 2021/784 du Parlement européen et du contenu de l'UE, traitant de la diffusion du contenu terroriste en ligne (le Règlement). Il couvre la période de signalement du 1er janvier au 31 décembre 2023.
Article 7(3)(a) : des informations sur les mesures du fournisseur de services d'hébergement en relation avec l'identification et la suppression ou la désactivation de l'accès au contenu terroriste
Article 7(3)(b) : des informations sur les mesures du fournisseur de services d'hébergement pour traiter de la réapparition en ligne de matériel qui a précédemment été supprimé ou dont l'accès a été désactivé parce qu'il a été contenu à caractère terroriste, notamment lorsque des outils automatisés ont été utilisés
Les terroristes, les organisations terroristes et les extrémistes violents ne sont pas autorisés à utiliser Snapchat. Le contenu qui défend, promeut, glorifie ou fait la promotion du terrorisme ou d'autres actes criminels violents est interdit en vertu de nos Règles communautaires. Les utilisateur·rice·s peuvent signaler le contenu qui enfreint nos Règles communautaires via notre menu de signalement intégré à l'application et notre site d'assistance. Nous utilisons également la détection proactive pour tenter d'identifier le contenu violent sur des surfaces publiques telles que Spotlight et Discover.
Peu importe la façon dont nous sommes informés à la violation du contenu, nos équipes Trust & Safety, par le biais d'une combinaison de l'automatisation et de la modération humaine, examinent rapidement le contenu identifié et prennent des décisions d'application. Les mesures d'exécution peuvent inclure la suppression du contenu, l'avertissement ou le verrouillage du compte en violation et, si cela est justifié, le signalement du compte aux forces de l'ordre. Pour prévenir la réapparition de contenus terroristes ou d'autres contenus extrémistes violents sur Snapchat, en plus de travailler avec les forces de l'ordre, nous prenons des mesures pour bloquer l'appareil associé au compte en violation et empêcher l'utilisateur·rice de créer un autre compte Snapchat.
Des informations supplémentaires sur nos mesures pour identifier et supprimer le contenu terroriste sont disponibles dans notre Explicatif sur le contenu haineux, le terrorisme et l'extrémisme violent et notre Explicatif sur la modération, l'exécution et les appels.
Article 7(3)(c) : le nombre d'articles du contenu terroriste supprimés ou dont l'accès a été désactivé après des ordres de suppression ou des mesures spécifiques, et le nombre de commandes de suppression où le contenu n'a pas été supprimé ou dont l'accès n'a pas été désactivé en vertu de l'article 3(7) et du premier alinéa de l'article 3(8), ainsi que les motifs
Au cours de la période de signalement, Snap n'a pas reçu d'ordres de suppression, et nous n'avons pas été tenus de mettre en œuvre des mesures spécifiques en vertu de l'article 5 du règlement. Nous n'étions donc pas tenus de prendre des mesures d'exécution en vertu du règlement.
Le tableau suivant décrit les mesures d'exécution prises sur la base des signalements d'utilisateur·rice·s et de la détection proactive du contenu et des comptes, dans l'UE et ailleurs dans le monde, qui ont enfreint nos Règles communautaires relatives au terrorisme et à l'extrémisme violent
Article 7(3)(d) : le nombre et l'issue des plaintes traitées par le fournisseur de services d'hébergement en conformité à l'article 10
Article 7(3)(g) : le nombre de cas dans lesquels le fournisseur de services d'hébergement a rétabli le contenu ou l'accès à celui-ci à la suite d'une plainte du fournisseur de contenu
Comme nous n'avons pris aucune mesure d'exécution requise par le Règlement pendant la période de signalement comme indiqué ci-dessus, nous n'avons traité aucune plainte en vertu de l'article 10 du règlement et aucun rétablissement n'a été effectué.
Le tableau suivant contient des informations relatives aux appels et aux rétablissements, dans l'UE et ailleurs dans le monde, qui comportent du contenu terroriste et extrémiste violent en application de nos Règles communautaires.
Article 7(3)(e) : le nombre et le résultat de la procédure de révision administrative ou judiciaire introduite par le fournisseur de services d'hébergement
Article 7(3)(f) : le nombre de cas dans lesquels le prestataire de services d'hébergement a été tenu de rétablir le contenu ou l'accès à celui-ci à la suite d'une procédure de révision administrative ou judiciaire
Comme nous n'avons pris aucune mesure d'exécution requise en vertu du règlement pendant la période de signalement, comme indiqué ci-dessus, nous n'avons pas eu de procédure de révision administrative ou judiciaire associée, et nous n'avons pas été tenus de rétablir le contenu à la suite de cette procédure.
Ce rapport a été préparé afin de respecter les obligations de Snap en vertu des articles 34 et 35 du règlement (UE) 2022/2065 et fournit les résultats de notre évaluation des risques systémiques découlant de la conception, du fonctionnement et de l'utilisation des plateformes en ligne de Snapchat, ainsi que la méthodologie utilisée pour évaluer ces risques et les mesures prises pour les réduire.
Rapport d'évaluation des risques et de leur réduction du DSA| Snapchat | Août 2023 (PDF)
Ces rapports ont été préparés dans le respect des obligations de Snap en vertu de l'article 37 du règlement (UE) 2022/2065 et fournissent : (i) les résultats de l'audit indépendant de la conformité de Snap avec les obligations énoncées dans le chapitre III du règlement (UE) 2022/2065 et (ii) les mesures prises pour mettre en œuvre les recommandations opérationnelles issues de cet audit indépendant.
Rapport d'audit indépendant du DSA | Snapchat | Août 2024 (PDF)
Rapport de mise en œuvre de l'audit du DSA | Snapchat | Septembre 2024 (PDF)
Code de pratique VSP de l'UE
Snap est un fournisseur de « service de plate-forme de partage vidéo » (« VSP ») en vertu de l'article 1(1)(aa) AVMSD. Ce Code de conduite (« Code ») a été préparé pour décrire comment Snap se conforme à ses obligations en tant que VSP en vertu de la loi néerlandaise sur les médias (« DMA ») et de la directive (UE) 2010/13 (telle que modifiée par la directive (UE) 2018/1808 (la « Directive sur les services de médias audiovisuels » ou « AVMSD »)). Le Code est applicable dans toute l'Union européenne ainsi que dans l'Espace économique européen.
Code de conduite VSP de l'UE | Snapchat | Décembre 2024 (PDF)