Partager notre réponse aux groupes de la société civile sur l'intégrité électorale

22 avril 2024

Au début du mois, Snap, ainsi que d'autres grandes entreprises technologiques, ont reçu une lettre de plus de 200 organisations de la société civile, chercheurs et journalistes nous exhortant à redoubler d'efforts pour protéger l'intégrité des élections en 2024. Nous apprécions leur action et partageons leur engagement à faire en sorte que les citoyens du monde entier puissent participer à leurs élections, tout en faisant tout ce qui est en notre pouvoir pour contribuer à la protection de notre démocratie.

Compte tenu de l'importance de ces questions et de la responsabilité profonde que nous ressentons à l'égard des centaines de millions de personnes qui utilisent Snapchat pour communiquer avec leurs amis et leur famille et en apprendre davantage sur le monde grâce à notre contenu, nous avons estimé qu'il était important de rendre notre réponse publique. Vous pouvez lire notre lettre ci-dessous et en savoir plus sur nos projets pour les élections de cette année ici.

***

21 avril 2024

Chères organisations de la société civile :

Nous vous remercions de votre vigilance et de votre action de plaidoyer en cette année d'activité électorale sans précédent dans le monde. Nous sommes heureux d'avoir l'occasion d'en dire plus sur la façon dont Snap aborde ses responsabilités dans cet environnement et sur la manière dont ces efforts correspondent aux valeurs de longue date de notre entreprise.

Aperçu de l'approche Snapchat

Notre approche de l'intégrité des plateformes électorales est stratifiée. À haut niveau, les éléments essentiels sont les suivants :

  • Garanties intentionnelles des produits ;

  • Des politiques claires et réfléchies ;

  • Approche diligente des publicités politiques ;

  • des opérations collaboratives et coordonnées ; et

  • Proposer des outils et des ressources pour responsabiliser les Snapchatters.


Ensemble, ces piliers sous-tendent notre approche de l'atténuation d'un large éventail de risques liés aux élections, tout en veillant à ce que les Snapchatters aient accès aux outils et aux informations qui soutiennent la participation aux processus démocratiques dans le monde entier.

1. Garanties intentionnelles des produits

Dès le départ, Snapchat a été conçu différemment des médias sociaux traditionnels. Snapchat ne s'ouvre pas sur un flux de contenu infini et non vérifié, et ne permet pas aux gens de diffuser en direct.

Nous savons depuis longtemps que les plus grandes menaces liées à la désinformation numérique nuisible découlent de la vitesse et de l'ampleur avec lesquelles certaines plateformes numériques permettent sa diffusion. Les politiques et l'architecture de notre plateforme limitent les possibilités pour les contenus non validés ou non modérés d'atteindre une échelle significative sans contrôle. Au lieu de cela, nous pré-modérons les contenus avant qu'ils ne soient diffusés à une large audience, et nous limitons largement la diffusion des nouvelles et des informations politiques à moins qu'elles ne proviennent d'éditeurs et de créateurs de confiance (y compris, par exemple, des organisations médiatiques telles que le Wall Street Journal et le Washington Post aux États-Unis, Le Monde en France, et Times Now en Inde). 

Au cours de l'année écoulée, l'introduction de fonctions d'IA générative sur Snapchat a été accueillie avec le même niveau d'intention. Nous limitons la capacité de nos produits d'IA à générer du contenu ou des images qui pourraient être utilisés pour saper les processus civiques ou tromper les électeurs. Notre chatbot, My AI, par exemple, peut fournir des informations sur des événements politiques ou sur le contexte entourant des questions sociales ; il est programmé pour ne pas donner d'avis sur les candidats politiques ou encourager les Snapchatters à voter pour un résultat particulier. En ce qui concerne les fonctions de conversion de texte en image, nous avons adopté des restrictions au niveau du système pour la génération de catégories de contenu à risque, y compris la ressemblance avec des personnalités politiques connues.

Depuis plus d'une décennie, et au cours de plusieurs cycles électoraux, l'architecture de nos produits a joué un rôle central dans la création d'un environnement extrêmement inhospitalier pour les acteurs qui s'efforcent de perturber les processus civiques ou de saper l'environnement de l'information. Et les faits montrent que cela fonctionne bien. Nos données les plus récentes indiquent qu'entre le 1er janvier et le 30 juin 2023, le nombre total d'exécutions au niveau mondial pour des fausses informations préjudiciables (y compris les risques pour l'intégrité des élections) a représenté 0,0038 % du contenu total exécuté, ce qui correspond aux catégories de préjudices les moins probables sur notre plateforme.

Nous continuerons à adopter une approche axée sur les produits pour nos efforts en matière d'intégrité des plateformes en 2024, y compris nos engagements en tant que signataires de l'accord Tech pour lutter contre l'utilisation trompeuse de l'IA dans les élections de 2024.

2. Des politiques claires et réfléchies

Pour compléter les mesures de protection de nos produits, nous avons mis en œuvre une série de politiques visant à promouvoir la sécurité et l'intégrité dans le contexte d'événements très médiatisés tels que les élections. Nos règles communautaires interdisent expressément, par exemple, les fausses informations préjudiciables, les discours haineux et les menaces ou appels à la violence.

En ce qui concerne le contenu préjudiciable lié aux élections, nos politiques externes sont solides et s'appuient sur des chercheurs de premier plan dans le domaine de l'intégrité de l'information. Ils précisent les catégories spécifiques de contenus préjudiciables qui sont interdits, notamment :

  • Interférence procédurale : informations erronées liées aux procédures électorales ou civiques, telles que la présentation erronée des dates et heures importantes ou des conditions d'éligibilité pour la participation ;

  • Atteinte à la participation : contenu qui comprend l'intimidation de la sécurité personnelle ou qui répand des rumeurs visant à décourager la participation au processus électoral ou civique ;

  • Participation frauduleuse ou illégale : contenu qui encourage les gens à se présenter sous un faux jour pour participer au processus civique ou pour déposer ou détruire illégalement des bulletins de vote ; et

  • Délégitimation des processus civiques : contenu visant à délégitimer les institutions démocratiques sur la base d'affirmations fausses ou trompeuses concernant les résultats des élections, par exemple.

Retour aux Actualités
1 Il convient de noter que le partage de contenus générés ou améliorés par l'IA sur Snapchat n'est pas contraire à nos politiques, et certainement pas quelque chose que nous considérons comme intrinsèquement nuisible. Depuis de nombreuses années, les utilisateurs de Snapchatt ont trouvé du plaisir à manipuler des images avec des lentilles amusantes et d'autres expériences de réalité augmentée, et nous sommes impatients de voir comment notre communauté peut utiliser l'IA pour s'exprimer de manière créative. Toutefois, si le contenu est trompeur (ou autrement préjudiciable), nous le supprimerons bien entendu, quel que soit le rôle joué par la technologie de l'IA dans sa création.