Onze reactie op groeperingen uit het maatschappelijk middenveld over verkiezingsintegriteit

22 april 2024

Eerder deze maand ontving Snap, samen met andere grote technologiebedrijven, een brief van meer dan 200 maatschappelijke organisaties, onderzoekers en journalisten waarin ze ons dringend vroegen om meer te doen om de integriteit van verkiezingen in 2024 te beschermen. We waarderen hun pleidooi en delen hun inzet om ervoor te zorgen dat mensen over de hele wereld kunnen deelnemen aan hun verkiezingen, terwijl we alles doen wat we kunnen om onze democratie te helpen beschermen.

Gezien het belang van deze problemen en de diepe verantwoording die we voelen tegenover de honderden miljoenen mensen die Snapchat gebruiken om met hun vrienden en familie te communiceren en meer over de wereld te leren via onze content, vonden we het belangrijk om onze reactie openbaar te maken. Je kunt onze brief hieronder lezen en hier meer informatie vinden over onze plannen voor de verkiezingen van dit jaar.

***

21 april 2024

Beste maatschappelijke organisaties:

Dank je voor je voortdurende waakzaamheid en pleitbezorging in dit jaar van ongekende electorale activiteiten over de hele wereld. We zijn dankbaar voor de kans om meer te delen over hoe Snap onze verantwoordelijkheden in deze omgeving benadert en hoe deze inspanningen overeenkomen met de aloude waarden van ons bedrijf.

Overzicht van de Snapchat-aanpak

Onze benadering van verkiezingsgerelateerde platformintegriteit is gelaagd. Op hoog niveau zijn de kernelementen:

  • Opzettelijke productveiligheidsmaatregelen;

  • Helder en doordacht beleid; 

  • Zorgvuldige benadering van politieke advertenties;

  • Samenwerkende, gecoördineerde operaties; en

  • Het aanbieden van tools en informatiebronnen om Snapchatters te ondersteunen.


Deze pijlers ondersteunen onze benadering om een breed scala aan verkiezingsgerelateerde risico's te beperken, terwijl ze er ook voor zorgen dat Snapchatters toegang hebben tot tools en informatie die deelname aan democratische processen over de hele wereld ondersteunen. 

1. Opzettelijke productveiligheidsmaatregelen

Vanaf het begin was Snapchat anders ontworpen dan traditionele sociale media. Snapchat opent niet met een feed van oneindige, niet-gecontroleerde content en het staat mensen niet toe om te live te streamen. 

We beseffen al lang dat de grootste bedreigingen van gevaarlijke digitale desinformatie voortkomen uit de snelheid en schaal waarop sommige digitale platforms deze informatie kunnen verspreiden. Ons platformbeleid en onze architectuur beperken de mogelijkheden voor niet-gecontroleerde of niet-gemodereerde content om zinvolle schaal te bereiken zonder enige controle. In plaats daarvan modereren we content voordat deze kan worden versterkt naar een groot publiek, en beperken we de distributie van nieuws en politieke informatie in grote lijnen, tenzij deze afkomstig is van vertrouwde uitgevers en makers (inclusief, bijvoorbeeld mediaorganisaties zoals The Wall Street Journal en The Washington Post in de VS, Le Monde in Frankrijk en Times Now in India). 

Het afgelopen jaar werd de introductie van generatieve AI-functies op Snapchat met dezelfde intentie ontvangen. We beperken de mogelijkheden van onze AI-producten om content of beelden te genereren die kunnen worden gebruikt om burgerprocessen te ondermijnen of kiezers te misleiden. Onze chatbot, My AI, kan bijvoorbeeld informatie bieden over politieke evenementen of context rond sociale problemen; het is geprogrammeerd om geen adviezen te geven over politieke kandidaten of Snapchatters aan te moedigen om te stemmen voor een specifieke uitkomst. En in onze tekst-naar-afbeeldingsfuncties hebben we beperkingen op systeemniveau aangenomen voor het genereren van riskante contentcategorieën, inclusief de gelijkenis van bekende politieke figuren. 

Al meer dan tien jaar, en in meerdere verkiezingscycli, speelt onze productarchitectuur een centrale rol in het creëren van een zeer ongastvrije omgeving voor actoren die burgerlijke processen willen verstoren of de informatieomgeving willen ondermijnen. En er is bewijs dat het goed werkt. Onze meest recente gegevens geven aan dat van 1 januari tot 30 juni 2023 het totale aantal handhavingen wereldwijd voor gevaarlijke valse informatie (inclusief risico's voor de verkiezingsintegriteit) 0,0038% van de totale gehandhaafde content vertegenwoordigde, die binnen de laagste waarschijnlijkheidscategorieën van schade op ons platform viel.

We zullen in 2024 blijven doorgaan met een product-vooruitstrevende benadering van onze inspanningen voor integriteit van het platform, inclusief onze toezeggingen als ondertekenaars van het Tech-akkoord om misleidend gebruik van AI te bestrijden in de verkiezingen van 2024.

2. Helder en doordacht beleid

Om onze productveiligheidsmaatregelen aan te vullen, hebben we een reeks beleidsmaatregelen geïmplementeerd die werken om veiligheid en integriteit te bevorderen in de context van spraakmakende evenementen zoals verkiezingen. Onze Communityrichtlijnen verbieden bijvoorbeeld uitdrukkelijk gevaarlijke valse informatie, haatzaaien en bedreigingen of oproepen tot geweld. 

Wat betreft het onderwerp schadende content in verband met verkiezingen is ons externe beleid robuust en geïnformeerd door toonaangevende onderzoekers op het gebied van informatie-integriteit. Ze beschrijven specifieke categorieën van gevaarlijke content die verboden zijn, waaronder:

  • Procedurele inmenging: feitelijk verkeerde informatie verstrekken met betrekking tot civiele of verkiezingsprocedures, zoals verkeerde datums of deelnamevoorwaarden.

  • Participatiebemoeienis: content die de persoonlijke veiligheid bedreigt of geruchten verspreidt om deelname aan het civiele of verkiezingsproces te ontmoedigen.

  • Frauduleuze of onwettige deelname: content die mensen aanmoedigt zich anders voor te doen om deel te nemen aan het civiele proces of om illegaal stemmen uit te brengen of stembiljetten te vernietigen.

  • Delegitimering van civiele processen: content gericht op het delegitimeren van democratische instellingen op basis van valse of misleidende beweringen over bijvoorbeeld verkiezingsuitslagen.

Terug naar Nieuws
1 Het is het vermelden waard dat het delen van door AI gegenereerde of door AI verbeterde content op Snapchat niet tegen ons beleid is en zeker niet iets wat volgens ons inherent gevaarlijk is. Al vele jaren vinden Snapchatters vreugde in het manipuleren van beelden met leuke Lenzen en andere AR-ervaringen, en we zijn enthousiast over de manieren waarop onze community AI kan gebruiken om zichzelf creatief te uiten. Als de content echter misleidend (of anderszins gevaarlijk) is, zullen we deze natuurlijk verwijderen, ongeacht de mate waarin AI-technologie een rol kan hebben gespeeld bij het maken van deze content.