Vi delar vårt svar till grupper i det civila samhället gällande valintegritet

22 april 2024

Tidigare denna månad fick Snap tillsammans med andra stora teknikföretag ett brev från mer än 200 organisationer i det civila samhället. Forskare och journalister uppmanade oss att öka våra ansträngningar för att skydda integriteten i valet 2024. Vi stödjer deras påverkansarbete och delar deras åtagande att se till att människor runt om i världen kan delta i sina val, samtidigt som vi gör allt vi kan för att hjälpa till att skydda vår demokrati.

Med tanke på hur viktiga dessa problem är och det djupa ansvar vi känner gentemot de hundratals miljoner människor som använder Snapchat för att kommunicera med vänner och familj och lära sig mer om världen genom vårt innehåll, kände vi att det var viktigt att ge vårt svar offentligt. Du kan läsa vårt brev nedan och lära dig mer om våra planer för årets val här.

***

21 april 2024

Till våra organisationer i det civila samhället:

Tack för er vaksamhet och påverkansarbete under detta år med aldrig tidigare skådad valaktivitet runt om i världen. Vi är tacksamma för möjligheten att berätta hur Snap tar ansvar i denna miljö och hur våra ansträngningar bidrar till de långvariga värdena för vårt företag. 

Översikt över Snapchats värderingar

Vår inställning till valrelaterad plattformsintegritet har flera lager. På en hög nivå inkluderar kärnelementen:

  • Avsiktliga produktskyddsåtgärder;

  • Tydliga och genomtänkta policyer; 

  • Genomtänkta förhållningssätt till politiska annonser;

  • Samverkande, samordnade insatser; och

  • Erbjuder verktyg och resurser för att stärka Snapchattare.


Sammantaget stödjer dessa principer vår strategi för att minska ett brett spektrum av valrelaterade risker, samtidigt som vi säkerställer att Snapchattare har tillgång till verktyg och information som stödjer deltagande i demokratiska processer över hela världen. 

1. Avsiktliga produktskyddsåtgärder

Från början var Snapchat utformat annorlunda än traditionella sociala medier. Snapchat öppnar inte för ett flöde av oändligt, icke-bedömt innehåll och det tillåter inte människor att live-streama. 

Vi har länge insett att de största hoten från skadlig digital felinformation härrör från den hastighet och skala med vilken vissa digitala plattformar gör det möjligt för information att sprida sig. Våra plattformspolicyer och arkitektur begränsar möjligheterna för icke-bedömt eller omodererat innehåll att åstadkomma skada. Istället förmodererar vi innehåll innan det kan nå en stor publik och begränsar i stora drag distributionen av nyheter och politisk information om det inte kommer från betrodda utgivare och skapare (som The Wall Street Journal och The Washington Post i USA, Le Monde i Frankrike och Times Now i Indien). 

Under det senaste året har introduktionen av funktioner med generativ AI på Snapchat mötts med samma intentionsnivå. Vi begränsar våra AI-produkters förmåga till att generera innehåll eller bilder som kan användas för att undergräva medborgerliga processer eller lura väljare. Vår chattbot, My AI, till exempel, kan tillhandahålla information om politiska händelser eller sammanhang kring sociala frågor; den är programmerad att inte erbjuda åsikter om politiska kandidater eller uppmuntra Snapchattare att rösta för ett visst resultat. Och i våra text-till-bild-funktioner har vi antagit begränsningar på systemnivå för generering av riskfyllda innehållskategorier, inklusive likhet med kända politiska figurer. 

I mer än ett årtionde och över flera valcykler har vår produktarkitektur spelat en central roll för att skapa en mycket ogästvänlig miljö för aktörer som arbetar för att störa medborgerliga processer eller underminera informationsmiljön. Det finns bevis att det fungerar bra. Våra senaste data visar att från 1 januari till 30 juni 2023 var det totala antalet verkställighetsåtgärder globalt för skadlig falsk information (inklusive risker för valintegritet) 0,0038 % av totalt innehåll som kontrollerades, vilket föll inom de lägsta sannolikhetskategorierna för skada på vår plattform.

Vi kommer att fortsätta att prioritera vår plattforms integritet under 2024, bland annat genom vårt åtagande som undertecknare av Tech Accord för att bekämpa bedräglig användning av AI i valet 2024.

2. Tydliga och genomtänkta policyer

För att komplettera våra produktskyddsåtgärder har vi implementerat en rad policyer som främjar säkerhet och integritet i samband med högprofilerade händelser som val. Våra Community-riktlinjer förbjuder uttryckligen till exempel skadlig falsk information, hatretorik och hot eller uppmaningar till våld. 

När det gäller skadligt innehåll i samband med val är våra externa policyer robusta och utformade med hjälp av ledande forskare inom området informationsintegritet. De omfattar kategorier av skadligt innehåll som är förbjudna, inklusive:

  • Störning av processer: felaktig information relaterad till politiska val eller medborgerliga procedurer såsom misstolkande av viktiga datum och tider eller kvalificerande krav för delaktighet.

  • Störning av delaktighet: innehåll såsom hot mot personlig säkerhet eller ryktesspridning för att avskräcka deltagande i val- eller medborgerliga processer;

  • Bedrägerier eller olagligt deltagande: innehåll som uppmuntrar människor att felaktigt framställa sig själva som deltagande i den medborgerliga processen eller för att olagligt lägga eller förstöra röstsedlar.

  • Avlegalisering av medborgerliga processer: innehåll som syftar till att avlegalisera demokratiska institutioner på grundval av falska eller vilseledande påståenden om valresultat till exempel.

Tillbaka till Nyheter
1 Det är värt att notera att delning av AI-genererat eller AI-förbättrat innehåll på Snapchat inte strider mot våra policyer och verkligen inte något som vi anser är skadligt i sig. Under många år nu har Snapchattare funnit glädje i att manipulera bilder med roliga Linser och andra AR-upplevelser, och vi är glada över de sätt som vår community använder AI för att uttrycka sig kreativt. Men om innehållet är bedrägligt (eller på annat sätt skadligt) kommer vi naturligtvis att ta bort det, oavsett i vilken utsträckning AI-teknik kan ha spelat en roll vid dess tillkomst.