Vi delar vårt svar till grupper i det civila samhället gällande valintegritet

22 april 2024

Tidigare denna månad fick Snap tillsammans med andra stora teknikföretag ett brev från mer än 200 organisationer i det civila samhället. Forskare och journalister uppmanade oss att öka våra ansträngningar för att skydda integriteten i valet 2024. Vi stödjer deras påverkansarbete och delar deras åtagande att se till att människor runt om i världen kan delta i sina val, samtidigt som vi gör allt vi kan för att hjälpa till att skydda vår demokrati.

Med tanke på hur viktiga dessa problem är och det djupa ansvar vi känner gentemot de hundratals miljoner människor som använder Snapchat för att kommunicera med vänner och familj och lära sig mer om världen genom vårt innehåll, kände vi att det var viktigt att ge vårt svar offentligt. Du kan läsa vårt brev nedan och lära dig mer om våra planer för årets val här.

***

21 april 2024

Till våra organisationer i det civila samhället:

Tack för er vaksamhet och påverkansarbete under detta år med aldrig tidigare skådad valaktivitet runt om i världen. Vi är tacksamma för möjligheten att berätta hur Snap tar ansvar i denna miljö och hur våra ansträngningar bidrar till de långvariga värdena för vårt företag. 

Översikt över Snapchats värderingar

Vår inställning till valrelaterad plattformsintegritet har flera lager. På en hög nivå inkluderar kärnelementen:

  • Avsiktliga produktskyddsåtgärder;

  • Tydliga och genomtänkta policyer; 

  • Genomtänkta förhållningssätt till politiska annonser;

  • Samverkande, samordnade insatser; och

  • Erbjuder verktyg och resurser för att stärka Snapchattare.


Sammantaget stödjer dessa principer vår strategi för att minska ett brett spektrum av valrelaterade risker, samtidigt som vi säkerställer att Snapchattare har tillgång till verktyg och information som stödjer deltagande i demokratiska processer över hela världen. 

1. Avsiktliga produktskyddsåtgärder

Från början var Snapchat utformat annorlunda än traditionella sociala medier. Snapchat öppnar inte för ett flöde av oändligt, icke-bedömt innehåll och det tillåter inte människor att live-streama. 

Vi har länge insett att de största hoten från skadlig digital felinformation härrör från den hastighet och skala med vilken vissa digitala plattformar gör det möjligt för information att sprida sig. Våra plattformspolicyer och arkitektur begränsar möjligheterna för icke-bedömt eller omodererat innehåll att åstadkomma skada. Istället förmodererar vi innehåll innan det kan nå en stor publik och begränsar i stora drag distributionen av nyheter och politisk information om det inte kommer från betrodda utgivare och skapare (som The Wall Street Journal och The Washington Post i USA, Le Monde i Frankrike och Times Now i Indien). 

Under det senaste året har introduktionen av funktioner med generativ AI på Snapchat mötts med samma intentionsnivå. Vi begränsar våra AI-produkters förmåga till att generera innehåll eller bilder som kan användas för att undergräva medborgerliga processer eller lura väljare. Vår chattbot, My AI, till exempel, kan tillhandahålla information om politiska händelser eller sammanhang kring sociala frågor; den är programmerad att inte erbjuda åsikter om politiska kandidater eller uppmuntra Snapchattare att rösta för ett visst resultat. Och i våra text-till-bild-funktioner har vi antagit begränsningar på systemnivå för generering av riskfyllda innehållskategorier, inklusive likhet med kända politiska figurer. 

I mer än ett årtionde och över flera valcykler har vår produktarkitektur spelat en central roll för att skapa en mycket ogästvänlig miljö för aktörer som arbetar för att störa medborgerliga processer eller underminera informationsmiljön. Det finns bevis att det fungerar bra. Våra senaste data visar att från 1 januari till 30 juni 2023 var det totala antalet verkställighetsåtgärder globalt för skadlig falsk information (inklusive risker för valintegritet) 0,0038 % av totalt innehåll som kontrollerades, vilket föll inom de lägsta sannolikhetskategorierna för skada på vår plattform.

Vi kommer att fortsätta att prioritera vår plattforms integritet under 2024, bland annat genom vårt åtagande som undertecknare av Tech Accord för att bekämpa bedräglig användning av AI i valet 2024.

2. Tydliga och genomtänkta policyer

För att komplettera våra produktskyddsåtgärder har vi implementerat en rad policyer som främjar säkerhet och integritet i samband med högprofilerade händelser som val. Våra Community-riktlinjer förbjuder uttryckligen till exempel skadlig falsk information, hatretorik och hot eller uppmaningar till våld. 

När det gäller skadligt innehåll i samband med val är våra externa policyer robusta och utformade med hjälp av ledande forskare inom området informationsintegritet. De omfattar kategorier av skadligt innehåll som är förbjudna, inklusive:

  • Störning av processer: felaktig information relaterad till politiska val eller medborgerliga procedurer såsom misstolkande av viktiga datum och tider eller kvalificerande krav för delaktighet.

  • Störning av delaktighet: innehåll såsom hot mot personlig säkerhet eller ryktesspridning för att avskräcka deltagande i val- eller medborgerliga processer;

  • Bedrägerier eller olagligt deltagande: innehåll som uppmuntrar människor att felaktigt framställa sig själva som deltagande i den medborgerliga processen eller för att olagligt lägga eller förstöra röstsedlar.

  • Avlegalisering av medborgerliga processer: innehåll som syftar till att avlegalisera demokratiska institutioner på grundval av falska eller vilseledande påståenden om valresultat till exempel.

Vi tillhandahåller också intern vägledning för att säkerställa att våra modereringsteam förstår hur valrisker ofta uppträder med andra kategorier av skada, inklusive hatretorik, kvinnohat, riktade trakasserier eller till och med utpekande.

Alla våra policyer gäller för alla former av innehåll på vår plattform, oavsett om det är användargenererat eller AI-genererat. 1 Vi gör också klart att alla policyer gäller lika för alla Snapchattare, oavsett deras framträdande. Vår inställning till skadligt och bedrägligt innehåll är enkelt: vi tar bort det. Vi markerar det inte, vi nedrankar det inte; vi tar bort det. Snapchattare som bryter mot våra innehållsregler får en tillsägelse och ett varningsmeddelande; om de fortsätter med sådana överträdelser kan de förlora sina kontoprivilegier (även om alla Snapchattare ges möjlighet att överklaga vårt beslut). 

3. Noggrant förhållningssätt till politiska annonser

Som en plattform som tillåter politisk annonsering i samband med demokratiska val har vi varit noga med att införa rigorösa metoder för att minska riskerna för valintegritet. Framför allt är varje politisk annons på Snapchat granskad av en person och faktakontrollerad innan den får placeras på vår plattform. För att stödja dessa ansträngningar samarbetar vi vid behov med Poynter och andra organisationer som är medlemmar i det internationella faktakontrollnätverket för att tillhandahålla oberoende, icke-partiella bedömningar huruvida annonsörers anspråk kan vara styrkta. Vår granskningsprocess för politiska annonser inkluderar en grundlig kontroll av vilseledande användning av AI för att skapa bedrägliga bilder eller innehåll.

För att stödja transparens måste en annons tydligt visa vem som betalat för den. Och enligt våra policyer för politiska annonser tillåter vi inte att annonser betalas för av utländska regeringar eller individer eller organisationer som är belägna utanför det land där valet äger rum. Vi anser att det ligger i allmänhetens intresse att se vilka politiska annonser som är godkända att visa och att ha ett register över politiska annonser (Political Ads Library) som innehåller information om inriktning, kostnader och andra insikter.  

För att säkerställa att alla dessa processer följs förbjuder våra policyer för kommersiellt innehåll att påverkare inte får marknadsföra betalt politiskt innehåll utanför traditionella annonsformat. Detta säkerställer att allt betalt politiskt innehåll är föremål för våra annonsgranskningsmetoder och friskrivningskrav.

4. Samverkande, samordnade insatser

På Snap har vi en mycket samarbetsinriktad strategi för att konkretisera våra skyddsåtgärder mot valintegritet. Internt har vi sammankallat ett tvärfunktionellt team för valintegritet, såsom felinformation, politisk annonsering och cybersäkerhet, för att övervaka relevant utveckling i samband med val över hela världen 2024. Bredden av representation i denna grupp återspeglar vår helhetssyn som vi tar för att skydda plattformens integritet, med representanter från Trust & Safety, Innehållsmoderering, Teknik, Produkt, Juridisk, Policy, Sekretessåtgärder, Säkerhet och andra.

Över vår innehållsmoderering och upprätthållande upprätthåller vi språkfunktioner som motsvarar alla länder där Snap är verksamt. Vi har också implementerat ett krissvarsprotokoll, för att säkerställa operativ flexibilitet inför högriskhändelser i världen.

Denna anda av samordning sträcker sig också till externa samarbeten. Vi engagerar oss rutinmässigt med demokratiintressenter och organisationer i det civila samhället för råd, forskningsinsikter och för att höra bekymmer eller ta emot incidenteskaleringar. (Många som undertecknar ditt brev förblir värdefulla partners för oss för dessa ändamål.) Vi informerar ofta regeringar och valtjänstemän om vår inställning till plattformsintegritet. Vi deltar också i flera intressenters initiativ, som vi gjorde i år, till exempel genom att arbeta med det civila samhället, valmyndigheter och andra branschintressenter för att hjälpa till att utforma riktlinjer för frivillig valintegritet för teknikföretag. Vi välkomnar ytterligare möjligheter att engagera oss konstruktivt med alla intressenter till stöd för att minska digitala risker för medborgerliga processer. 

5. Erbjuder verktyg och resurser för att stärka Snapchattare

På Snap har vi alltid ansett att medborgerligt engagemang är en av de mest kraftfulla formerna av att uttrycka sig själv. Som en plattform som hjälper människor att uttrycka sig och har betydande räckvidd med nya och förstagångsväljare prioriterar vi att hjälpa vår community att få tillgång till korrekt och betrodd information om nyheter och världshändelser, inklusive var och hur de kan rösta i sitt lokala val.

År 2024 kommer dessa ansträngningar att fokusera på tre pelare som har varit konstanta genom åren: 

  • Utbildning: Tillhandahålla sakligt och relevant innehåll om val, kandidater och problem genom våra innehålls- och talangpartnerskap på Upptäck.

  • Registrering: Uppmuntra Snapchattare att registrera sig för att rösta och utnyttja trovärdig medborgerlig infrastruktur från tredjepart. 

  • Engagemang: Skapa spänning och energi i appen kring medborgarskap och uppmuntra Snapchattare att rösta före/på valdagen. 


Många av dessa planer är för närvarande pågång för 2024, men de kommer att bygga på många av de framgångar vi har haft under åren med att ansluta Snapchattare till informativa resurser.

Slutsats

Vid ett sådant avgörande ögonblick, både för demokratier runt om i världen och framväxten av kraftfull ny teknik, är det viktigare än någonsin att plattformar är transparenta med sina värderingar. På denna punkt kan våra värderingar inte vara tydligare: vi förkastar missbruk av vår plattform som hotar att undergräva medborgerliga processer eller utgör en risk för Snapchattares säkerhet.  Vi är stolta över vårt resultat hittills, men vi måste fortsätta att vara vaksamma mot valrelaterade risker. Därför tackar vi dig igen för ditt konstruktiva engagemang i dessa frågor, 

Med vänliga hälsningar, 

Kip Wainscott

Chef för plattformspolicy

Tillbaka till Nyheter

1

Det är värt att notera att delning av AI-genererat eller AI-förbättrat innehåll på Snapchat inte strider mot våra policyer och verkligen inte något som vi anser är skadligt i sig. Under många år nu har Snapchattare funnit glädje i att manipulera bilder med roliga Linser och andra AR-upplevelser, och vi är glada över de sätt som vår community använder AI för att uttrycka sig kreativt. Men om innehållet är bedrägligt (eller på annat sätt skadligt) kommer vi naturligtvis att ta bort det, oavsett i vilken utsträckning AI-teknik kan ha spelat en roll vid dess tillkomst.

1

Det är värt att notera att delning av AI-genererat eller AI-förbättrat innehåll på Snapchat inte strider mot våra policyer och verkligen inte något som vi anser är skadligt i sig. Under många år nu har Snapchattare funnit glädje i att manipulera bilder med roliga Linser och andra AR-upplevelser, och vi är glada över de sätt som vår community använder AI för att uttrycka sig kreativt. Men om innehållet är bedrägligt (eller på annat sätt skadligt) kommer vi naturligtvis att ta bort det, oavsett i vilken utsträckning AI-teknik kan ha spelat en roll vid dess tillkomst.