Dele vår respons til sivile samfunnsgrupper på valgintegritet

22. april 2024

Tidligere denne måneden mottok Snap sammen med andre store teknologiselskaper, et brev fra mer enn 200 sivile samfunnsorganisasjoner, forskere og journalister som ba oss om å øke vår innsats for å beskytte valgets integritet i 2024. Vi setter pris på deres beslutningspåvirkning og deler deres forpliktelse til å sikre at folk over hele verden kan delta i valg, mens vi gjør alt vi kan for å beskytte demokratiet vårt.

Gitt betydningen av disse problemene, og det dype ansvaret vi føler for de hundrevis av millioner av mennesker som bruker Snapchat til å kommunisere med venner og familie og lære mer om verden gjennom innholdet vårt, følte vi at det var viktig å frigjøre svaret offentlig. Du kan lese brevet vårt nedenfor, og lære mer om planene våre for årets valg her.

***

21. april 2024

Kjære sivilsamfunnsorganisasjoner:

Takk for deres pågående årvåkenhet og beslutningspåvirkning i dette året med valgaktivitet over hele verden. Vi er takknemlige for muligheten til å dele mer om hvordan Snap nærmer seg ansvaret vårt i dette miljøet, og hvordan disse bestrebelsene kartlegger innsatsen til selskapets varige verdier. 

Oversikt over Snapchat tilnærming

Vår tilnærming til valgrelatert plattform-integritet er lagdelt. På et høyt nivå omfatter kjerneelementene følgende:

  • Forsiktigregler for produktsikkerhet;

  • Klare og gjennomtenkte retningslinjer; 

  • Aktiv tilnærming til politiske annonser;

  • Samarbeid og koordinerte operasjoner; og

  • Tilbyr verktøy og ressurser for å styrke Snapchatteres.


Tilsammen underbygger disse pilarene vår tilnærming til å redusere et bredt spekter av valgrelaterte risikoer, støtte til at Snapchattere har tilgang til verktøy og informasjon som støtter deltakelse i demokratiske prosesser over hele verden. 

1. Sikkerhetstiltak for produkt

Fra starten av ble Snapchat designet annerledes enn tradisjonelle sosiale medier. Snapchat åpner ikke for en uendelig feed, uovervåket innhold, og det tillater ikke folk å livestrømme selv. 

Vi har lenge anerkjent at de største truslene fra skadelig digital desinformasjon stammer fra hastigheten og skalaen der noen digitale plattformer gjør det mulig for den å spre seg. Våre plattform- retningslinjer og arkitektur begrenser mulighetene for uovervåket eller ikke moderert innhold til å oppnå meningsfylt skala ukontrollert. I stedet kan vi forhåndsmoderere innhold før det kan bli spredt til et stort publikum, og begrenser bredt distribusjonen av nyheter og politisk informasjon med mindre det kommer fra pålitelige utgivere og kreatører (inkludert, for eksempel medieorganisasjoner som The Wall Street Journal og Washington Post i USA, Le Monde i Frankrike og Times Now i India). 

I løpet av dette siste året har introduksjonen av Generativ AI blitt møtt med samme intensjonsnivå. Vi begrenser AI sine evner til å generere innhold eller bilder som kan brukes til å undergrave sivile prosesser eller villede velgere. Vår chatbot, My AI kan for eksempel gi informasjon om politiske hendelser eller kontekst rundt sosiale problemer; den er programmert til ikke å tilby meninger om politiske kandidater eller oppfordre Snapchattere til å stemme for et bestemt utfall. Og i våre tekst til bilde funksjoner har vi vedtatt system-nivå restriksjoner på generering av risikable innholdskategorier, inkludert likhet med kjente politikere. 

I mer enn et tiår nå, og på tvers av flere valgperioder, har produktarkitekturen vår spilt en rolle i å skape et svært ugjestmildt miljø for aktører som arbeider for å forstyrre sivile prosesser eller undergrave informasjonsmiljøet. Og bevis tyder på at det fungerer bra. Våre nyeste data indikerer at fra 1. januar til 30. juni 2023 representerer det totale antallet håndhevelser globalt for skadelig falsk informasjon (inkludert risiko for valgintegritet) 0.0038 % av totalt innhold håndhevet, fallende innenfor de laveste sannsynligheten for skade på plattformen vår.

Vi fortsetter å bringe en produkt-fremhevende tilnærming til vår innsats for plattformintegritet i 2024, inkludert våre forpliktelser som signaturer til Tech Accord for å bekjempe villedende bruk av AI i 2024 valget.

2. Klare og gjennomtenkte retningslinjer

For å utfylle vår produkttrygghet har vi implementert en rekke retningslinjer som fungerer for å fremme sikkerhet og integritet i sammenheng med høyprofilerte hendelser som valg. Samfunnsretningslinjene våre forbyr uttrykkelig for eksempel skadelig falsk informasjon, hattale og trusler eller oppfordring til vold mot mennesker. 

Under temaet skadelig innhold i forbindelse med valg, er våre eksterne retningslinjer robuste og informert av ledende forskere innen informasjonsintegritet. De beskriver bestemte kategorier av skadelig innhold som er forbudt, inkludert:

  • Prosessmessig forstyrrelse: feilinformasjon knyttet til faktiske valg eller sivile prosedyrer, for eksempel misrepresentasjoner av viktige datoer og klokkeslett eller kvalifikasjonskrav for deltakelse;

  • Forstyrrelse av deltakelse: innhold som inkluderer trusler mot personlig sikkerhet eller sprer rykter for å avskrekke deltakelse i valg- eller samfunnsprosesser;

  • Falsk eller ulovlig deltakelse: innhold som oppfordrer folk til å delta i den sivile prosessen på falske premisser, eller for å ulovlig kaste eller ødelegge stemmesedler; og

  • Delegitimering av sivile prosesser: innhold som tar sikte på å delegitimere demokratiske institusjoner på grunnlag av falske eller villedende krav om valgresultater, for eksempel.

Vi gir også intern veiledning for å sikre at moderatorene våre forstår måtene valg ofte krysser andre skadekategorier, inkludert hattale, kvinnehat, målrettet trakassering eller til og med forfalskning av personlighet.

Alle våre retningslinjer gjelder for enhver form for innhold på plattformen vår, enten brukergenerert eller AI-generert. 1 Vi fjerner det også for at alle retningslinjer gjelder likt for alle Snapchattere, uavhengig av deres status. I alle tilfeller er vår tilnærming til skadelig villedende innhold grei: fjern det. Vi merker det ikke, vi reduserer det ikke; vi tar det ned. Snapchattere som bryter våre regler for innhold mottar en advarsel og en melding; Hvis de fortsetter med slike brudd, kan de miste kontoprivilegier (selv om alle Snapchattere får en mulighet til å anke vår avgjørelse). 

3. Aktiv tilnærming til politiske annonser

Som plattform som tillater annonsering i forbindelse med demokratiske valg, har vi vært nøye med å ha en streng praksis for å redusere risiko for valgintegritet. Verdt spesielt å merke seg, er at hver politiske annonse på Snapchat er undersøkt av mennesker og vurdert og sjekket før den er kvalifisert for plassering på plattformen vår. Som støtte for disse tiltakene samarbeider vi med Poynter og andre internasjonale medlemsorganisasjoner i faktasjekking-nettverket for å gi uavhengige vurderinger av hvorvidt annonsørers krav kan underbygges. Vår sjekkeprosess for annonser inkluderer en grundig sjekk for enhver villedende bruk av AI for å lage villedende bilder eller innhold.

For å støtte åpenhet, må en annonse tydelig vise hvem som har betalt for den. Og under våre retningslinjer for politiske annonser tillater vi ikke at annonser betales for av utenlandske regjeringer, enkeltpersoner eller enheter som ligger utenfor landet der valget finner sted. Vi tror det er i publikums interesse å se hvilke annonser som er godkjent for å kjøre og holde et bibliotek for politiske annonser med informasjon om målretting, kostnader og til annen innsikt.  

For å sikre overholdelse av alle disse prosessene, tillater våre retningslinjer for kommersielt innhold at brukere ikke kan fremme betalt innhold utenfor tradisjonelle annonseformater. Dette sikrer at alt betalt innhold er underlagt vår praksis for gjennomgang av annonser og krav om ansvarsfraskrivelse.

4. Samarbeid og koordinert drift

Hos Snap har vi en svært samarbeidende tilnærming til å betjene vår sikkerhet for valgintegritet. Internt har vi samlet et tverrfunksjonelt team for valgintegritet, inkludert feilinformasjon, politisk annonsering og eksperter i cybersikkerhet, for å overvåke all relevant utvikling i forbindelse med valg over hele verden i 2024. Bredden av representasjon i denne gruppen, gjenspeiler vår hele-selskapet-tilnærming som vi har for å beskytte plattformintegritet, med representanter fra tillit & sikkerhet, innholdsmoderasjon, ingeniørarbeid, produkt, juridisk, retningslinjer, personvernsoperasjoner, sikkerhet og andre.

Gjennom innholdsmoderasjon og håndheving opprettholder vi språkkunnskaper forenlig med alle land Snap opererer i. Vi har også opprettet en protokoll for kriserespons, for å sikre operativ smidighet for å møte globale hendelser av høy risiko.

Denne koordinasjonsånden strekker seg også til eksternt samarbeid. Vi samarbeider rutinemessig med demokrati- interessenter og sivilsamfunnsorganisasjoner for råd, forskningsinnsikt og å høre bekymringer eller motta eskaleringer. (Mange underskrivere til brevet deres forblir verdsatte partnere for oss for disse formålene.) Vi informerer ofte regjeringer og valgtjenestemenn på vår tilnærming til plattformintegritet. Vi deltar også i multi-interessent-initiativer, som vi gjorde i år, for eksempel å jobbe med det sivile samfunn, valgmyndigheter og andre aktører innen teknologi for å bidra til å forme retningslinjer for frivillig valgintegritet i teknologiselskaper. Og vi ønsker ytterligere muligheter til å engasjere oss konstruktivt med alle interessenter til støtte for å redusere digital risiko for sivile prosesser. 

5. Tilbyr verktøy og ressurser for å styrke Snapchattere

Hos Snap har vi alltid trodd at borgerlig engasjement er en av de mektigste former for selvuttrykk. Som plattform som hjelper folk til å uttrykke seg og som har betydelig rekkevidde til nye og førstegangsvelgere, gjør vi det til en prioritet å hjelpe samfunnet til å få tilgang til nøyaktig og pålitelig informasjon om nyheter og verdenshendelser, inkludert hvor og hvordan de kan stemme i sitt lokale valg.

I 2024 vil denne innsatsen fokusere på tre pilarer som har vært konstant gjennom årene: 

  • Utdannelse: Gi faktuell og relevant innhold om valg, kandidater og problemer gjennom innholdet og talentpartnere på Utforsk

  • Registrering: Oppfordre Snapchattere til å registrere seg for å stemme, og å utnytte tredjeparts troverdig borgerlig infrastruktur. 

  • Engasjement lage spenning og energi i appen og oppmuntre Snapchattere til å stemme før/på valgdagen. 


Mange av disse planene er for tiden iverksatt for 2024, men de vil bygge på mange suksesser vi har hatt gjennom årene med tilkobling til Snapchattere med informative ressurser

Konklusjon

På et slikt viktig øyeblikk både for demokratier over hele verden og med akselerasjonen av kraftige nye teknologier, er det viktigere enn noensinne at plattformer er åpne om sine verdier. Og på dette punktet kunne ikke våre verdier ha vært klarere: vi avviser enhver misbruk av plattformen som truer med å undergrave sivile prosesser eller som utgjør en risiko for Snapchatteres sikkerhet.  Vi er stolte av hva vi har utrettet så langt, men vi må fortsette å være årvåkne, for valg-relatert risiko. For det formål takker vi deg igjen for ditt konstruktive engasjement i forhold til disse problemene, 

Vennlig hilsen,

Kip Wainscott

Leder plattformretningslinjer

Tilbake til Nyheter

1

Det er verdt å merke seg at deling av AI-generert eller AI-forbedret innhold på Snapchat ikke er mot våre retningslinjer, og absolutt ikke noe vi tar for å være iboende skadelig. I mange år nå har Snapchattere funnet glede i å manipulere bilder med Linser og AR opplevelser, og vi er glade for måtene samfunnet kan bruke AI for å uttrykke seg kreativt. Hvis imidlertid innholdet er villedende (eller på annen måte skadelig), vil vi fjerne det, uavhengig av graden teknologi kan ha spilt opprettelsen av det.

1

Det er verdt å merke seg at deling av AI-generert eller AI-forbedret innhold på Snapchat ikke er mot våre retningslinjer, og absolutt ikke noe vi tar for å være iboende skadelig. I mange år nå har Snapchattere funnet glede i å manipulere bilder med Linser og AR opplevelser, og vi er glade for måtene samfunnet kan bruke AI for å uttrykke seg kreativt. Hvis imidlertid innholdet er villedende (eller på annen måte skadelig), vil vi fjerne det, uavhengig av graden teknologi kan ha spilt opprettelsen av det.