Dele vår respons til sivile samfunnsgrupper på valgintegritet

22. april 2024

Tidligere denne måneden mottok Snap sammen med andre store teknologiselskaper, et brev fra mer enn 200 sivile samfunnsorganisasjoner, forskere og journalister som ba oss om å øke vår innsats for å beskytte valgets integritet i 2024. Vi setter pris på deres beslutningspåvirkning og deler deres forpliktelse til å sikre at folk over hele verden kan delta i valg, mens vi gjør alt vi kan for å beskytte demokratiet vårt.

Gitt betydningen av disse problemene, og det dype ansvaret vi føler for de hundrevis av millioner av mennesker som bruker Snapchat til å kommunisere med venner og familie og lære mer om verden gjennom innholdet vårt, følte vi at det var viktig å frigjøre svaret offentlig. Du kan lese brevet vårt nedenfor, og lære mer om planene våre for årets valg her.

***

21. april 2024

Kjære sivilsamfunnsorganisasjoner:

Takk for deres pågående årvåkenhet og beslutningspåvirkning i dette året med valgaktivitet over hele verden. Vi er takknemlige for muligheten til å dele mer om hvordan Snap nærmer seg ansvaret vårt i dette miljøet, og hvordan disse bestrebelsene kartlegger innsatsen til selskapets varige verdier. 

Oversikt over Snapchat tilnærming

Vår tilnærming til valgrelatert plattform-integritet er lagdelt. På et høyt nivå omfatter kjerneelementene følgende:

  • Forsiktigregler for produktsikkerhet;

  • Klare og gjennomtenkte retningslinjer; 

  • Aktiv tilnærming til politiske annonser;

  • Samarbeid og koordinerte operasjoner; og

  • Tilbyr verktøy og ressurser for å styrke Snapchatteres.


Tilsammen underbygger disse pilarene vår tilnærming til å redusere et bredt spekter av valgrelaterte risikoer, støtte til at Snapchattere har tilgang til verktøy og informasjon som støtter deltakelse i demokratiske prosesser over hele verden. 

1. Sikkerhetstiltak for produkt

Fra starten av ble Snapchat designet annerledes enn tradisjonelle sosiale medier. Snapchat åpner ikke for en uendelig feed, uovervåket innhold, og det tillater ikke folk å livestrømme selv. 

Vi har lenge anerkjent at de største truslene fra skadelig digital desinformasjon stammer fra hastigheten og skalaen der noen digitale plattformer gjør det mulig for den å spre seg. Våre plattform- retningslinjer og arkitektur begrenser mulighetene for uovervåket eller ikke moderert innhold til å oppnå meningsfylt skala ukontrollert. I stedet kan vi forhåndsmoderere innhold før det kan bli spredt til et stort publikum, og begrenser bredt distribusjonen av nyheter og politisk informasjon med mindre det kommer fra pålitelige utgivere og kreatører (inkludert, for eksempel medieorganisasjoner som The Wall Street Journal og Washington Post i USA, Le Monde i Frankrike og Times Now i India). 

I løpet av dette siste året har introduksjonen av Generativ AI blitt møtt med samme intensjonsnivå. Vi begrenser AI sine evner til å generere innhold eller bilder som kan brukes til å undergrave sivile prosesser eller villede velgere. Vår chatbot, My AI kan for eksempel gi informasjon om politiske hendelser eller kontekst rundt sosiale problemer; den er programmert til ikke å tilby meninger om politiske kandidater eller oppfordre Snapchattere til å stemme for et bestemt utfall. Og i våre tekst til bilde funksjoner har vi vedtatt system-nivå restriksjoner på generering av risikable innholdskategorier, inkludert likhet med kjente politikere. 

I mer enn et tiår nå, og på tvers av flere valgperioder, har produktarkitekturen vår spilt en rolle i å skape et svært ugjestmildt miljø for aktører som arbeider for å forstyrre sivile prosesser eller undergrave informasjonsmiljøet. Og bevis tyder på at det fungerer bra. Våre nyeste data indikerer at fra 1. januar til 30. juni 2023 representerer det totale antallet håndhevelser globalt for skadelig falsk informasjon (inkludert risiko for valgintegritet) 0.0038 % av totalt innhold håndhevet, fallende innenfor de laveste sannsynligheten for skade på plattformen vår.

Vi fortsetter å bringe en produkt-fremhevende tilnærming til vår innsats for plattformintegritet i 2024, inkludert våre forpliktelser som signaturer til Tech Accord for å bekjempe villedende bruk av AI i 2024 valget.

2. Klare og gjennomtenkte retningslinjer

For å utfylle vår produkttrygghet har vi implementert en rekke retningslinjer som fungerer for å fremme sikkerhet og integritet i sammenheng med høyprofilerte hendelser som valg. Samfunnsretningslinjene våre forbyr uttrykkelig for eksempel skadelig falsk informasjon, hattale og trusler eller oppfordring til vold mot mennesker. 

Under temaet skadelig innhold i forbindelse med valg, er våre eksterne retningslinjer robuste og informert av ledende forskere innen informasjonsintegritet. De beskriver bestemte kategorier av skadelig innhold som er forbudt, inkludert:

  • Prosessmessig forstyrrelse: feilinformasjon knyttet til faktiske valg eller sivile prosedyrer, for eksempel misrepresentasjoner av viktige datoer og klokkeslett eller kvalifikasjonskrav for deltakelse;

  • Forstyrrelse av deltakelse: innhold som inkluderer trusler mot personlig sikkerhet eller sprer rykter for å avskrekke deltakelse i valg- eller samfunnsprosesser;

  • Falsk eller ulovlig deltakelse: innhold som oppfordrer folk til å delta i den sivile prosessen på falske premisser, eller for å ulovlig kaste eller ødelegge stemmesedler; og

  • Delegitimering av sivile prosesser: innhold som tar sikte på å delegitimere demokratiske institusjoner på grunnlag av falske eller villedende krav om valgresultater, for eksempel.

Tilbake til Nyheter
1 Det er verdt å merke seg at deling av AI-generert eller AI-forbedret innhold på Snapchat ikke er mot våre retningslinjer, og absolutt ikke noe vi tar for å være iboende skadelig. I mange år nå har Snapchattere funnet glede i å manipulere bilder med Linser og AR opplevelser, og vi er glade for måtene samfunnet kan bruke AI for å uttrykke seg kreativt. Hvis imidlertid innholdet er villedende (eller på annen måte skadelig), vil vi fjerne det, uavhengig av graden teknologi kan ha spilt opprettelsen av det.