Deling af vores svar til civilsamfundsgrupper om valgintegritet

22. april 2024

Tidligere på måneden modtog Snap sammen med andre store teknologivirksomheder et brev fra mere end 200 civilsamfundsorganisationer, forskere og journalister, der opfordrede os til at øge vores indsats for at beskytte integriteten af valget i 2024. Vi sætter pris på deres indsats og deler deres engagement i at sikre, at mennesker over hele verden kan deltage i deres valg, samtidig med at vi gør alt, hvad vi kan, for at beskytte vores demokrati.

I betragtning af vigtigheden af disse spørgsmål og det dybe ansvar, vi føler over for de hundredvis af millioner af mennesker, der bruger Snapchat til at kommunikere med deres venner og familie og lære mere om verden gennem vores indhold, følte vi, at det var vigtigt at offentliggøre vores svar. Du kan læse vores brev nedenfor og få mere at vide om vores planer for dette års valg her.

***

21. april 2024

Kære civilsamfundsorganisationer:

Tak for jeres fortsatte årvågenhed og fortalervirksomhed i dette år med hidtil uset valgaktivitet rundt om i verden. Vi er taknemmelige for muligheden for at fortælle mere om, hvordan Snap håndterer vores ansvar i dette miljø, og hvordan denne indsats stemmer overens med vores virksomheds mangeårige værdier. 

Oversigt over Snapchat-tilgangen

Vores tilgang til valgrelateret platformsintegritet er lagdelt. På et højt niveau omfatter kerneelementerne:

  • Bevidst produktbeskyttelse;

  • Klare og gennemtænkte politikker; 

  • En omhyggelig tilgang til politiske annoncer;

  • Samarbejdede, koordinerede operationer; og

  • Tilbyder værktøjer og ressourcer til at styrke Snapchattere.


Tilsammen understøtter disse søjler vores tilgang til at mindske en bred vifte af valgrelaterede risici, samtidig med at vi sikrer, at Snapchattere har adgang til værktøjer og oplysninger, der understøtter deltagelse i demokratiske processer i hele verden. 

1. Bevidst produktbeskyttelse

Snapchat var fra starten designet anderledes end traditionelle sociale medier. Snapchat åbner ikke for et feed af endeløst, ukontrolleret indhold, og det giver ikke folk mulighed for at livestreame. 

Vi har længe erkendt, at de største trusler fra skadelig digital misinformation stammer fra den hastighed og det omfang, hvormed nogle digitale platforme gør det muligt at sprede den. Vores platformspolitikker og -arkitektur begrænser mulighederne for, at ukontrolleret eller umodereret indhold kan opnå en meningsfuld størrelse. I stedet modererer vi indholdet, før det kan spredes til et stort publikum, og begrænser i vid udstrækning distributionen af nyheder og politisk information, medmindre det kommer fra pålidelige udgivere og skabere (herunder f.eks. medieorganisationer som The Wall Street Journal og The Washington Post i USA, Le Monde i Frankrig og Times Now i Indien). 

I løbet af det seneste år er introduktionen af generative AI-funktioner på Snapchat blevet mødt med samme grad af intention. Vi begrænser vores AI-produkters evne til at generere indhold eller billeder, der kan bruges til at underminere samfundsmæssige processer eller vildlede vælgere. Vores chatbot, My AI, kan f.eks. give oplysninger om politiske begivenheder eller kontekst omkring sociale spørgsmål; den er programmeret til ikke at give meninger om politiske kandidater eller opfordre Snapchattere til at stemme på et bestemt resultat. Og i vores tekst-til-billede-funktioner har vi indført begrænsninger på systemniveau for generering af risikable indholdskategorier, herunder billeder af kendte politiske personer. 

I mere end et årti nu og på tværs af flere valgperioder har vores produktarkitektur spillet en central rolle i at skabe et meget ugæstfrit miljø for aktører, der arbejder på at forstyrre borgernes processer eller underminere informationsmiljøet. Og alt tyder på, at det virker godt. Vores seneste data viser, at fra 1. januar til 30. juni 2023 udgjorde det samlede antal håndhævelser globalt for skadelig falsk information (herunder risici for valgintegritet) 0,0038 % af det samlede håndhævede indhold, hvilket falder inden for kategorierne med lavest sandsynlighed for skade på vores platform.

Vi vil fortsat have en produktorienteret tilgang til vores indsats for platformsintegritet i 2024, herunder vores forpligtelser som underskrivere af Tech Accord to Combat Deceptive Use of AI in 2024 Elections.

2. Klare og gennemtænkte politikker

Som supplement til vores produktbeskyttelse har vi implementeret en række politikker, der har til formål at fremme sikkerhed og integritet i forbindelse med højt profilerede begivenheder som valg. Vores Retningslinjer for brugerne forbyder f.eks. udtrykkeligt skadelig falsk information, hadefuld tale og trusler eller opfordringer til vold.

Når det gælder skadeligt indhold i forbindelse med valg, er vores eksterne politikker robuste og baseret på førende forskere inden for informationsintegritet. De beskriver specifikke kategorier af skadeligt indhold, der er forbudt, herunder:

  • Proceduremæssig indblanding: Fejlinformation i forbindelse med faktiske valg- eller borgerprocedurer, f.eks. forkert angivelse af vigtige datoer og tidspunkter eller krav til deltagelse;

  • Indblanding i deltagelsen: indhold, der indeholder trusler mod den personlige sikkerhed eller spreder rygter med henblik på at afskrække fra deltagelse i valg- eller borgerprocessen;

  • Svigagtig eller ulovlig deltagelse: indhold, der tilskynder folk til at misrepræsentere sig selv for at deltage i den civile proces eller til ulovligt at afgive eller ødelægge stemmer; og

  • Delegitimering af borgerlige processer: indhold, der har til formål at delegitimere demokratiske institutioner på grundlag af falske eller vildledende påstande om f.eks. valgresultater.

Tilbage til Nyheder
1 Det er værd at bemærke, at deling af AI-genereret eller AI-forbedret indhold på Snapchat ikke er i strid med vores politik, og bestemt ikke noget, vi forstår som værende skadeligt i sig selv. I mange år har Snapchattere fundet glæde i at manipulere billeder med sjove linser og andre AR-oplevelser, og vi er begejstrede for de måder, vores fællesskab kan bruge AI til at udtrykke sig kreativt på. Men hvis indholdet er vildledende (eller på anden måde skadeligt), fjerner vi det naturligvis, uanset i hvor høj grad AI-teknologi har spillet en rolle i dets tilblivelse.