Gennemsigtighedsrapport
1. januar 2023 – 30. juni 2023

Udgivet:

25. oktober 2023

Opdateret:

13. december 2023

For at give indsigt i Snap's sikkerhedsindsats og i arten og mængden af indhold, der rapporteres på vores platform, offentliggør vi to gange om året gennemsigtighedsrapporter. Vi er fast besluttet på at fortsætte med at gøre disse rapporter mere omfattende og informative for de mange interessenter, der bekymrer sig meget om vores indholdsmoderering og retshåndhævelsespraksis, såvel som vores fællesskabs velbefindende. 

Denne Gennemsigtighedsrapport dækker den første halvdel af 2023 (1. januar - 30. juni). Som i vores tidligere rapporter deler vi data om det globale antal rapporter om indhold i apps og på kontoniveau, som vi har modtaget og håndhævet på tværs af specifikke kategorier af politikovertrædelser; hvordan vi reagerede på anmodninger fra retshåndhævende myndigheder og regeringer; og vores håndhævelsestiltag opdelt efter land.

Som en del af vores løbende forpligtelse til fortsat at forbedre vores gennemsigtighedsrapporter introducerer vi et par nye elementer med denne udgivelse. Vi har tilføjet yderligere datapunkter omkring praksis og moderation af annoncering såvel som for klager om indhold og konti. I overensstemmelse med EU's Lov om digitale tjenester har vi også tilføjet nye kontekstuelle oplysninger om vores drift i EU-medlemsstater, såsom antallet af indholdsmoderatorer og månedlige aktive brugere (MAU'er) i regionen. Mange af disse oplysninger kan findes i rapporten og i vores Gennemsigtighedscenters dedikerede side for den Europæiske Union.

Endelig har vi opdateret vores Ordliste med links til vores Forklarende guide til Retningslinjer for fællesskabet, som giver yderligere kontekst omkring vores platformspolitik og operationelle indsats. 

Læs vores seneste Sikkerheds- og konsekvensblog om denne Gennemsigtighedsrapport for yderligere oplysninger om vores politikker for bekæmpelse af online skader og vores planer om fortsat at udvikle vores rapporteringspraksisser. 

Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.

Bemærk venligst, at den mest opdaterede version af denne gennemsigtighedsrapport kan findes i sproglokalieten en-US.

Oversigt over indhold- og kontoovertrædelser

Fra 1. januar - 30. juni 2023 foretog Snap håndhævelser mod 6.216.118 stykker indhold globalt, der krænkede vores politikker.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,02 procent, hvilket betyder, at ud af hver 10.000 Snap- og Historie-visninger på Snapchat indeholdt to indhold, som efter vores bedømmelse overtrådte vores politikker.

*Korrekt og konsekvent håndhævelse af falske oplysninger er en dynamisk proces, der kræver opdateret kontekst og omhu.  Da vi stræber efter løbende at forbedre præcisionen af vores agenters håndhævelse i denne kategori, har vi siden 1. halvår 2022 valgt at rapportere tal i kategorierne "Content Enforced" og "Unique Accounts Enforced", som er estimeret ud fra en grundig kvalitetssikringsgennemgang af en statistisk signifikant del af håndhævelserne af falske oplysninger. Specifikt udtager vi en statistisk signifikant del af håndhævelserne af falske oplysninger i hvert land og kvalitetstjekker håndhævelsesbeslutningerne. Derefter bruger vi de kvalitetstjekkede håndhævelser til at udlede håndhævelsesprocenter med et 95% konfidensinterval (+/- 5% fejlmargin), som vi bruger til at beregne de håndhævelser af falske oplysninger, der rapporteres i gennemsigtighedsrapporten. 

Analyse af indholds- og kontoovertrædelser

Vores overordnede rapporterings- og håndhævelsesrater var nogenlunde de samme som i de foregående seks måneder, med et par undtagelser i nøglekategorier. Vi oplevede et fald på ca. 3% i det samlede antal indholds- og kontorapporter og håndhævelser i denne cyklus.

Kategorierne med de mest bemærkelsesværdige udsving var chikane og mobning, spam, våben og falske oplysninger. Chikane og mobning oplevede en stigning på ca. 56 % i det samlede antal rapporter og en efterfølgende stigning på ca. 39 % i håndhævelser af indhold og unikke konti. Disse stigninger i håndhævelser blev kombineret med et fald på ca. 46 % i ekspeditionstiden, hvilket understreger den operationelle effektivitet, vores team har opnået i håndhævelsen af denne type krænkende indhold. På samme måde oplevede vi en stigning på ca. 65 % i det samlede antal rapporter om spam, med en stigning på ca. 110 % i håndhævelse af indhold og en stigning på ca. 80 % i håndhævelse af unikke konti, mens vores teams også reducerede ekspeditionstiden med ca. 80 %. Vores våbenkategori oplevede et fald på ca. 13 % i det samlede antal rapporter, et fald på ca. 51 % i håndhævelser af indhold og et fald på ca. 53 % i håndhævelser af unikke konti. Endelig oplevede vores falske oplysninger-kategori en stigning på ca. 14 % i det samlede antal rapporter, men et fald på ca. 78 % i håndhævelser af indhold og et fald på ca. 74 % i unikke håndhævede konti. Dette kan tilskrives den fortsatte kvalitetssikringsproces (QA) og de ressourcer, vi bruger på rapporter om falske oplysninger, for at sikre, at vores moderationsteams præcist fanger og håndterer falske oplysninger på platformen.

Selvom vi generelt så lignende tal som i sidste periode, mener vi, at det er vigtigt at fortsætte med at forbedre de værktøjer, som vores community bruger til aktivt og præcist at rapportere potentielle overtrædelser, når de vises på platformen.

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery) på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I første halvår af 2023 opdagede vi proaktivt 98 procent af de samlede overtrædelser af seksuel udnyttelse og seksuelt misbrug af børn, der er rapporteret her — en stigning på 4 procent fra vores tidligere rapport.

**Bemærk, at hver indsendelse til NCMEC kan indeholde flere stykker indhold. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er påtvunget.

Terroristisk og voldeligt ekstremistisk indhold

I rapporteringsperioden, 1. januar 2023 - 30. juni 2023, fjernede vi 18 konti for overtrædelser af vores politik, der forbyder terroristisk og voldeligt ekstremistisk indhold.

Hos Snap fjerner vi indhold med terrorisme og voldelig ekstremisme, der er blevet rapporteret via flere kanaler. Vi opfordrer brugerne til at rapportere terroristisk og voldeligt ekstremistisk indhold via vores rapporteringsmenu i appen, og vi arbejder tæt sammen med politiet om at håndtere terroristisk og voldeligt ekstremistisk indhold, der kan dukke op på Snap.

Selvskade og selvmordsindhold

Snapchatternes mentale sundhed og velbefindende ligger os meget på sinde, og det har præget - og præger fortsat - vores beslutninger om at opbygge Snapchat anderledes. Som en platform, der er designet til kommunikation mellem rigtige venner, mener vi, at Snapchat kan spille en unik rolle ved at give venner mulighed for at hjælpe hinanden gennem svære tider.

Når vores Trust & Safety-team genkender en Snapchatter i nød, kan de videresende ressourcer til forebyggelse af selvskade og støtte og underrette beredskabspersonale, når det er nødvendigt. De ressourcer, vi deler, er tilgængelige på vores globale liste over sikkerhedsressourcer, og de er offentligt tilgængelige for alle Snapchattere.

Klager

På det tidspunkt vi udsender denne rapport begynder vi at rapportere antallet af klager fra brugere, hvis konti blev låst for overtrædelse af vores politikker. Vi låser kun op for konti, som vores moderatorer beslutter var fejlagtigt låst. I denne periode rapporterer vi om klager vedrørende narkotikaindhold.  I vores næste rapport ser vi frem til at offentliggøre flere data om klager fra andre overtrædelser af vores politikker.

Moderation af annoncer

Snap forpligter sig til standhaftigt at sikre, at annoncer fuldt ud overholder politikkerne på vores platform. Vi tror på en ansvarlig og respektfuld tilgang til annoncering, der skaber en sikker og fornøjelig oplevelse for alle vores brugere. Nedenfor har vi inkluderet indsigt i vores annoncemoderation. Bemærk, at annoncer på Snapchat kan fjernes af en række årsager som beskrevet i Snaps Annoncepolitik, herunder vildledende indhold, voksenindhold, voldeligt eller foruroligende indhold, hadetale og krænkelse af intellektuel ejendom Derudover kan du nu finde Snapchats Annoncegalleri i navigationslinjen i denne gennemsigtighedsrapport. 

Landeoversigt

Dette afsnit giver et overblik over håndhævelsen af vores Retningslinjer for brugere for et udvalg af geografiske regioner. Vores Retningslinjer gælder for alt indhold på Snapchat – og alle Snapchattere – i hele verden, uanset sted.

Oplysninger om de enkelte lande kan downloades via den vedhæftede CSV-fil:

Anmodninger om fjernelse af statslig og intellektuel ejendom

Om gennemsigtighedsrapportering

Ordliste til gennemsigtighedsrapporten