Gennemsigtighedsrapport
1. juli 2023 – 31. december 2023

Udgivet:

25. april 2024

Opdateret:

25. april 2024

For at give indsigt i Snap's sikkerhedsindsats og i arten og mængden af indhold, der rapporteres på vores platform, offentliggør vi denne gennemsigtighedsrapport to gange om året. Vi er forpligtet til at fortsætte med at gøre disse rapporter mere omfattende og informative om sikkerheden og trivslen i vores fællesskab og til de mange interessenter, der bekymrer sig dybt om vores indholdsmoderation og retshåndhævelse. 

Denne gennemsigtighedsrapport dækker anden halvdel af 2023 (1 juli - 31 december). Som i vores tidligere rapporter deler vi data om det globale antal rapporter om indhold i apps og på kontoniveau, som vi har modtaget og håndhævet på tværs af specifikke kategorier af politikovertrædelser; hvordan vi reagerede på anmodninger fra retshåndhævende myndigheder og regeringer; og vores håndhævelsestiltag opdelt efter land.

Som en del af vores løbende forpligtelse til fortsat at forbedre vores gennemsigtighedsrapporter introducerer vi et par nye elementer med denne udgivelse. 

For det første har vi udvidet vores hovedtabel til at omfatte rapporter og håndhævelse mod indhold og konti bundet til både terrorisme og voldelig ekstremisme og seksuel udnyttelse og mishandling af børn (CSEA). I tidligere rapporter havde vi belyst de konto sletninger, der var foretaget som reaktion på de overtrædelser fra separate afsnit. Vi vil fortsætte med at skitsere vores proaktive og reaktive indsatser mod CSEA samt vores rapporter til NCMEC i et separat afsnit. 

For det andet har vi givet udvidede oplysninger om klager og skitseret alle klager og genindførsler af håndhævelser af Retningslinjer for brugerne. 

Endelig har vi udvidet vores afsnit om den Europæiske Union og givet øget indsigt i Snaps EU-aktiviteter. Specifikt offentliggør vi vores seneste DSA gennemsigtighedsrapport og yderligere statistik vedrørende vores CSEA mediescanning.

Læs vores seneste Sikkerheds- og konsekvensblog om denne Gennemsigtighedsrapport for yderligere oplysninger om vores politikker for bekæmpelse af online skader og vores planer om fortsat at udvikle vores rapporteringspraksisser. Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.

Bemærk venligst, at den mest opdaterede version af denne gennemsigtighedsrapport kan findes i sproglokalieten en-US.

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Analyse af indholds- og kontoovertrædelser

Vores samlede rapporterings- og håndhævelsescifre forblev nogenlunde det samme som de foregående seks måneder. I denne cyklus oplevede vi en stigning på ca. 10 % i det samlede antal indholds- og kontorapporter.

Konflikten mellem Israel og Hamas begyndte i denne periode, og som følge heraf oplevede vi en stigning krænkende indhold. Samlet set steg rapporter om hadefulde tale med ~61%, mens det samlede antal håndhævelser mod hadefulde tale steg med ~97%, og unikke håndhævelse af konti steg med ~124%. Rapporter om terrorisme og voldelige ekstremisme er også steget, selvom de udgør <0,1 % af det samlede antal indholdshåndhævelser på vores platform. Vores Trust & Safety teams fortsætter med at være på vagt, når globale konflikter opstår, for at Snapchat forbliver sikker. Vi har også udvidet vores gennemsigtighedsrapport til at omfatte flere oplysninger på et globalt og nationalt plan om de samlede rapporter, håndhævet indhold og håndhævelser af unikke konti for overtrædelser af vores Politik om terrorisme og voldelig ekstremisme. 

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for brugere. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I andet halvår 2023 opdagede og reagerede vi proaktivt på 59% af de samlede anmeldelser af krænkelser og mishandling af børn. Dette afspejler et samlet fald på 39% fra den foregående periode på grund af forbedringer i Snapchatteres muligheder for rapportering, hvilket øger vores synlighed for potentiel CSEA, der er sendt på Snapchat. 

*Bemærk, at hver indsendelse til NCMEC kan indeholde flere dele af indholdet. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er håndhævet. Vi har også udelukket tilbagetrukne indsendelser til NCMEC fra dette nummer.

Selvskade og selvmordsindhold

Vi går meget op i Snapchatters mentale sundhed og velbefindende, hvilket fortsat er afgørende for vores beslutninger om at opbygge Snapchat på en anderledes måde. Som en platform, der er designet til kommunikation mellem og iblandt rigtige venner, mener vi, at Snapchat kan spille en unik rolle ved at give venner mulighed for at hjælpe hinanden gennem svære tider.

Når vores Trust & Safety team bliver opmærksom på en Snapchatter i nød, kan de sende forebyggelsesforanstaltninger mod selvskade samt support-ressourcer og underrette beredskabspersonale, når det er hensigtsmæssigt. De ressourcer, vi deler, er tilgængelige på vores globale liste over sikkerhedsressourcer, og de er offentligt tilgængelige for alle Snapchattere.

Klager

I vores tidligere rapport introducerede vi statistik over klager, hvor vi fremhævede antallet af gange, brugerne bad os om at genoverveje vores første moderationsbeslutning mod deres konto. I denne rapport har vi udvidet vores indsigelser for at fange hele spektret af kategorier i vores politik for overtrædelser på kontoniveau.

* Ophør af spredningen af indhold eller aktivitet relateret til seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE og der er et begrænset team af medarbejdere, der håndterer disse anmeldelser på grund af indholdets voldsomme karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser, og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at Snaps næste gennemsigtighedsrapport vil afsløre fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.

Oversigt over regioner og lande

Dette afsnit giver et overblik over håndhævelsen af vores Retningslinjer for brugere for et udvalg af geografiske regioner. Vores Retningslinjer gælder for alt indhold på Snapchat – og alle Snapchattere – i hele verden, uanset sted.

Oplysninger til individuelle lande, herunder alle EU-medlemsstater, er tilgængelige til download via den vedhæftede CSV-fil.

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for brugere. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I andet halvår 2023 opdagede og reagerede vi proaktivt på 59% af de samlede anmeldelser af krænkelser og mishandling af børn. Dette afspejler et samlet fald på 39% fra den foregående periode på grund af forbedringer i Snapchatteres muligheder for rapportering, hvilket øger vores synlighed for potentiel CSEA, der er sendt på Snapchat. 

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for brugere. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I andet halvår 2023 opdagede og reagerede vi proaktivt på 59% af de samlede anmeldelser af krænkelser og mishandling af børn. Dette afspejler et samlet fald på 39% fra den foregående periode på grund af forbedringer i Snapchatteres muligheder for rapportering, hvilket øger vores synlighed for potentiel CSEA, der er sendt på Snapchat. 

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for brugere. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I andet halvår 2023 opdagede og reagerede vi proaktivt på 59% af de samlede anmeldelser af krænkelser og mishandling af børn. Dette afspejler et samlet fald på 39% fra den foregående periode på grund af forbedringer i Snapchatteres muligheder for rapportering, hvilket øger vores synlighed for potentiel CSEA, der er sendt på Snapchat. 

Moderation af annoncer

Snap er forpligtet til at sikre, at alle annoncer er fuldt ud i overensstemmelse med vores Annoncepolitik. Vi tror på en ansvarlig og respektfuld tilgang til annoncering, der skaber en sikker og fornøjelig oplevelse for alle vores brugere. Nedenfor har vi inkluderet en indsigt i vores moderation for betalte reklamer på Snapchat. Bemærk, at annoncer på Snapchat kan fjernes af en række årsager som beskrevet i Snaps Annoncepolitik, herunder vildledende indhold, voksenindhold, voldeligt eller foruroligende indhold, hadetale og krænkelse af intellektuel ejendom Derudover kan du nu finde Snapchats Annoncegalleri i navigationslinjen i denne gennemsigtighedsrapport.

Anmodninger om fjernelse af statslig og intellektuel ejendom

Om gennemsigtighedsrapportering

Ordliste til gennemsigtighedsrapporten