Snap Values
Gennemsigtighedsrapport
1. januar 2024 - 30. juni 2024

Udgivet:

5. december 2024

Opdateret:

5. december 2024

Vi offentliggør denne gennemsigtighedsrapport to gange om året for at give indsigt i Snaps sikkerhedsindsats. Vi er forpligtet til disse bestræbelser og stræber løbende efter at gøre disse rapporter mere omfattende og informative for de mange interessenter, der bekymrer sig dybt om vores moderering af indhold, praksis for retshåndhævdelse samt sikkerhed og trivsel i Snapchat-fællesskabet. 

Denne gennemsigtighedsrapport dækker første halvår af 2024 (1. januar til 30. juni). Som i vores tidligere rapporter deler vi data om det globale antal anmeldelser om indhold i apps og på kontoniveau, som vores tillids- og sikkerhedsteams har modtaget og håndhævet reglerne over for i forbindelse med specifikke kategorier af overtrædelser af retningslinjerne for fællesskabet; hvordan vi reagerede på anmodninger fra retshåndhævende myndigheder og regeringer; og hvordan vi reagerede på meddelelser om ophavsretlige krænkelser samt varemærkekrænkelser. Vi giver også landespecifikke indblik i de filer, der er linket nederst på siden.

Som en del af vores løbende forpligtelse til løbende at forbedre vores gennemsigtighedsrapporter introducerer vi også nye data, der fremhæver vores proaktive indsats for at registrere og håndhæve reglerne over for en større række overtrædelser. Vi har inkluderet disse data på både globalt plan og nationalt niveau i denne rapport, og det vil vi fortsætte med at gøre fremover. Vi har også korrigeret en markeringsfejl i vores tidligere rapporter: Hvor vi tidligere har henvist til "Samlet indhold, der blev sat ind over for", henviser vi nu til "Samlet antal af håndhævelser" for at afspejle det forhold, at de data, der er angivet i de relevante kolonner, omfatter håndhævelser på både indholdsniveau og kontoniveau.

For at få flere oplysninger om vores politikker for bekæmpelse af potentiel online skade samt vores planer om at fortsætte udviklingen af vores rapporteringspraksis, kan du læse om denne gennemsigtighedsrapport i vores nylige Sikkerheds- og konsekvensblog. Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.

Bemærk, at den mest opdaterede version af denne gennemsigtighedsrapport kan findes i sproglokaliteten en-US.

Oversigt over vores tillids- og sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet

Vores tillids- og sikkerhedsteams håndhæver vores Retningslinjer for fællesskabet både proaktivt (gennem brug af automatiserede værktøjer) og reaktivt (som reaktion på anmeldelser) som beskrevet yderligere i de følgende afsnit af denne rapport. I denne rapporteringscyklus (første halvår af 2024) har vores tillids- og sikkerhedsteams truffet følgende håndhævende foranstaltninger: 

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Analyse af indholds- og kontoovertrædelser

Vores samlede rapporterings- og håndhævelsescifre forblev nogenlunde det samme som de foregående seks måneder. I denne cyklus oplevede vi en stigning på ca. 10 % i det samlede antal indholds- og kontorapporter.

Konflikten mellem Israel og Hamas begyndte i denne periode, og som følge heraf oplevede vi en stigning krænkende indhold. Samlet set steg rapporter om hadefulde tale med ~61%, mens det samlede antal håndhævelser mod hadefulde tale steg med ~97%, og unikke håndhævelse af konti steg med ~124%. Rapporter om terrorisme og voldelige ekstremisme er også steget, selvom de udgør <0,1 % af det samlede antal indholdshåndhævelser på vores platform. Vores Trust & Safety teams fortsætter med at være på vagt, når globale konflikter opstår, for at Snapchat forbliver sikker. Vi har også udvidet vores gennemsigtighedsrapport til at omfatte flere oplysninger på et globalt og nationalt plan om de samlede rapporter, håndhævet indhold og håndhævelser af unikke konti for overtrædelser af vores Politik om terrorisme og voldelig ekstremisme. 

Oversigt over indhold- og kontoovertrædelser

Fra 1. juli til 31. december 2023 håndhævede Snap sine regler overfor 5.376.714 stykker indhold globalt, der blev rapporteret til os og krænkede Retningslinjer for brugerne.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 1 indhold, der overtrådte vores politikker. Den gennemsnitlige behandlingstid for håndhævelse af rapporteret indhold var ~10 minutter.

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for brugere. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I andet halvår 2023 opdagede og reagerede vi proaktivt på 59% af de samlede anmeldelser af krænkelser og mishandling af børn. Dette afspejler et samlet fald på 39% fra den foregående periode på grund af forbedringer i Snapchatteres muligheder for rapportering, hvilket øger vores synlighed for potentiel CSEA, der er sendt på Snapchat. 

*Bemærk, at hver indsendelse til NCMEC kan indeholde flere dele af indholdet. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er håndhævet. Vi har også udelukket tilbagetrukne indsendelser til NCMEC fra dette nummer.

Selvskade og selvmordsindhold

Vi går meget op i Snapchatters mentale sundhed og velbefindende, hvilket fortsat er afgørende for vores beslutninger om at opbygge Snapchat på en anderledes måde. Som en platform, der er designet til kommunikation mellem og iblandt rigtige venner, mener vi, at Snapchat kan spille en unik rolle ved at give venner mulighed for at hjælpe hinanden gennem svære tider.

Når vores Trust & Safety team bliver opmærksom på en Snapchatter i nød, kan de sende forebyggelsesforanstaltninger mod selvskade samt support-ressourcer og underrette beredskabspersonale, når det er hensigtsmæssigt. De ressourcer, vi deler, er tilgængelige på vores globale liste over sikkerhedsressourcer, og de er offentligt tilgængelige for alle Snapchattere.

Klager

I vores tidligere rapport introducerede vi statistik over klager, hvor vi fremhævede antallet af gange, brugerne bad os om at genoverveje vores første moderationsbeslutning mod deres konto. I denne rapport har vi udvidet vores indsigelser for at fange hele spektret af kategorier i vores politik for overtrædelser på kontoniveau.

* Ophør af spredningen af indhold eller aktivitet relateret til seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE og der er et begrænset team af medarbejdere, der håndterer disse anmeldelser på grund af indholdets voldsomme karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser, og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at Snaps næste gennemsigtighedsrapport vil afsløre fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.

Oversigt over regioner og lande

Dette afsnit giver et overblik over vores tillids- og sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet, både proaktivt og som reaktion på anmeldelser af overtrædelser i appen, i en stikprøve for geografiske regioner. Vores Retningslinjer for fællesskabet gælder for alt indhold på Snapchat – og alle Snapchattere – i hele verden, uanset sted.

Oplysninger om individuelle lande, herunder alle EU-medlemsstater, er tilgængelige til download via den vedhæftede CSV-fil.

Oversigt over vores tillids- og sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet 

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for brugere. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I andet halvår 2023 opdagede og reagerede vi proaktivt på 59% af de samlede anmeldelser af krænkelser og mishandling af børn. Dette afspejler et samlet fald på 39% fra den foregående periode på grund af forbedringer i Snapchatteres muligheder for rapportering, hvilket øger vores synlighed for potentiel CSEA, der er sendt på Snapchat. 

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for brugere. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I andet halvår 2023 opdagede og reagerede vi proaktivt på 59% af de samlede anmeldelser af krænkelser og mishandling af børn. Dette afspejler et samlet fald på 39% fra den foregående periode på grund af forbedringer i Snapchatteres muligheder for rapportering, hvilket øger vores synlighed for potentiel CSEA, der er sendt på Snapchat. 

Moderation af annoncer

Snap er forpligtet til at sikre, at alle annoncer er fuldt ud i overensstemmelse med vores Annoncepolitik. Vi tror på en ansvarlig og respektfuld tilgang til annoncering, der skaber en sikker og fornøjelig oplevelse for alle vores brugere. Nedenfor har vi inkluderet en indsigt i vores moderation for betalte reklamer på Snapchat. Bemærk, at annoncer på Snapchat kan fjernes af en række årsager som beskrevet i Snaps Annoncepolitik, herunder vildledende indhold, voksenindhold, voldeligt eller foruroligende indhold, hadetale og krænkelse af intellektuel ejendom Derudover kan du nu finde Snapchats Annoncegalleri i navigationslinjen i denne gennemsigtighedsrapport.

Anmodninger om fjernelse af statslig og intellektuel ejendom

Om gennemsigtighedsrapportering

Ordliste til gennemsigtighedsrapporten