Gennemsigtighedsrapport
1. januar 2022 - 30. juni 2022

Udgivet:

29. november 2022

Opdateret:

29. november 2022

For at give indsigt i Snap's sikkerhedsindsats og i arten og mængden af indhold, der rapporteres på vores platform, offentliggør vi to gange om året gennemsigtighedsrapporter. Vi er forpligtet til fortsat at gøre disse rapporter mere omfattende og informative for de mange interessenter, der lægger stor vægt på vores praksis for indholdsmoderation og retshåndhævelse samt på vores fællesskab. 

Denne rapport dækker første halvår af 2022 (1. januar - 30. juni). Som i vores tidligere rapporter, deler vi data om det globale antal rapporter om indhold i apps og på kontoniveau, som vi har modtaget og håndhævet på tværs af specifikke kategorier af overtrædelser; hvordan vi har reageret på anmodninger fra retshåndhævende myndigheder og regeringer, og vores håndhævelsesforanstaltninger fordelt på lande. Den indeholder også nylige tilføjelser til denne rapport, herunder Violative View Review (VVR) for Snapchat-indhold, potentielle varemærkeovertrædelser, og tilfælde af falske oplysninger på platformen.

Som led i vores løbende bestræbelser på at forbedre vores gennemsigtighedsrapporter, introducerer vi flere nye elementer i denne rapport. I denne udgave og fremover vil vi tilføje en ordliste over de termer, der anvendes i rapporten. Vores mål er at skabe større gennemsigtighed omkring sådanne vilkår ved klart at angive, hvilke former for krænkende indhold der er omfattet af og håndhæves under hver kategori. For første gang indfører vi også falske oplysninger som en selvstændig kategori på landeniveau, hvilket bygger på vores tidligere praksis med at indberette falske oplysninger globalt. 

Derudover giver vi øget indsigt i vores indsats for at bekæmpe billeder af seksuel udnyttelse og seksuelt misbrug af børn (CSEAI). Fremover vil vi dele indsigt i det samlede CSEAI-indhold, som vi har håndhævet ved at fjerne, samt det samlede antal CSEAI-rapporter* (dvs. "CyberTips"), som vi har foretaget til det amerikanske National Center for Missing and Exploited Children (NCMEC). 

Læs vores seneste Sikkerheds- og konsekvensblog om denne gennemsigtighedsrapport for yderligere oplysninger om vores politikker for bekæmpelse af online skader og vores planer om fortsat at udvikle vores rapporteringspraksisser. 

Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.

Oversigt over indhold- og kontoovertrædelser

Fra 1. januar til 30. juni 2022 håndhævede vi 5.688.970 stykker indhold globalt, som overtrådte vores politikker. Håndhævelsestiltag omfatter fjernelse af det krænkende indhold eller sletning af den pågældende konto.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,04 procent, hvilket betyder, at ud af hver 10.000 Snap- og Story-visninger på Snapchat indeholdt 4 indhold, der overtrådte vores politikker. 

Udvidede overtrædelser

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af billeder af seksuel udnyttelse og seksuelt misbrug af børn (CSEAI) på vores platform er en topprioritet for os, og vi udvikler løbende vores muligheder for at bekæmpe disse og andre typer af forbrydelser.

Vores tillids- og sikkerhedsteam benytter redskaber med aktiv teknologi-detektion, såsom PhotoDNA, robust hash-matchning og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af CSAM og rapporterer dem til U.S. National Center for Missing and Exploited Children (NCMEC), som påkrævet ved lov. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.

I første halvår af 2022 opdagede vi proaktivt 94 procent af de samlede overtrædelser af seksuel udnyttelse og seksuelt misbrug af børn, der er rapporteret her — en stigning på 6 procent siden vores tidligere rapport.

*Bemærk, at hver indsendelse til NCMEC kan indeholde flere dele af indholdet. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er påtvunget.

Terroristisk og voldeligt ekstremistisk indhold

I rapporteringsperioden fjernede vi 73 konti for overtrædelse af vores politik om forbud mod terroristisk og voldeligt ekstremistisk indhold.

Hos Snap fjerner vi indhold med terrorisme og voldelig ekstremisme, der er blevet rapporteret via flere kanaler. Vi opfordrer bl.a. brugerne til at indberette terroristisk og voldeligt ekstremistisk indhold via vores menu til indberetning i appen, og vi arbejder tæt sammen med de retshåndhævende myndigheder om at bekæmpe terroristisk og voldeligt ekstremistisk indhold, der kan forekomme på Snap.

Selvskade og selvmordsindhold

Vi går meget op i Snapchatters mentale sundhed og velbefindende, hvilket har været - og fortsat er — afgørende for vores beslutninger om at opbygge Snapchat anderledes. Som en platform, der er designet til kommunikation mellem rigtige venner, mener vi, at Snapchat kan spille en unik rolle i at give venner mulighed for at hjælpe hinanden gennem svære øjeblikke.

Når vores Trust & Safety-team opdager en Snapchatter i nød, kan de sende ressourcer til forebyggelse af selvskade og støtte og eventuelt underrette beredskabspersonalet. De ressourcer vi deler er tilgængelige på vores globale liste over sikkerhedsressourcer, og disse er offentligt tilgængelige for alle Snapchattere.

Landeoversigt

Dette afsnit giver et overblik over håndhævelsen af vores Retningslinjer for brugere for et udvalg af geografiske regioner. Vores Retningslinjer gælder for alt indhold på Snapchat – og alle Snapchattere – i hele verden, uanset sted.

Oplysninger om de enkelte lande kan downloades via den vedhæftede CSV-fil:

Anmodninger om fjernelse af statslig og intellektuel ejendom

Om gennemsigtighedsrapportering

Ordliste til gennemsigtighedsrapporten