Snap Values
Den Europæiske Union
1. juli 2023 – 31. december 2023

Udgivet:

25. april 2024

Opdateret:

29. august 2024

Velkommen til vores side om gennemsigtighed i Den Europæiske Union (EU), hvor vi offentliggør EU-specifikke oplysninger, der kræves i henhold til loven om digitale tjenester (DSA), direktivet om audiovisuelle medietjenester (AVMSD), den hollandske medielov (DMA) og forordningen om håndtering af udbredelsen af terrorrelateret indhold online (TCO). Bemærk venligst, at den mest opdaterede version af disse gennemsigtighedsrapporter kan findes i sproglokaliteten en-US.

Juridisk repræsentant 

Snap Group Limited har udnævnt Snap B.V. som sin juridiske repræsentant i forbindelse med gøremål relateret til DSA. Du kan kontakte repræsentanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AVMSD og DMA, på tco-enquiries [at] snapchat.com for TCO, via vores supportside [her], eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holland

Hvis du er et retshåndhævende agentur, følg venligst de trin, der står beskrevet her.

Kommuniker venligst på engelsk eller hollandsk, når du kontakter os.

Tilsynsmyndigheder

For DSA, reguleres vi af Europa-Kommissionen og den hollandske myndighed for forbrugere og markeder (ACM). For AVMSD og DMA er vi reguleret af den hollandske mediemyndighed (CvdM). For TCO, reguleres vi af den hollandske myndighed for forebyggelse af online terrorrelateret indhold og materialer med seksuelt misbrug af børn (ATKM).

DSA gennemsigtighedsrapport

Snap skal i henhold til artikel 15, 24 og 42 i DSA offentliggøre rapporter, der indeholder foreskrevne oplysninger om Snaps indholdsmoderering for de af Snapchats tjenester, der betragtes som "online platforme", dvs. Spotlight, Historier, Offentlige profiler, Snapkortet, Linser og annoncering. Denne rapport skal offentliggøres hver 6. måned fra den 25. oktober 2023.

Snap offentliggør gennemsigtighedsrapporter to gange om året for at give indsigt i Snaps sikkerhedsindsatser, og typen og omfanget af det indhold, der bliver rapporteret på vores platform. Vores seneste rapport for H2 2023 (1. juli - 31. december) kan findes her (med opdateringer til vores tal for gennemsnitlige aktive modtagere pr. måned, pr. 1. august 2024 - se bunden af denne side). Statistikker, der er relevante for loven om digitale tjenester kan findes på denne side.

Gennemsnitlige aktive modtagere pr. måned 
(DSA paragraf 24.2 og 42.3)

Pr. 31. december 2023 har vi 90,9 millioner gennemsnitlige aktive modtagere pr. måned ("AMAR") af vores Snapchat-app i EU. Det betyder, at 90,9 millioner registrerede brugere i EU i gennemsnit, over de sidste 6 måneder, har åbnet Snapchat-appen mindst én gang i løbet af en given måned.

Dette tal kan opdeles efter medlemsstat som følger:

Disse tal blev beregnet for at opfylde de nuværende DSA-regler og bør kun benyttes i sammenhæng med DSA-formål. Vi har ændret, hvordan vi beregner dette tal med tiden, herunder som reaktion på ændringer af intern politik, vejledning og teknologi fra tilsynsmyndigheden, og tallene er ikke beregnet til at blive sammenlignet mellem perioder. Dette kan også afvige fra de beregninger, der anvendes for andre tal vedrørende aktive brugere, som vi offentliggør til andre formål.


Anmodning om fuldmagt fra medlemsstaterne
(DSA paragraf 15.1, litra (a))

Anmodninger om fjernelse 

I denne periode har vi modtaget 0 anmodninger om fjernelse fra EU-medlemsstater i henhold til DSA paragraf 9. 

Anmodninger om information 

I denne periode har vi modtaget følgende informationsanmodninger fra EU-medlemslande:

Den gennemsnitlige behandlingstid til at informere myndighederne om modtagelsen af anmodninger om oplysninger er 0 minutter — vi giver et automatiseret svar, der bekræfter modtagelsen. Den gennemsnitlige behandlingstid til at gennemføre anmodninger om oplysninger er ~10 dage. Denne måling afspejler tidsperioden fra Snap modtager en IA til, når Snap mener, at anmodningen er helt løst. I nogle tilfælde afhænger længden på denne proces delvist af, hvor hurtigt håndhævende myndigheder reagerer på alle anmodninger om afklaring fra Snap, der er nødvendigt for at behandle deres anmodning.

Indholdsmoderation 


Alt indhold på Snapchat skal overholde vores Retningslinjer for brugerne og Servicevilkår, samt understøttende vilkår, retningslinjer og forklarende guides. Proaktive detektionsmekanismer og rapporter om ulovligt eller krænkende indhold, eller konti, giver anledning til en gennemgang, på hvilket tidspunkt, vores værktøjssystemer behandler anmodningen, indsamler relevante metadata, og dirigerer det relevante indhold til vores moderationsteam via en struktureret brugergrænseflade, der er designet til at facilitere hurtige og effektive gennemgangsindsatser. Når vores moderationsteams beslutter, enten via menneskelig gennemgang eller automatiserede midler, at en bruger har overtrådt vores vilkår, kan vi fjerne det krænkende indhold eller kontoen, opsige eller begrænse synligheden af den pågældende konto, og/eller underrette retshåndhævende myndigheder, som beskrevet i vores Snapchat guide til moderation, håndhævelse og klagesager.  Brugere, hvis konti er blevet låst af vores sikkerhedsteam for overtrædelser af vores Retningslinjer for brugerne, kan indsende en appel for låst konto, og brugere kan appellere visse håndhævelser af indhold.

Indholds- og kontomeddelelser (DSA paragraf 15, stk. 1, litra b)

Snap har indført mekanismer, der giver brugere og ikke-brugere mulighed for at give Snap besked om indhold og konti, der overtræder vores Retningslinjer for brugerne og Servicevilkår på platformen, herunder dem, de anser for ulovlige i henhold til DSA paragraf 16.  Disse rapporteringsmekanismer er tilgængelige i selve appen (dvs. direkte fra indholdet) og på vores hjemmeside.

I den relevante periode modtog vi følgende indholds- og kontomeddelelser i EU:

I H2’23 håndterede vi 664.896 meddelelser udelukkende med automatiserede midler. Alle disse blev håndhævet mod Retningslinjer for brugerne, fordi vores Retningsmidler for brugere sammenfatter ulovligt indhold. 

Ud over brugergenereret indhold og konti modererer vi reklamer, hvis de overtræder vores platforms politikker. Nedenfor er antallet af annoncer i alt, der blev rapporteret og fjernet i EU. 

Bekendtgørelser om Betroede anmeldere (paragraf 15, stk. 1, litra b)

I perioden med vores senere gennemsigtighedsrapport (H2 2023) blev der ikke formelt udpeget Betroede anmeldere i henhold til DSA. Som et resultat heraf var antallet af meddelelser indsendt af sådanne Betroede anmeldere nul (0) i denne periode.

Proaktiv indholdsmoderation (paragraf 15, stk. 1, litra c)

I den relevante periode håndhævede Snap følgende indhold og konti i EU efter at have foretaget indholdsmoderation på eget initiativ:

Alle Snaps moderationsindsatser på eget initiativ, der benytter mennesker eller automatisering. På vores offentlige indholdsflader gennemgår indhold generelt både auto-moderation og menneskelig gennemgang, før det er berettiget til at blive distribueret til et bredt publikum. Med hensyn til automatiserede værktøjer, omfatter disse:

  • Proaktiv detektion af ulovligt og krænkende indhold ved hjælp af maskinlæring;

  • Værktøjer til hash-matching (såsom PhotoDNA og Googles CSAI Match);

  • Detektion af krænkende sprogbrug, bruges til at afvise indhold baseret på en identificeret og regelmæssigt opdateret liste over bestemte krænkende begreber og udtryk, herunder emojis


Indsigelser (paragraf 15.1, litra (d))

I den relevante periode behandlede Snap følgende indholds- og kontoindsigelser i EU via sine interne klagebehandlingssystemer:


* Stop for seksuel udnyttelse af børn er en af de vigtigste prioriteter. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE-anmeldelser, og der er et begrænset team af medarbejdere der håndterer disse anmeldelser på grund af indholdets grafiske karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at den næste gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af indledende håndhævelser. 

Automatiserede midler til indholdsmoderation (artikel 15, stk. 1, litra e)

På vores offentlige indholdsflader gennemgår indhold generelt både auto-moderation og menneskelig gennemgang, før det er berettiget til at blive distribueret til et bredt publikum. Med hensyn til automatiserede værktøjer, omfatter disse:

  • Proaktiv detektion af ulovligt og krænkende indhold ved hjælp af maskinlæring;

  • Hash-matchnings-værktøjer (som PhotoDNA og Googles CSAI Match);

  • Detektion af krænkende sprogbrug, bruges til at afvise indhold baseret på en identificeret og regelmæssigt opdateret liste over bestemte krænkende begreber og udtryk, herunder emojis.


Præcisionen af automatiske modereringsteknologier for alle overtrædelser var ca. 96,61 % og fejlraten var ca. 3,39 %.


Forholdsregler for indholdsmoderering (Artiklel 15, stk. 1, litra e)

Vi erkender, at der er risici forbundet med indholdsmoderation, herunder risici for ytrings- og forsamlingsfriheden, der kan være forårsaget af partiskhed, både automatiserede og menneskelige, samt misbrug af anmeldelser, for eksempel fra regeringer, politiske grupperinger eller velorganiserede individer. Snapchat er generelt ikke et sted for politisk eller aktivistisk indhold, især i vores offentlige rum. 


For at beskytte mod disse risici har Snap dog test og oplæring på plads og har robuste, konsekvente procedurer for håndtering af rapporter om ulovligt eller krænkende indhold, herunder fra retshåndhævende og offentlige myndigheder. Vi evaluerer og udvikler vores indholdsmoderations-algoritmer kontinuerligt. Mens potentielle skader på ytringsfriheden er vanskelige at opdage, kender vi ikke til nogen væsentlige problemer, og vi giver vores brugere mulighed for at rapportere fejl, hvis de opstår. 


Vores politikker og systemer fremmer konsekvent og retfærdig håndhævelse og, som beskrevet ovenfor, giver Snapchattere en mulighed for meningsfuldt at bestride håndhævelsesresultater gennem notits- og klagesager, der har til formål at beskytte vores fællesskabs interesser og samtidig beskytte individuelle Snapchatteres rettigheder.

Vi stræber løbende efter at forbedre vores håndhævelsespolitikker og -processer og har gjort store fremskridt i bekæmpelsen af potentielt skadeligt og ulovligt indhold og aktiviteter på Snapchat Dette afspejles i en opadgående tendens i vores rapporterings- og håndhævelsestal, der vises i vores seneste Gennemsigtighedsrapport og faldende udbredelsesrater for overtrædelser på Snapchat generelt.


Afgørelser uden for Domstolen (Artikel 24.1(a))

I perioden for vores seneste Gennemsigtighedsrapport (H2 2023), var der ingen formelle uden-for-domstolen organer til at afgøre tvister i henhold til DSA. Som et resultat heraf var antallet af tvister, der blev indsendt til sådanne organer, nul (0) i denne periode, og vi er ikke i stand til at give resultater, gennemsnitlig sagsbehandlingstid for aftaler og andelen af tvister, hvor vi gennemførte beslutninger fra organet. 



Ophævelse af konti (Artikel 24, stk. 1, litra b)

I andet halvår 2023, havde vi ikke ophævelser af konti i henhold til artikel 23. Snaps Trust & Safety-team har procedurer for at begrænse muligheden for brugerkonti, der ofte indsender meddelelser eller klager, der er åbenbart ubegrundet. Disse procedurer omfatter begrænsning af dobbelt oprettelse af rapporter og brugen af email-filtre for at forhindre brugere, der ofte har indsendt åbenbart ubegrundede rapporter i at fortsætte med at gøre det. Snap foretager passende håndhævelseshandlinger mod konti, som forklaret i voresSnapchat modererings- håndhævelses- og klage-guide og oplysninger om omfanget af Snaps håndhævelse af konti kan findes i vores Gennemsigtighedsrapport (2. halvår 2023). Sådanne foranstaltninger vil fortsætte med at blive gennemgået og udviklet.


Moderator-ressourcer, ekspertise og support (Artikel 42.2)

Vores indholdsmoderationsteam opererer over hele kloden, så vi kan hjælpe med at holde Snapchattere sikre døgnet rundt. Nedenfor finder du fordelingen af vores ressourcer for menneskelig moderering efter sprog hos moderatorer (bemærk at nogle moderatorer har specialiseret sig i flere sprog) pr. 31. december 2023:

Ovenstående tabel omfatter alle moderatorer, der understøtter EU-medlemslandenes sprog pr. 31. december 2023. I situationer, hvor vi har brug for yderligere sprogsupport, bruger vi oversættelsestjenester.

Moderatorer rekrutteres ved hjælp af en standardjobbeskrivelse, der inkluderer et sprogkrav (afhængigt af behovet). Sprogkravet fastsætter, at ansøgeren skal kunne påvise sproglige evner i sproget i tale og på skrift og have mindst et års erhvervserfaring med stillinger på begynderniveau. Kandidater skal opfylde kravene til uddannelse og baggrund for at komme i betragtning. Ansøgere skal også påvise en forståelse af aktuelle begivenheder for det land eller det område inden for indholdsmoderation, de vil yde support til.

Vores moderationsteam anvender vores politikker og håndhævelsesforanstaltninger for at hjælpe med at beskytte Snapchat fællesskabet. Træning foregår over en periode på flere uger, hvor nye teammedlemmer uddannes i Snaps politikker, værktøjer og eskaleringsprocedurer. Efter træningen skal hver moderator bestå en certificeringsprøve, før de får tilladelse til at gennemgå indhold. Vores moderationsteam deltager regelmæssigt i genopfriskningskurser af relevans for deres arbejdsgange, især når vi støder på sager, der er på grænsen til at bryde politikker eller er afhængige af kontekst. Vi kører også opkvalificeringsprogrammer, certificationssessioner og quizzer for at sikre, at alle moderatorer er ajourførte og i overensstemmelse med alle opdaterede politikker. Og til sidst, når presserende indholdstrends dukker op baseret på aktuelle begivenheder, formidler vi hurtigt afklaringer af politikken, så teams kan reagere i overensstemmelse med Snaps politikker.

Vi bidrager med vores indholdsmoderationsteam – Snaps "digitale førstehjælpere" – med betydelig support og ressourcer som f.eks. support til velvære på jobbet og nem adgang til mentale sundhedstjenester. 

Mediescanningsrapport for seksuel udnyttelse og misbrug af børn (CSEA)


Baggrund

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af CSEA (Child Sexual Exploitation and Abuse) på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.


Vi bruger PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere hhv. kendte ulovlige billeder og videoer af seksuelt misbrug af børn og rapportere dem til U.S. National Center for Missing and Exploited Children (NCMEC), som loven kræver det. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.


Rapport

Nedenstående data er baseret på resultatet af proaktiv scanning ved hjælp af PhotoDNA og/eller CSAI Match af medier, der er uploadet fra en brugers kamerarulle til Snapchat.

At stoppe seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE-anmeldelser, og der er et begrænset team af medarbejdere der håndterer disse anmeldelser på grund af indholdets grafiske karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at den gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.  

Sikkerhedsforanstaltninger for indholdsmoderering

De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i ovenstående afsnit "Sikkerhedsforanstaltninger for indholdsmoderation" under vores DSA-rapport.


Den Europæiske Unions gennemsigtighedsrapport i terrorindhold på nettet

Udgivet: 17. juni 2024

Sidst opdateret: 17. juni 2024

Denne gennemsigtighedsrapport offentliggøres i overensstemmelse med artikel 7, stk. 2 og 3, i Europa-Parlamentets og Rådets forordning 2021/784 om udbredelse af terrorrelateret onlineindhold (forordningen). Den dækker rapporteringsperioden 1. januar - 31. december 2023


Generelle oplysninger
  • Artikel 7, stk. 3, litra a): oplysninger om hostingtjenesteyderens foranstaltninger i forbindelse med identifikation og fjernelse af eller deaktivering af adgang til terrorindhold

  • Artikel 7, stk. 3, litra b): oplysninger om hostingtjenesteyderens foranstaltninger til at imødegå, at materiale, der tidligere er blevet fjernet, eller hvortil adgangen er blevet deaktiveret, fordi det blev anset for at være terrorindhold, dukker op igen online, navnlig hvis der er anvendt automatiserede værktøjer


Det er forbudt for terrorister, terrororganisationer og voldelige ekstremister at bruge Snapchat. Indhold, der opfordrer til, promoverer, forherliger eller fremmer terrorisme eller andre voldelige, kriminelle handlinger, er forbudt i henhold til vores retningslinjer for brugerne. Brugere kan rapportere indhold, der overtræder vores retningslinjer for brugerne, via vores rapporteringsmenu i appen og vores supportside. Vi bruger også proaktiv detektion til at forsøge at identificere krænkende indhold på offentlige overflader som ​​Spotlight og Udforsk. 


Uanset hvordan vi bliver opmærksomme på krænkende indhold, gennemgår vores Trust & Safety-teams gennem en kombination af automatisering og menneskelig moderation straks identificeret indhold og træffer beslutninger om håndhævelse. Håndhævelse kan omfatte fjernelse af indholdet, advarsel eller låsning af den krænkende konto og, hvis det er berettiget, indberetning af kontoen til politiet. For at forhindre, at terroristisk eller andet voldeligt ekstremistisk indhold dukker op igen på Snapchat, tager vi, ud over at samarbejde med politiet, skridt til at blokere den enhed, der er forbundet med den krænkende konto, og forhindre brugeren i at oprette en anden Snapchat-konto. 


Yderligere detaljer om vores foranstaltninger til at identificere og fjerne terrorindhold kan findes i vores Explainer om hadefuldt indhold, terrorisme og voldelig ekstremisme og vores Explainer om moderation, håndhævelse og appeller



Rapporter og håndhævelse 
  • Artikel 7, stk. 3, litra c): antallet af elementer af terrorindhold, der er fjernet, eller hvortil adgangen er blevet deaktiveret efter påbud om fjernelse eller særlige foranstaltninger, og antallet af påbud om fjernelse, hvor indholdet ikke er blevet fjernet, eller hvortil adgangen ikke er blevet deaktiveret i henhold til artikel 3, stk. 7, første afsnit, og artikel 3, stk. 8, første afsnit, sammen med begrundelserne herfor


I løbet af rapporteringsperioden modtog Snap ingen udsendelsesordrer, og vi var heller ikke forpligtet til at gennemføre nogen specifikke foranstaltninger i henhold til artikel 5 i forordningen. Derfor var vi ikke forpligtet til at træffe håndhævelsesforanstaltninger i henhold til forordningen.


Følgende tabel beskriver håndhævelsesforanstaltninger, der er truffet på baggrund af brugerrapporter og proaktiv opdagelse af indhold og konti, både i EU og andre steder i verden, der overtrådte vores retningslinjer for brugerne vedrørende indhold om terrorisme og voldelig ekstremisme

Appeller om håndhævelse
  • Artikel 7, stk. 3, litra d): antallet og resultatet af klager, der er behandlet af hostingtjenesteyderen i overensstemmelse med artikel 10

  • Artikel 7, stk. 3, litra g): antallet af tilfælde, hvor hostingtjenesteyderen har genindsat indhold eller adgang hertil efter en klage fra indholdsleverandøren


Da vi ikke havde nogen håndhævelsesforanstaltninger i henhold til forordningen i rapporteringsperioden som nævnt ovenfor, behandlede vi ingen klager i henhold til artikel 10 i forordningen og havde ingen tilknyttede genindsættelser.


Følgende tabel indeholder oplysninger om appeller og genindsættelser, både i EU og andre steder i verden, der involverer terroristisk og voldeligt ekstremistisk indhold, som håndhæves i henhold til vores retningslinjer for brugerne.

At stoppe seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE og der er et begrænset team af medarbejdere, der håndterer disse anmeldelser på grund af indholdet af dets grafiske karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at den gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.  

Sikkerhedsforanstaltninger for indholdsmoderation

De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i ovenstående afsnit “Sikkerhedsforanstaltninger for indholdsmoderation” under vores DSA-rapport.


EU DSA: Gennemsnitlige aktive modtagere pr. måned (august 2024)
(DSA paragraf 24.2 og 42.3)

Pr. 1. august 2024 har vi 92,4 millioner gennemsnitlige aktive modtagere pr. måned (“AMAR”) af vores Snapchat-app i EU. Det betyder, at 92,4 millioner registrerede brugere i EU i gennemsnit, over de sidste 6 måneder, har åbnet Snapchat-appen mindst én gang i løbet af en given måned.

Dette tal kan opdeles efter medlemsstat som følger: