Den Europæiske Union
1. juli 2023 – 31. december 2023

Udgivet:

25. april 2024

Opdateret:

25. april 2024

Velkommen til vores side om gennemsigtighed i Den Europæiske Union (EU), hvor vi offentliggør EU-specifikke oplysninger, der kræves i henhold til loven om digitale tjenester (DSA), direktivet om audiovisuelle medietjenester (AVMSD) og den hollandske medielov (DMA). Bemærk venligst, at den mest opdaterede version af disse gennemsigtighedsrapporter kan findes i sproglokalieten en-US.

Juridisk repræsentant 

Snap Group Limited har udnævnt Snap B.V. som sin juridiske repræsentant i forbindelse med gøremål relateret til DSA. Du kan kontakte repræsentanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AVMSD og DMA, via vores supportside [her] eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holland

Hvis du er et retshåndhævende agentur, følg venligst de trin, der står beskrevet her.

Tilsynsmyndigheder

For DSA reguleres vi af Europa-Kommissionen og den hollandske myndighed for forbrugere og markeder (ACM). For AVMSD og DMA er vi reguleret af den hollandske mediemyndighed (CvdM)

DSA gennemsigtighedsrapport

Snap skal i henhold til artikel 15, 24 og 42 i DSA offentliggøre rapporter, der indeholder ordinerede oplysninger om Snaps indholdsmoderering for de af Snapchats tjenester, der betragtes som "online platforme", dvs. Spotlight, For You, Offentlige profiler, kort, Linser og annoncering. Denne rapport skal offentliggøres hver 6. måned fra den 25. oktober 2023.

Snap offentliggør gennemsigtighedsrapporter to gange om året for at give indsigt i Snaps sikkerhedsindsatser, og typen og omfanget af det indhold, der bliver rapporteret på vores platform. Vores seneste rapport for H2 2023 (1. juli til 31. december) kan findes her. Statistik relevant for loven om digitale tjenester kan findes på denne side.

Gennemsnitlige aktive modtagere pr. måned 
(DSA paragraf 24.2 og 42.3)

Fra 31. december 2023 har vi 90,9 millioner gennemsnitlig aktive månedlige modtagere ("AMAR") af vores Snapchat-app i EU. Det betyder, at 90,9 millioner registrerede brugere i EU i gennemsnit over de sidste 6 måneder har åbnet Snapchat-appen mindst én gang i løbet af en given måned.

Dette tal kan opdeles efter medlemsstat som følger:

Disse tal blev beregnet for at opfylde de nuværende DSA-regler og bør kun benyttes i sammenhæng med DSA-formål. Vi har ændret, hvordan vi beregner dette tal med tiden, herunder som reaktion på ændringer af intern politik, vejledning og teknologi fra tilsynsmyndigheden, og tallene er ikke beregnet til at blive sammenlignet med perioder. Dette kan også afvige fra de beregninger, der anvendes for andre tal vedrørende aktive brugere, som vi offentliggør til andre formål.


Anmodning om fuldmagt fra medlemsstaterne
(DSA paragraf 15.1, litra (a))

Anmodninger om fjernelse 

I denne periode har vi modtaget 0 anmodninger om fjernelse fra EU-medlemsstater i henhold til DSA paragraf 9. 

Anmodninger om information 

I denne periode har vi modtaget følgende anmodninger om oplysninger fra EU-medlemsstater i henhold til DSA paragraf 10:

Den gennemsnitlige behandlingstid til at informere myndighederne om modtagelsen af anmodninger om oplysninger er 0 minutter — vi giver et automatiseret svar, der bekræfter modtagelsen. Den gennemsnitlige behandlingstid til at gennemføre anmodninger om oplysninger er ~10 dage. Denne måling afspejler tidsperioden fra Snap modtager en IA til, når Snap mener, at anmodningen er helt løst. I nogle tilfælde afhænger længden på denne proces delvist af, hvor hurtigt håndhævende myndigheder reagerer på alle anmodninger om afklaring fra Snap, der er nødvendigt for at behandle deres anmodning.

Indholdsmoderation 


Alt indhold på Snapchat skal overholde vores Retningslinjer for brugerne og Servicevilkår, samt understøttende vilkår, retningslinjer og forklarende guides. Proaktive detektionsmekanismer og rapporter om ulovligt eller krænkende indhold, eller konti, giver anledning til en gennemgang, på hvilket tidspunkt, vores værktøjssystemer behandler anmodningen, indsamler relevante metadata, og dirigerer det relevante indhold til vores moderationsteam via en struktureret brugergrænseflade, der er designet til at facilitere hurtige og effektive gennemgangsindsatser. Når vores moderationsteams beslutter, enten via menneskelig gennemgang eller automatiserede midler, at en bruger har overtrådt vores vilkår, kan vi fjerne det krænkende indhold eller kontoen, opsige eller begrænse synligheden af den pågældende konto, og/eller underrette retshåndhævende myndigheder, som beskrevet i vores Snapchat guide til moderation, håndhævelse og klagesager.  Brugere, hvis konti er blevet låst af vores sikkerhedsteam for overtrædelser af vores Retningslinjer for brugerne, kan indsende en appel for låst konto, og brugere kan appellere visse håndhævelser af indhold.

Indholds- og kontomeddelelser (DSA paragraf 15, stk. 1, litra b)

Snap har indført mekanismer, der giver brugere og ikke-brugere mulighed for at give Snap besked om indhold og konti, der overtræder vores Retningslinjer for brugerne og Servicevilkår på platformen, herunder dem, de anser for ulovlige i henhold til DSA paragraf 16.  Disse rapporteringsmekanismer er tilgængelige i selve appen (dvs. direkte fra indholdet) og på vores hjemmeside.

I den relevante periode modtog vi følgende indholds- og kontomeddelelser i EU:

I H2’23 håndterede vi 664.896 meddelelser udelukkende med automatiserede midler. Alle disse blev håndhævet mod Retningslinjer for brugerne, fordi vores Retningsmidler for brugere sammenfatter ulovligt indhold. 

Ud over brugergenereret indhold og konti modererer vi reklamer, hvis de overtræder vores platforms politikker. Nedenfor er antallet af annoncer i alt, der blev rapporteret og fjernet i EU. 

Bekendtgørelser om Betroede anmeldere (paragraf 15, stk. 1, litra b)

I perioden med vores senere gennemsigtighedsrapport (H2 2023) blev der ikke formelt udpeget Betroede anmeldere i henhold til DSA. Som et resultat heraf var antallet af meddelelser indsendt af sådanne Betroede anmeldere nul (0) i denne periode.

Proaktiv indholdsmoderation (paragraf 15, stk. 1, litra c)

I den relevante periode håndhævede Snap følgende indhold og konti i EU efter at have foretaget indholdsmoderation på eget initiativ:

Alle Snaps moderationsindsatser på eget initiativ, der benytter mennesker eller automatisering. På vores offentlige indholdsflader gennemgår indhold generelt både auto-moderation og menneskelig gennemgang, før det er berettiget til at blive distribueret til et bredt publikum. Med hensyn til automatiserede værktøjer, omfatter disse:

  • Proaktiv detektion af ulovligt og krænkende indhold ved hjælp af maskinindlæring;

  • Værktøjer til hash-matching (såsom PhotoDNA og Googles CSAI Match);

  • Detektion af krænkende sprogbrug, bruges til at afvise indhold baseret på en identificeret og regelmæssigt opdateret liste over bestemte krænkende begreber og udtryk, herunder emojis


Indsigelser (paragraf 15.1, litra (d))

I den relevante periode behandlede Snap følgende indholds- og kontoindsigelser i EU via sine interne klagebehandlingssystemer:


* Ophævelse af seksuel udnyttelse af børn er en af de vigtigste prioriteter. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE og der er et begrænset team af medarbejdere, der håndterer disse anmeldelser på grund af indholdet af dets grafiske karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at den gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser. 

Automatiserede midler til moderation af indhold (Artikel 15.1(d))

På vores offentlige indholdsflader gennemgår indhold generelt både auto-moderation og menneskelig gennemgang, før det er berettiget til at blive distribueret til et bredt publikum. Med hensyn til automatiserede værktøjer, omfatter disse:

  • Proaktiv detektion af ulovligt og krænkende indhold ved hjælp af maskinindlæring;

  • Hash-matchnings-værktøjer (som PhotoDNA og Googles CSAI Match);

  • Detektion af krænkende sprogbrug, bruges til at afvise indhold baseret på en identificeret og regelmæssigt opdateret liste over bestemte krænkende begreber og udtryk, herunder emojis.


Præcisionen automatiske modereringsteknologier for alle overtrædelser var ca. 96,61 % og fejlraten var ca. 3,39 %.


Forholdsregler for indholdsmoderering (Artikler 15.1(d))

Vi erkender, at der er risici forbundet med indholdsmoderation, herunder risici mod ytrings- og forsamlingsfriheden, der kan være forårsaget af partiskhed, både automatiserede og menneskelige, samt rapporter, for eksempel fra regeringer, politiske grupperinger eller velorganiserede individer. Snapchat er generelt ikke et sted for politisk eller aktivistisk indhold, især i vores offentlige rum. 


For at beskytte mod disse risici har Snap dog test og oplæring på plads og har robuste, konsekvente procedurer for håndtering af rapporter om ulovligt eller krænkende indhold, herunder fra retshåndhævende og offentlige myndigheder. Vi evaluerer og udvikler vores indholdsmoderations-algoritmer. Mens potentielle skader på ytringsfriheden er vanskelige at opdage, kender vi ikke til nogen væsentlige problemer, og vi giver vores brugere mulighed for at rapportere fejl, hvis de opstår. 


Vores politikker og systemer fremmer konsekvent og retfærdig håndhævelse og, som beskrevet ovenfor, giver Snapchattere en mulighed for meningsfuldt at bestride håndhævelsesresultater gennem notits- og klagesager, der har til formål at beskytte vores fællesskabs interesser og samtidig beskytte individuelle Snapchatteres rettigheder.

Vi stræber løbende efter at forbedre vores håndhævelsespolitikker og -processer og har gjort store fremskridt i bekæmpelsen af potentielt skadeligt og ulovligt indhold og aktiviteter på Snapchat Dette afspejles i en opadgående tendens i vores rapporterings- og håndhævelsestal, der vises i vores seneste Gennemsigtighedsrapport og faldende udbredelsesrater for overtrædelser på Snapchat generelt.


Domstolsafgørelser (Artikel 24.1(a))

I perioden for vores seneste Gennemsigtighedsrapport (H2 2023), blev der ikke formelt udpeget Betroede anmeldere i henhold til DSA. Som et resultat heraf var antallet af tvister, der blev indsendt til sådanne organer, nul (0) i denne periode, og vi er ikke i stand til at give resultater, gennemførelse af rådgivninger for aftaler og andelen af tvister, hvor vi gennemførte beslutninger fra organet. 



Ophævelse af konti (Artikel 24.1(a))

I andet halvår 2023, havde vi ikke ophævelser af konti i henhold til artikel 23. Snaps Trust & Safety-team har procedurer for at begrænse muligheden for brugerkonti, der ofte indsender meddelelser eller klager, der er åbenbart ubegrundet. Disse procedurer omfatter begrænsning af dobbelt oprettelse af rapporter brugen af email-filtre for at forhindre brugere, der ofte har indsendt åbenbart ubegrundede rapporter i at fortsætte med at gøre det. Snap foretager passende håndhævelseshandlinger mod konti, som forklaret i voresSnapchat modererings- håndhævelses- og klage-guide og oplysninger om omfanget af Snaps håndhævelse af konti kan findes i vores Gennemsigtighedsrapport (2. halvår 2023). Sådanne foranstaltninger vil fortsætte med at blive gennemgået og gentaget.


Moderator-ressourcer, ekspertise og support (Artikel 42.2)

Vores indholdsmoderationsteam opererer over hele kloden, så vi kan hjælpe med at holde Snapchattere sikre døgnet rundt. Nedenfor finder du fordelingen af vores ressourcer for menneskelig moderering efter sprog hos moderatorer (bemærk at nogle moderatorer har specialiseret sig i flere sprog) pr. 31. december 2023:

Ovenstående tabel omfatter alle moderatorer, der understøtter EU-medlemslandenes sprog pr. 31. december 2023. I situationer, hvor vi har brug for yderligere sprogsupport, bruger vi oversættelsestjenester.

Moderatorer rekrutteres ved hjælp af en standard jobbeskrivelse, der omfatter et sprogkrav (afhængigt af behov). Sprogkravet fastsætter, at ansøgeren skal kunne påvise sproglige evner i sprog i tale og skrift og have mindst et års erhvervserfaring med stillinger på begynderniveau. Kandidater skal opfylde kravene til uddannelse og baggrund for at komme i betragtning. Ansøgere skal også påvise en forståelse af aktuelle begivenheder for det land eller det område inden for indholdsmoderation, de vil yde support til.

Vores moderationsteam anvender vores politikker og håndhævelsesforanstaltninger for at hjælpe med at beskytte Snapchat fællesskabet. Træning foregår over en periode på flere uger, hvor nye teammedlemmer uddannes i Snaps politikker, værktøjer og eskaleringsprocedurer. Efter træningen skal hver moderator bestå en certificeringsprøve, før de får tilladelse til at gennemgå indhold. Vores moderationsteam deltager regelmæssigt i genopfriskningskurser af relevans for deres arbejdsgange, især når vi støder på sager, der er på grænsen til at bryde politikker eller er afhængige af kontekst. Vi kører også opkvalificeringsprogrammer, certificationssessioner og quizzer for at sikre, at alle moderatorer er ajourførte og i overensstemmelse med alle opdaterede politikker. Og til sidst, når presserende indholdstrends dukker op baseret på aktuelle begivenheder, formidler vi hurtigt afklaringer af politikken, så teams kan reagere i overensstemmelse med Snaps politikker.

Vi bidrager med vores indholdsmoderationsteam – Snaps "digitale førstehjælpere" – med betydelig support og ressourcer som f.eks. support til velvære på jobbet og nem adgang til mentale sundhedstjenester. 

Rapport om mediescanning af seksuel udnyttelse og misbrug af børn (CSEA)


Baggrund

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.


Vi bruger PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af seksuelt misbrug af børn og rapportere dem til U.S. National Center for Missing and Exploited Children (NCMEC), som loven kræver det. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.


Rapportér

Nedenstående data er baseret på resultatet af proaktiv scanning ved hjælp af PhotoDNA og/eller CSAI Match af medier, der er uploadet fra en brugers kamerarulle til Snapchat.

At stoppe seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE og der er et begrænset team af medarbejdere, der håndterer disse anmeldelser på grund af indholdet af dets grafiske karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at den gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.  

Sikkerhedsforanstaltninger for indholdsmoderation

De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i ovenstående afsnit “Sikkerhedsforanstaltninger for indholdsmoderation” under vores DSA-rapport.


Rapport om mediescanning af seksuel udnyttelse og misbrug af børn (CSEA)


Baggrund

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.


Vi bruger PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af seksuelt misbrug af børn og rapportere dem til U.S. National Center for Missing and Exploited Children (NCMEC), som loven kræver det. NCMEC koordinerer, efter behov, med nationale eller internationale ordensmagter.


Rapportér

Nedenstående data er baseret på resultatet af proaktiv scanning ved hjælp af PhotoDNA og/eller CSAI Match af medier, der er uploadet fra en brugers kamerarulle til Snapchat.

At stoppe seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE og der er et begrænset team af medarbejdere, der håndterer disse anmeldelser på grund af indholdet af dets grafiske karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at den gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.  

Sikkerhedsforanstaltninger for indholdsmoderation

De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i ovenstående afsnit “Sikkerhedsforanstaltninger for indholdsmoderation” under vores DSA-rapport.


At stoppe seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd.  Særlig uddannelse er påkrævet for at gennemgå CSE og der er et begrænset team af medarbejdere, der håndterer disse anmeldelser på grund af indholdet af dets grafiske karakter.  I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring.  Vi forventer, at den gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.  

Sikkerhedsforanstaltninger for indholdsmoderation

De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i ovenstående afsnit “Sikkerhedsforanstaltninger for indholdsmoderation” under vores DSA-rapport.