Snap Values
Den Europæiske Union

Velkommen til vores side om gennemsigtighed i Den Europæiske Union (EU), hvor vi offentliggør EU-specifikke oplysninger, der kræves i henhold til loven om digitale tjenester (DSA), direktivet om audiovisuelle medietjenester (AVMSD), den hollandske medielov (DMA) og forordningen om håndtering af udbredelsen af terrorrelateret indhold online (TCO). Bemærk venligst, at den mest opdaterede version af disse gennemsigtighedsrapporter kan findes i sproglokaliteten en-US.

Juridisk repræsentant 

Snap Group Limited har udnævnt Snap B.V. som sin juridiske repræsentant i forbindelse med gøremål relateret til DSA. Du kan kontakte repræsentanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AVMSD og DMA, på tco-enquiries [at] snapchat.com for TCO, via vores supportside [her], eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holland

Hvis du er et retshåndhævende agentur, følg venligst de trin, der står beskrevet her.

Kommuniker venligst på engelsk eller hollandsk, når du kontakter os.

Tilsynsmyndigheder

For DSA, reguleres vi af Europa-Kommissionen og den hollandske myndighed for forbrugere og markeder (ACM). For AVMSD og DMA er vi reguleret af den hollandske mediemyndighed (CvdM). For TCO, reguleres vi af den hollandske myndighed for forebyggelse af online terrorrelateret indhold og materialer med seksuelt misbrug af børn (ATKM).

DSA gennemsigtighedsrapport

Offentliggjort: 28. februar 2025

Sidst opdateret: 23. april 2025 (version 2.0)

Rapporteringsperiode: 1. juli 2024 - 31. december 2024

Vi offentliggør denne rapport i overensstemmelse med kravene om gennemsigtighed i artikel 15, 24 og 42 i Den Europæiske Unions (EU) lov om digitale tjenester (forordning (EU) 2022/2065) ("DSA"). Medmindre andet er angivet, vedrører oplysningerne i denne rapport rapporteringsperioden fra 1. juli 2024 til 31. december 2024 (2. halvår 2024). 

1. Gennemsnitlige aktive modtagere pr. måned 
(DSA paragraf 24.2 og 42.3)

Pr. 1. januar 2025 har vi 93,7 millioner gennemsnitlige månedlige aktive modtagere (»AMAR«) af vores Snapchat-app i EU. Det betyder, at i gennemsnit over den 6-måneders periode, der slutter den 31. december 2024, har 93,7 millioner registrerede brugere i EU åbnet Snapchat-appen mindst én gang i løbet af en given måned.

Dette tal kan opdeles efter medlemsstat som følger:

Disse tal er beregnet i overensstemmelse med gældende DSA-krav og bør kun anvendes til DSA-formål. Vi har ændret, hvordan vi beregner dette tal med tiden, herunder som reaktion på ændringer af intern politik, vejledning og teknologi fra tilsynsmyndigheden, og tallene er ikke beregnet til at blive sammenlignet mellem perioder. Dette kan også afvige fra de beregninger, der anvendes for andre tal vedrørende aktive brugere, som vi offentliggør til andre formål.

2. Anmodninger fra medlemsstaternes myndigheder
(DSA paragraf 15.1, litra (a))

a) Påbud om at handle mod ulovligt indhold


I denne rapporteringsperiode (2. halvår 2024) modtog vi nul (0) anmodninger om at gribe ind over for specifikt identificeret ulovligt indhold fra EU-medlemsstaternes myndigheder, herunder anmodninger fremsat i overensstemmelse med artikel 9 i DSA. 

Da dette tal er nul (0), kan vi ikke give en oversigt over de forskellige typer ulovligt indhold eller de medlemsstater, der har udstedt kendelsen, eller den gennemsnitlige tid, det tager at bekræfte modtagelsen eller gennemføre kendelserne

b) Påbud om at give oplysninger 

I denne rapporteringsperiode (2. halvår 2024) modtog vi følgende påbud om at videregive brugerdata fra EU-medlemsstaternes myndigheder, herunder påbud udstedt i overensstemmelse med artikel 10 i DSA:

Mediantiden for at informere relevante myndigheder om modtagelsen af disse påbud om at levere oplysninger var 0 minutter — vi giver et automatisk svar, der bekræfter modtagelsen. 

Den gennemsnitlige tid til at gennemføre disse påbud om at give oplysninger var ca. 12 dage. Denne måling afspejler tidsperioden fra Snap modtog en ordre, til Snap anså sagen for at være fuldt ud løst, hvilket i individuelle tilfælde delvis kan afhænge af den hastighed, hvormed den relevante medlemsstats myndighed reagerer på eventuelle anmodninger om afklaring fra Snap, der er nødvendige for at behandle ordren.

Bemærk, at vi ikke opdeler ovenstående ordrer i oplysninger, der er kategoriseret efter typen af ulovligt indhold, fordi disse oplysninger ikke er generelt tilgængelige for os.

3. Moderering af indhold 


Alt indhold på Snapchat skal overholde vores Retningslinjer for fællesskabet og Servicevilkår. Visse former for indhold skal også overholde yderligere retningslinjer og politikker. For eksempel skal indhold, der indsendes til algoritmisk anbefaling til et bredere publikum på vores offentlige udsendelsesflader, opfylde yderligere, højere standarder, der er angivet i vores indholdsretningslinjer for anbefalingsberettigelse, mens reklamer skal overholde vores reklamepolitikker.

Vi håndhæver disse politikker ved hjælp af teknologi og menneskelig kontrol. Vi tilbyder mekanismer, som brugere og ikke-brugere kan benytte til at rapportere overtrædelser, herunder ulovligt indhold og aktiviteter, direkte i appen eller via vores hjemmeside. Vi bruger også proaktiv teknologi til at opdage skader. Proaktive detektionsmekanismer og rapporter giver anledning til en gennemgang, som derefter udnytter en blanding af automatiserede værktøjer og menneskelige moderatorer til at træffe passende foranstaltninger i overensstemmelse med vores politikker. 

Vi giver yderligere oplysninger om vores indholdsmoderering i H2 2024 nedenfor.

a) Meddelelser indsendt i overensstemmelse med DSA artikel 16 
(DSA artikel 15.1(b))

I overensstemmelse med DSA artikel 16 har Snap indført mekanismer, der gør det muligt for brugere og ikke-brugere at underrette Snap om tilstedeværelsen på Snapchat af specifikke elementer af information, som de anser for at være ulovligt indhold. De kan gøre dette ved at rapportere specifikke indholdselementer eller konti, enten direkte i Snapchat-appen eller på vores hjemmeside. 

Når man indsender anmeldelser i appen eller via vores hjemmeside, kan man vælge en specifik årsag til anmeldelsen fra en menu med muligheder, der afspejler de kategorier af overtrædelser, der er angivet i vores retningslinjer for brugerne (f.eks. hadefuld tale, stoffer). Vores retningslinjer for brugerne forbyder indhold og aktiviteter, der er ulovlige i EU, så vores rapporteringsårsager afspejler i vid udstrækning specifikke kategorier af ulovligt indhold i EU. Hvis en reporter i EU mener, at det indhold eller den konto, de rapporterer om, er ulovligt af årsager, der ikke specifikt er nævnt i vores rapporteringsmenu, kan de dog rapportere det som "andet ulovligt indhold" og får mulighed for at forklare, hvorfor de mener, at det, de rapporterer om, er ulovligt. 

I rapporteringsperioden (2. halvår 2024) modtog vi følgende meddelelser indsendt i overensstemmelse med DSA artikel 16 i EU:

Nedenfor giver vi en oversigt over, hvordan disse meddelelser blev behandlet - dvs. gennem en proces, der omfattede menneskelig gennemgang eller udelukkende automatiserede midler: 

Hvis vi efter gennemgang fastslår, at indberettet indhold eller konto overtræder vores retningslinjer for brugerne (herunder på grund af ulovlighed), kan vi (i) fjerne det krænkende indhold, (ii) advare den relevante kontoindehaver og anvende en strike mod kontoen og/eller (iii) låse den relevante konto, som yderligere forklaret i vores Snapchat Forklaring om moderation, håndhævelse og klager

I andet halvår af 2024 iværksatte vi følgende håndhævelseshandlinger efter modtagelse af meddelelser indsendt i overensstemmelse med artikel 16 i DSA i EU:

I 2. halvår 2024 blev alle rapporter om "andet ulovligt indhold", som vi tog handling over for, i sidste ende håndhævet i henhold til vores retningslinjer for brugerne, fordi vores retningslinjer for brugerne forbød det pågældende indhold eller den pågældende aktivitet. Vi har derfor kategoriseret disse håndhævelser under den relevante kategori af overtrædelse af retningslinjer for brugerne i tabellen ovenfor.

Ud over ovenstående håndhævelser kan vi gribe ind over for indhold, der er meddelt os i overensstemmelse med andre gældende Snap-politikker og -retningslinjer: 

  • Med hensyn til indhold på vores offentlige udsendelsesflader kan vi, hvis vi vurderer, at det rapporterede indhold ikke opfylder vores indholdsretningslinjer for anbefalingsberettigelse, afvise indholdet til algoritmisk anbefaling eller begrænse distributionen af indholdet for at udelukke bestemte målgrupper (hvis indholdet opfylder vores kriterier for berettigelse til anbefaling, men ellers er følsomt eller suggestivt).  

I 2 halvår af 2024 traf vi følgende handlinger vedrørende indhold på Snapchats offentlige udsendelsesflader, som blev rapporteret til os i EU, i overensstemmelse med vores Indholdsretningslinjer for anbefalingsberettigelse:

  • Hvis vi vurderer, at en indberettet annonce overtræder vores Annoncepolitik, kan vi fjerne den efter gennemgang. 


I andet halvår af 2024 traf vi følgende handlinger vedrørende reklamer, der blev indberettet til os i EU:


b) Moderering af indhold på Snaps eget initiativ 
(Artikel 15.1(c))


Ud over at gennemgå meddelelser indsendt i overensstemmelse med DSA 16, foretager Snap også indholdsmoderering på eget initiativ. Nedenfor giver vi oplysninger om den indholdsmoderering, der er foretaget på Snaps eget initiativ, herunder brugen af automatiserede værktøjer, de foranstaltninger, der er truffet for at give uddannelse og hjælp til personer med ansvar for indholdsmoderering, og antallet og typerne af begrænsninger, der er pålagt som følge af disse proaktive indholdsmodereringsbestræbelser.

  • Brug af automatiserede værktøjer i Snaps moderation på eget initiativ

Vi anvender automatiserede værktøjer til proaktivt at detektere og i nogle tilfælde håndhæve overtrædelser af vores vilkår og politikker. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Google CSAI Match), Google Content Safety API, modeller til detektering af krænkende sprog (som detekterer og afviser indhold baseret på en identificeret og regelmæssigt opdateret liste over krænkende nøgleord og emojis) samt teknologier, der udnytter kunstig intelligens, maskinlæring og store sprogmodeller. Vores automatiserede værktøjer er designet til at opdage overtrædelser af vores Retningslinjer for fællesskabet (som blandt andet forbyder ulovligt indhold) og, hvor det er relevant, vores Indholdsretningslinjer for anbefalingsberettigelse og Annoncepolitik. 

I andet halvår af 2024 blev al vores proaktive detektion udført ved hjælp af automatiserede værktøjer. Når vores automatiserede værktøjer opdager en potentiel overtrædelse af vores politikker, træffer de enten automatisk foranstaltninger i overensstemmelse med vores politikker, eller de opretter en opgave til menneskelig gennemgang. Antallet og typerne af restriktioner, der er indført som følge af denne proces, er beskrevet nedenfor. 

  • Antal og typer af restriktioner indført på Snaps eget initiativ

I andet halvår af 2024 iværksatte Snap følgende håndhævelseshandlinger efter proaktivt at have opdaget overtrædelser af vores Retningslinjer for fællesskabet (herunder overtrædelser, der udgør ulovligt indhold og aktiviteter i henhold til EU-lovgivning og medlemsstaternes lovgivning):

Derudover har vi i andet halvår af 2024, med hensyn til indhold på vores offentlige udsendelsesflader, truffet følgende handlinger efter proaktivt at have opdaget overtrædelser af vores indholdsretningslinjer for anbefalingsberettigelse på Snapchat ved hjælp af automatiserede værktøjer:

* Som det fremgår af vores Indholdsretningslinjer for anbefalingsberettigelse, kan konti, der gentagne gange eller groft overtræder vores indholdsretningslinjer for anbefalingsberettigelse, midlertidigt eller permanent udelukkes fra anbefalinger på vores offentlige sendeflader. Vi anvender denne handling i forbindelse med vores proaktive moderationsindsats.

I andet halvår af 2024 traf vi desuden følgende foranstaltninger, efter at vi ved hjælp af automatiserede værktøjer proaktivt havde opdaget overtrædelser af vores annonceringspolitikker på Snapchat:

  • Foranstaltninger, der er truffet for at give uddannelse og hjælp til personer med ansvar for indholdsmoderering

Vores indholdsmoderationsteams anvender vores politikker for indholdsmoderation for at hjælpe med at beskytte vores Snapchat-fællesskab. De bliver trænet over en periode på flere uger, hvor nye teammedlemmer bliver undervist i Snaps politikker, værktøjer og eskaleringsprocedurer. Vores moderationsteams deltager regelmæssigt i genopfriskningskurser, der er relevante for deres arbejdsgange, især når vi støder på sager, der er grænseoverskridende og kontekstafhængige. Vi kører også opkvalificeringsprogrammer, certificationssessioner og quizzer for at sikre, at alle moderatorer er ajourførte og i overensstemmelse med alle opdaterede politikker. Og til sidst, når presserende indholdstrends dukker op baseret på aktuelle begivenheder, formidler vi hurtigt afklaringer af politikken, så teams kan reagere i overensstemmelse med Snaps politikker.

Vi giver vores moderationsteams betydelig støtte og ressourcer, som inkluderer wellness-støtte på arbejdet og nem adgang til mentale sundhedstjenester.

c) Klager modtaget gennem Snaps interne klagebehandlingssystemer (dvs. ankesystemer) 
(Artikel 15.1(d))


Brugere, hvis konti er låst af vores sikkerhedsteams på grund af overtrædelser af retningslinjerne for brugerne (herunder for ulovligt indhold og ulovlige aktiviteter), kan indsende en appel om låst konto. Brugere kan også appellere visse beslutninger om indholdsmoderering.

I rapporteringsperioden (2. halvår 2024) behandlede Snap følgende klager (herunder klager over både kontolåsninger og moderationsbeslutninger på indholdsniveau), der blev indgivet via dets interne klagebehandlingssystemer i EU:

d) Brug af automatiserede midler med henblik på indholdsmoderering 
(Artikel 15.1(e) og 42.2(c))

  • Kvalitativ beskrivelse og formål

Som forklaret ovenfor i afsnit 3(b) anvender vi automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores vilkår og politikker. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Google CSAI Match), Google Content Safety API, modeller til detektering af krænkende sprog (som detekterer og afviser indhold baseret på en identificeret og regelmæssigt opdateret liste over krænkende nøgleord og emojis) samt teknologier, der udnytter kunstig intelligens, maskinlæring og store sprogmodeller. Vores automatiserede værktøjer er designet til at opdage overtrædelser af vores retningslinjer for brugerne (som blandt andet forbyder ulovligt indhold) og, hvor det er relevant, vores indholdsretningslinjer for anbefalingsberettigelse og reklamepolitikker.

Når vores automatiserede værktøjer opdager en potentiel overtrædelse af vores politikker, træffer de enten automatisk handling i overensstemmelse med vores politikker, eller de opretter en opgave til manuel gennemgang. . 

  • Indikatorer for nøjagtighed og mulig fejlprocent, opdelt efter medlemsstat

Vi overvåger indikatorer for nøjagtigheden og den mulige fejlprocent for vores automatiserede modereringsværktøjer ved at udvælge tilfældige stikprøver af opgaver, der er behandlet af vores automatiserede værktøjer, og sende dem til fornyet gennemgang af vores menneskelige modereringsteams. Nøjagtighedsprocenten er den procentdel af opgaver fra disse tilfældige stikprøver, hvor det efter en fornyet gennemgang af menneskelige moderatorer er bekræftet, at moderationsbeslutningerne er korrekte. Fejlprocenten er forskellen mellem 100 % og nøjagtighedsprocenten, der er beregnet som beskrevet ovenfor. 

Vi overvåger nøjagtigheden og den mulige fejlprocent for to brede kategorier af automatiserede modereringsværktøjer, nemlig: 

  • Automatiserede værktøjer, der opdager og/eller håndhæver overtrædelser af vores retningslinjer for brugerne og kan føre til håndhævelse mod en brugers konto (f.eks. advarsler mod kontoen eller spærring af kontoen). Baseret på stikprøver var nøjagtigheden af disse automatiserede værktøjer i andet halvår af 2024 ca. 95 %, og fejlprocenten var ca. 5 %. 

  • Automatiserede værktøjer, der registrerer og/eller tager handling på indhold på vores offentlige udsendelsesflader på baggrund af vores Indholdsretningslinjer for anbefalingsberettigelse. Baseret på stikprøver var nøjagtigheden af disse automatiserede værktøjer i andet halvår af 2024 ca. 85 %, og fejlprocenten var ca. 15 %.

Baseret på stikprøver var den samlede nøjagtighedsprocent for de automatiserede værktøjer, der blev anvendt i begge ovennævnte kategorier, i andet halvår af 2024 ca. 89 %, og fejlprocenten var ca. 11 %.  


Vi sporer generelt ikke sproget i det indhold, vi modererer på Snapchat, og kan derfor ikke give en oversigt over nøjagtigheden og fejlprocenterne for vores automatiserede modereringsværktøjer for hvert officielt sprog i medlemsstaterne. Som erstatning for disse oplysninger giver vi nedenfor en oversigt over vores samlede nøjagtigheds- og fejlprocenter for automatisk modereret indhold (både i henhold til vores retningslinjer for brugerne og vores Indholdsretningslinjer for anbefalingsberettigelse) fra hver medlemsstat.

  • Sikkerhedsforanstaltninger

Vi er opmærksomme på den potentielle indvirkning, som automatiserede modereringsværktøjer kan have på grundlæggende rettigheder, og vi implementerer sikkerhedsforanstaltninger for at minimere denne indvirkning.

Vores automatiserede værktøjer til moderering af indhold testes, inden de tages i brug. Modellerne testes offline for ydeevne og implementeres via A/B-test for at sikre, at de fungerer korrekt, før de fases helt ind i produktionen. Vi udfører kvalitetssikring (QA) før lanceringer, gennemgår lanceringer og foretager løbende præcise QA-tjek under delvise (faseopdelte) udrulninger. 

Efter lanceringen af vores automatiserede værktøjer evaluerer vi løbende deres ydeevne og nøjagtighed og foretager justeringer efter behov. Denne proces indebærer, at vores menneskelige moderatorer gennemgår prøver af automatiserede opgaver for at identificere modeller, der kræver justeringer for at forbedre nøjagtigheden. Vi overvåger også forekomsten af specifikke skader på Snapchat via tilfældige daglige stikprøver af bestemt offentligt indhold og udnytter disse oplysninger til at identificere områder, der kan forbedres yderligere. 

Vores politikker og systemer fremmer konsekvent og retfærdig håndhævelse, herunder af vores automatiserede værktøjer, og giver Snapchattere en mulighed for meningsfuldt at bestride håndhævelsesresultater gennem meddelelses- og appelprocesser, der har til formål at beskytte vores fællesskabs interesser og samtidig beskytte individuelle Snapchatter-rettigheder.

Vi bestræber os på løbende at forbedre vores automatiserede indholdsmodereringsværktøjer for at forbedre deres nøjagtighed og understøtte en konsekvent og retfærdig håndhævelse af vores politikker.

e) Tvister, der indbringes for udenretslige tvistbilæggelsesorganer i henhold til artikel 21
(Artikel 24.1(a))

For rapporteringsperioden (2. halvår 2024) giver vi følgende oplysninger om tvister, der er indgivet mod Snap til de udenretslige tvistbilæggelsesorganer, der er omhandlet i DSA artikel 21: 

Ovenstående tabel afspejler status pr. 31. december 2024 for tvister, der er indbragt for certificerede udenretslige tvistbilæggelsesorganer i henhold til artikel 21 i DSA i rapporteringsperioden (2. halvår 2024). Pr. 31. december 2024 var 15 af de 20 tvister, der blev indbragt for sådanne organer i 2. halvår 2024, endnu ikke afgjort, mens 5 var blevet afgjort, inden der blev truffet en afgørelse. 

Bemærk, at vi ikke har medtaget klager, der blev indgivet til et certificeret organ i henhold til artikel 21, men som det relevante organ fandt uantagelige, inden de blev videresendt til Snap. Vi kan ikke bekræfte antallet af tvister, der falder ind under denne kategori, da nogle, men ikke alle, certificerede organer underretter Snap om sådanne tvister. Vi er dog bekendt med 6 klager, der falder ind under denne kategori i 2. halvår 2024.

f) Suspensioner pålagt i henhold til artikel 23
(Artikel 24.1(b))
  • Suspensioner i henhold til artikel 23.1: suspension af konti, der ofte leverer åbenlyst ulovligt indhold 

Som forklaret i vores Snapchat-vejledning om moderering, håndhævelse og klager, bliver konti, som vi vurderer primært bruges til at overtræde vores retningslinjer for brugerne (herunder ved at forordning åbenlyst ulovligt indhold), og konti, der forvolder alvorlig skade, straks deaktiveret. For andre overtrædelser af vores Retningslinjer for fællesskabet, anvender Snap generelt en tredelt håndhævelsesproces:

  • Første trin: Det krænkende indhold fjernes.

  • Trin to: Brugeren modtager en meddelelse om, at vedkommende har overtrådt vores retningslinjer for brugerne, at vedkommendes indhold er blevet fjernet, og at gentagne overtrædelser vil medføre yderligere håndhævelsesforanstaltninger, herunder deaktivering af vedkommendes konto.

  • Trin tre: vores team registrerer en advarsel på brugerens konto.

Oplysninger om antallet af advarsler og spærringer, der blev pålagt konti i EU i andet halvår af 2024, findes ovenfor i afsnit 3(a) og 3(b).

  • Suspensioner i henhold til artikel 23, stk. 2: suspension af behandlingen af meddelelser og klager fra personer, enheder og klagere, der hyppigt indgiver meddelelser eller klager, der er åbenbart grundløse

Ved anvendelse af vores interne definition af "åbenbart grundløse" anmeldelser og klager og vores interne tærskler for, hvad vi betragter som hyppig indgivelse af sådanne anmeldelser og klager, er antallet af suspensioner af behandlingen af anmeldelser og klager, der er pålagt i 2. halvår 2024 i henhold til DSA artikel 23.2, som følger

4. Oplysninger om vores indholdsmoderationshold 
a) Menneskelige ressourcer dedikeret til indholdsmoderation, herunder til overholdelse af DSA artikel 16, 20 og 22, fordelt på medlemsstaternes officielle sprog
(Artikel 42.2(a))


Vores indholdsmoderationsteams opererer over hele verden, døgnet rundt, hvilket gør det muligt for os at holde vores fællesskab sikkert. Nedenfor er fordelingen af vores menneskelige moderationsressourcer efter moderatorernes sprogspecialiseringer (bemærk, at nogle moderatorer er specialiseret i flere sprog) pr. 31. december 2024:

Ovenstående tabel omfatter alle medarbejdere, der er beskæftiget med moderation af indhold og som understøtter EU-medlemsstaternes officielle sprog pr. 31. december 2024. I situationer, hvor vi har brug for yderligere sprogsupport, bruger vi oversættelsestjenester.

b) Kvalifikationer og sproglig ekspertise hos indholdsmoderatorer; uddannelse og støtte
(Artikel 42.2(b))

Moderatorer rekrutteres ved hjælp af en standardjobbeskrivelse, der inkluderer et sprogkrav (afhængigt af behovet). Sprogkravet fastslår, at kandidaten skal kunne demonstrere flydende skriftlige og mundtlige sprogfærdigheder, og for stillinger på begynder-niveau kræves det, at kandidaterne har mindst et års erhvervserfaring. Kandidater skal opfylde kravene til uddannelse og baggrund for at komme i betragtning. Ansøgere skal også påvise en forståelse af aktuelle begivenheder for det land eller det område inden for indholdsmoderation, de vil yde support til. 


Se ovenfor for information om den uddannelse og support, Snap tilbyder indholdsmoderatorer, som er et særskilt krav i henhold til DSA artikel 15, stk. 1, litra c), og som derfor er inkluderet i afsnit 3, litra b), i det sidste underafsnit med titlen: "Foranstaltninger truffet for at tilbyde uddannelse og assistance til personer, der er ansvarlige for indholdsmoderation".

Mediescanningsrapport for seksuel udnyttelse og misbrug af børn (CSEA)

Udgivet: 31. januar 2025

Sidst opdateret: 31. januar 2025

Denne rapport dækker perioden fra den 1. januar 2024 til og med den 31. december 2024.

Baggrund

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af CSEA (Child Sexual Exploitation and Abuse) på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.


De teknologier, vi bruger, omfatter (a) PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af henholdsvis CSEA; og (b) Googles Content Safety API for at identificere nye, "ikke-tidligere-hashed" CSEA-billedmaterialer. Vi rapporterer CSEA-billedmaterialer til det amerikanske National Center for Missing and Exploited Children (NCMEC), som krævet af loven. NCMEC koordinerer efterfølgende, med retshåndhævende myndigheder i USA og andre lande efter behov.


Rapport

Nedenstående diagram omfatter data om proaktiv detektion og de derpå følgende håndhævelser over for EU-brugere, for CSEA-billedmaterialer i løbet af 2024. (Bemærk, at nogle håndhævelser, der er resultatet af den nævnte proaktive scanning i 2024, stadig kan have været genstand for en appel på det tidspunkt, hvor denne rapport blev udarbejdet, og vil derfor ikke blive afspejlet i dataene nedenfor om appeller og genindsættelser.)

*Denne kategori rapporterer håndhævelser i forbindelse med overtrædelser af Snaps retningslinjer for brugerne, der forbyder seksuel udnyttelse af børn.  Proaktivt detekteret indhold, der sættes ind overfor, i forbindelse med andre overtrædelser af Snaps retningslinjer for brugerne, er ikke rapporteret her.

**En håndhævelse kan omstødes, hvis vi fastslår at den var fejlagtig, baseret på vores gældende politikker på tidspunktet for håndhævelsen, eller hvis vi fastslår at overtrædelsen oprindeligt blev korrekt håndhævet, men vores gældende politik er blevet ændret på tidspunktet for gennemgangen af appellen.

Sikkerhedsforanstaltninger for indholdsmoderering

De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i den ovenstående EU DSA-gennemsigtighedsrapport.

Den Europæiske Unions gennemsigtighedsrapport i terrorindhold på nettet

Offentliggjort: 28. februar 2025

Sidst opdateret: 28. februar 2025

Rapporteringscyklus: 1. januar 2024 - 31. december 2024

Denne gennemsigtighedsrapport offentliggøres i overensstemmelse med artikel 7, stk. 2 og 3, i Europa-Parlamentets og Rådets forordning 2021/784 om udbredelse af terrorrelateret onlineindhold (forordningen). Den dækker rapporteringsperioden fra 1. januar til 31. december 2024

Generelle oplysninger
  • Artikel 7, stk. 3, litra a): oplysninger om hostingtjenesteyderens foranstaltninger i forbindelse med identifikation og fjernelse af eller deaktivering af adgang til terrorindhold

  • Artikel 7, stk. 3, litra b): oplysninger om hostingtjenesteyderens foranstaltninger til at imødegå, at materiale, der tidligere er blevet fjernet, eller hvortil adgangen er blevet deaktiveret, fordi det blev anset for at være terrorindhold, dukker op igen online, navnlig hvis der er anvendt automatiserede værktøjer


Snapchat har en meget lav forekomst af terrorrelateret indhold og modtog ikke nogen fjernelsesordre i henhold til forordningen i 2024.

Det er forbudt for terrorister, terrororganisationer og voldelige ekstremister at bruge Snapchat. Indhold, der opfordrer til, promoverer, forherliger eller fremmer terrorisme eller andre voldelige, kriminelle handlinger, er forbudt i henhold til vores retningslinjer for brugerne. Brugere kan rapportere indhold, der overtræder vores retningslinjer for brugerne, via vores rapporteringsmenu i appen og vores supportside. Vi bruger også proaktiv detektion til at forsøge at identificere krænkende indhold på offentlige overflader som ​​Spotlight og Udforsk. 


Uanset hvordan vi bliver opmærksomme på krænkende indhold, gennemgår vores sikkerhedsteams hurtigt det identificerede indhold ved hjælp af en kombination af automatisering og menneskelig moderering og træffer beslutninger om håndhævelse. Håndhævelse kan omfatte fjernelse af indholdet, advarsel eller deaktivering af den overtrædende konto og, hvis det er berettiget, indberetning af kontoen til politiet. For at forhindre, at terroristisk eller andet voldeligt ekstremistisk indhold dukker op igen på Snapchat, tager vi, ud over at samarbejde med politiet, skridt til at blokere den enhed, der er forbundet med den krænkende konto, og forhindre brugeren i at oprette en anden Snapchat-konto. 


Yderligere oplysninger om vores foranstaltninger til identifikation og fjernelse af terrorrelateret indhold findes i vores forklaring om hadefuldt indhold, terrorisme og voldelig ekstremisme og vores forklaring om moderering, håndhævelse og klager.



Rapporter og håndhævelse 
  • Artikel 7, stk. 3, litra c): antallet af elementer af terrorindhold, der er fjernet, eller hvortil adgangen er blevet deaktiveret efter påbud om fjernelse eller særlige foranstaltninger, og antallet af påbud om fjernelse, hvor indholdet ikke er blevet fjernet, eller hvortil adgangen ikke er blevet deaktiveret i henhold til artikel 3, stk. 7, første afsnit, og artikel 3, stk. 8, første afsnit, sammen med begrundelserne herfor


I løbet af rapporteringsperioden modtog Snap ingen udsendelsesordrer, og vi var heller ikke forpligtet til at gennemføre nogen specifikke foranstaltninger i henhold til artikel 5 i forordningen. Derfor var vi ikke forpligtet til at træffe håndhævelseshandling i henhold til forordningen.

Følgende tabel beskriver håndhævelseshandlinger, der er truffet på baggrund af brugerrapporter og proaktiv opdagelse af indhold og konti, både i EU og andre steder i verden, som har overtrådt vores retningslinjer for brugerne om terrorisme og voldeligt ekstremistisk indhold.

Appeller om håndhævelse
  • Artikel 7, stk. 3, litra d): antallet og resultatet af klager, der er behandlet af hostingtjenesteyderen i overensstemmelse med artikel 10

  • Artikel 7, stk. 3, litra g): antallet af tilfælde, hvor hostingtjenesteyderen har genindsat indhold eller adgang hertil efter en klage fra indholdsleverandøren

Da vi ikke havde nogen håndhævelsesforanstaltninger i henhold til forordningen i rapporteringsperioden som nævnt ovenfor, behandlede vi ingen klager i henhold til artikel 10 i forordningen og havde ingen tilknyttede genindsættelser.

Følgende tabel indeholder oplysninger om appeller og genindsættelser, både i EU og andre steder i verden, der involverer terroristisk og voldeligt ekstremistisk indhold, som håndhæves i henhold til vores retningslinjer for brugerne.

Retsprocedurer & Appeller
  • Artikel 7, stk. 3, litra e): antallet og udfaldet af administrative eller retlige klagesager, som hostingtjenesteudbyderen har anlagt

  • Artikel 7, stk. 3, litra f): antallet af tilfælde, hvor hostingtjenesteudbyderen blev pålagt at genindsætte indhold eller adgang hertil som følge af en administrativ eller retslig prøvelsesprocedure.

Da vi ikke havde nogen håndhævelseshandlinger i henhold til forordningen i rapporteringsperioden, som nævnt ovenfor, havde vi ingen tilknyttede administrative eller retslige prøvelsesprocedurer, og vi var ikke forpligtet til at genindsætte indhold som følge af sådanne procedurer.

DSA-risikovurdering

Denne rapport er udarbejdet for at overholde Snaps forpligtelser i henhold til artikel 34 og 35 i forordning (EU) 2022/2065 og indeholder resultaterne af vores vurdering af systemrisici, der stammer fra design, funktion og brug af Snapchats onlineplatforme, sammen med den metode, der er brugt til at vurdere disse risici, og de afhjælpende foranstaltninger, der er indført for at imødegå disse risici.


DSA-rapport om vurdering af risiko og afhjælpning | Snapchat | August 2023 (PDF)


DSA-audit og implementering af audit

Disse rapporter er udarbejdet for at overholde Snaps forpligtelser i henhold til  artikel 37 i forordning (EU) 2022/2065 og indeholder: (i) resultaterne af den uafhængige revision af Snaps overholdelse af forpligtelserne i kapitel III i forordning (EU) 2022/2065 og (ii) de foranstaltninger, der er truffet for at gennemføre de operationelle anbefalinger fra denne uafhængige revision.

DSA's uafhængige revisionsrapport | Snapchat | August 2024 (PDF)

Rapport om gennemførelse af DSA-revision | Snapchat | September 2024 (PDF)



EU's VSP-praksiskodeks

Snap er en "videodelingsplatformtjeneste" ("VSP") i henhold til artikel 1, stk. 1, litra aa, i AVMSD. Denne Adfærdskodeks ("Kodeks") er udarbejdet for at beskrive, hvordan Snap overholder sine forpligtelser som en VSP under den hollandske Medielov ("DMA") og Direktiv (EU) 2010/13 (som ændret ved Direktiv (EU) 2018/1808 ("Audiovisuelle Medietjenestedirektiv" eller "AVMSD")). Kodekset gælder i hele Den Europæiske Union og Det Europæiske Økonomiske Samarbejdsområde.

EU VSP-adfærdskodeks | Snapchat | Marts 2025 (PDF)

Bulgarsk | Kroatisk | Tjekkisk | Dansk | Hollandsk | Estisk | Finsk | Fransk | Tysk | Græsk | Ungarsk | Irsk | Italiensk | Lettisk | Litauisk | Maltesisk | Polsk | Portugisisk | Rumænsk | Slovakisk | Slovensk | Spansk | Svensk