Velkommen til vores side om gennemsigtighed i Den Europæiske Union (EU), hvor vi offentliggør EU-specifikke oplysninger, der kræves i henhold til loven om digitale tjenester (DSA), direktivet om audiovisuelle medietjenester (AVMSD), den hollandske medielov (DMA) og forordningen om håndtering af udbredelsen af terrorrelateret indhold online (TCO). Bemærk venligst, at den mest opdaterede version af disse gennemsigtighedsrapporter kan findes i sproglokaliteten en-US.
Snap Group Limited har udnævnt Snap B.V. som sin juridiske repræsentant i forbindelse med gøremål relateret til DSA. Du kan kontakte repræsentanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AVMSD og DMA, på tco-enquiries [at] snapchat.com for TCO, via vores supportside [her], eller på:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holland
Hvis du er et retshåndhævende agentur, følg venligst de trin, der står beskrevet her.
Kommuniker venligst på engelsk eller hollandsk, når du kontakter os.
For DSA, reguleres vi af Europa-Kommissionen og den hollandske myndighed for forbrugere og markeder (ACM). For AVMSD og DMA er vi reguleret af den hollandske mediemyndighed (CvdM). For TCO, reguleres vi af den hollandske myndighed for forebyggelse af online terrorrelateret indhold og materialer med seksuelt misbrug af børn (ATKM).
Offentliggjort: 29. august 2025
Senest opdateret: 29. august 2025
Rapporteringscyklus: 1. januar 2025 - 30. juni 2025
Vi offentliggør denne rapport i overensstemmelse med kravene om gennemsigtighed i artikel 15, 24 og 42 i Den Europæiske Unions (EU) lov om digitale tjenester (forordning (EU) 2022/2065) ("DSA"). Medmindre andet er angivet, vedrører oplysningerne i denne rapport rapporteringsperioden fra 1. januar 2025 til 30. juni 2025 (1. halvår 2025).
Pr. 30. juni 2025 har vi 94,7 millioner gennemsnitlige månedlige aktive modtagere (“AMAR”) af vores Snapchat-app i EU. Det betyder, at i gennemsnit over en periode på seks måneder, der slutter den 30. juni 2025, har 94,7 millioner registrerede brugere i EU åbnet Snapchat-appen mindst én gang i løbet af en given måned.
Dette tal kan opdeles efter medlemsstat som følger:
Disse tal er beregnet i overensstemmelse med gældende DSA-krav og bør kun anvendes til DSA-formål. Vi har ændret den måde, vi beregner dette tal på over tid, blandt andet som følge af ændringer i interne politikker, myndighedernes retningslinjer og teknologi, og tallene er ikke beregnet til at blive sammenlignet mellem perioder. Dette kan også afvige fra de beregninger, der anvendes for andre tal vedrørende aktive brugere, som vi offentliggør til andre formål.
I denne rapporteringsperiode (1. halvår 2025) modtog vi nul (0) anmodninger om at gribe ind over for specifikt identificeret ulovligt indhold fra EU-medlemsstaternes myndigheder, herunder anmodninger udstedt i overensstemmelse med artikel 9 i DSA.
Da dette tal er nul (0), kan vi ikke give en oversigt over den pågældende type ulovligt indhold eller den medlemsstat, der udsteder ordren, eller den gennemsnitlige tid til at bekræfte modtagelsen eller effektuere ordrerne.
I denne rapporteringsperiode (1. halvår 2025) modtog vi følgende antal anmodninger (eksklusive anmodninger om offentliggørelse i nødstilfælde) om offentliggørelse af brugerdata fra EU-medlemsstaternes myndigheder, herunder anmodninger fremsat i overensstemmelse med artikel 10 i DSA:
Den gennemsnitlige tid til at informere relevante myndigheder om modtagelsen af disse anmodninger om oplysninger var <1 minut — vi sender et automatisk svar, der bekræfter modtagelsen.
Den gennemsnitlige tid til at gennemføre disse påbud om at give oplysninger var under 14 dage. Denne måling afspejler tidsperioden fra det tidspunkt, hvor Snap modtog en ordrer, til det tidspunkt, hvor Snap anså sagen for at være fuldt ud løst, hvilket i enkelte tilfælde kan afhænge delvist af, hvor hurtigt den relevante bemyndigelse i medlemsstaten reagerer på eventuelle anmodninger om afklaring fra Snap, der er nødvendige for at behandle ordren.
Bemærk, at vi ikke opdeler ovenstående ordrer i oplysninger, der er kategoriseret efter typen af ulovligt indhold, fordi disse oplysninger ikke er generelt tilgængelige for os.
Alt indhold på Snapchat skal overholde vores Retningslinjer for fællesskabet og Servicevilkår. Visse former for indhold skal også overholde yderligere retningslinjer og politikker. For eksempel skal indhold, der indsendes til algoritmisk anbefaling til et bredere publikum på vores offentlige udsendelsesflader, opfylde yderligere, højere standarder i vores indholdsretningslinjer for anbefalingsberettigelse, mens reklamer skal overholde vores reklamepolitikker.
Vi håndhæver disse politikker ved hjælp af teknologi og menneskelig kontrol. Vi tilbyder mekanismer, som brugere og ikke-brugere kan benytte til at rapportere overtrædelser, herunder ulovligt indhold og aktiviteter, direkte i appen eller via vores hjemmeside. Vi bruger også proaktiv teknologi til at opdage skader. Proaktive detektionsmekanismer og rapporter udløser en gennemgang, som derefter kan udnytte en kombination af automatiserede værktøjer og menneskelige moderatorer til at træffe passende handling i overensstemmelse med vores politikker.
Vi giver yderligere oplysninger om vores indholdsmoderering i første halvdel af 2025 nedenfor.
I overensstemmelse med DSA artikel 16 har Snap indført mekanismer, der gør det muligt for brugere og ikke-brugere at underrette Snap om tilstedeværelsen på Snapchat af specifikke elementer af information, som de anser for at være ulovligt indhold. De kan gøre dette ved at rapportere specifikke indholdselementer eller konti, enten direkte i Snapchat-appen eller på vores hjemmeside.
Når man indsender anmeldelser i appen eller via vores hjemmeside, kan man vælge en specifik årsag til anmeldelsen fra en menu med muligheder, der afspejler de kategorier af overtrædelser, der er angivet i vores retningslinjer for brugerne (f.eks. hadefuld tale, stoffer). Vores retningslinjer for brugerne, som er baseret på vores værdier, omfatter generelt kategorier af indhold og aktiviteter, der er ulovlige i EU, så vores rapporteringsmuligheder omfatter i nogle tilfælde kategorier af ulovligt indhold i EU. Hvis en reporter i EU mener, at det indhold eller den konto, de rapporterer om, er ulovligt af årsager, der ikke specifikt er nævnt i vores rapporteringsmenu, kan de dog rapportere det som »andet ulovligt indhold« og får mulighed for at forklare, hvorfor de mener, at det, de rapporterer om, er ulovligt.
I rapporteringsperioden (1. halvår 2025) modtog vi følgende meddelelser fra brugere, som vi mener befinder sig i EU:
Nedenfor giver vi en oversigt over, hvordan disse meddelelser blev behandlet - dvs. gennem en proces, der omfattede menneskelig gennemgang eller udelukkende automatiserede midler:
Hvis vi efter gennemgang fastslår, at det rapporterede indhold eller den rapporterede konto overtræder vores retningslinjer for brugerne eller på anden måde er ulovligt, kan vi (i) fjerne det krænkende indhold, (ii) advare den relevante kontoindehaver og give kontoen en advarsel og/eller (iii) låse den relevante konto, som nærmere forklaret i vores forklaring om moderering, håndhævelse og klager på Snapchat.
I første halvdel af 2025 iværksatte vi følgende håndhævelseshandlinger efter modtagelse af anmeldelser fra brugere, som vi mener befinder sig i EU:
Bemærk: Det samlede antal indsendte meddelelser opdelt efter type overtrædelse i ovenstående diagram omfatter ikke alle rapporter, der er indsendt via vores supportside. Supportsiden rapporterer, at vi tilskriver EU-reportere udgjorde cirka 0,4 % af det samlede antal EU-meddelelser. Vi har til hensigt at medtage disse rapporter fra supportwebstedet i vores beregninger fremover.
I første halvdel af 2025 blev alle rapporter om "andet ulovligt indhold", som vi tog handling, i sidste ende håndhævet i henhold til vores retningslinjer for brugerne, fordi vores retningslinjer for brugerne forbød det pågældende indhold eller den pågældende aktivitet. Vi har derfor kategoriseret disse håndhævelser under den relevante kategori af overtrædelse af retningslinjer for brugerne i tabellen ovenfor.
Ud over ovenstående håndhævelser kan vi gribe ind over for indhold, der er meddelt os i overensstemmelse med andre gældende Snap-politikker og -retningslinjer:
Med hensyn til indhold på vores offentlige udsendelsesflader kan vi, hvis vi vurderer, at det rapporterede indhold ikke opfylder vores indholdsretningslinjer for anbefalingsberettigelse, afvise indholdet til algoritmisk anbefaling eller begrænse distributionen af indholdet for at udelukke bestemte målgrupper (hvis indholdet opfylder vores kriterier for berettigelse til anbefaling, men ellers er følsomt eller suggestivt).
I første halvdel af 2025 traf vi følgende handlinger vedrørende indhold på Snapchats offentlige udsendelsesflader, som blev rapporteret til os i EU, i overensstemmelse med vores Indholdsretningslinjer for anbefalingsberettigelse:
Hvis vi vurderer, at en indberettet annonce overtræder vores Annoncepolitik, kan vi fjerne den efter gennemgang.
I første halvdel af 2025 traf vi følgende handlinger vedrørende reklamer, som blev indberettet til os af brugere, som vi mener befinder sig i EU:
Ud over at gennemgå meddelelser indsendt i overensstemmelse med DSA 16, foretager Snap også indholdsmoderering på eget initiativ. Nedenfor giver vi oplysninger om den indholdsmoderering, der er foretaget på Snaps eget initiativ, herunder brugen af automatiserede værktøjer, de foranstaltninger, der er truffet for at give uddannelse og hjælp til personer med ansvar for indholdsmoderering, og antallet og typerne af begrænsninger, der er pålagt som følge af disse proaktive indholdsmodereringsbestræbelser.
Brug af automatiserede værktøjer i Snaps moderation på eget initiativ
Vi anvender automatiserede værktøjer til proaktivt at detektere og i nogle tilfælde håndhæve overtrædelser af vores vilkår og politikker. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Google CSAI Match), Google Content Safety API, modeller til detektering af krænkende sprog (som detekterer og afviser indhold baseret på en identificeret og regelmæssigt opdateret liste over krænkende nøgleord og emojis), anden tilpasset teknologi designet til at detektere krænkende tekst og emojis samt teknologier, der udnytter kunstig intelligens, herunder maskinlæring og store sprogmodeller. Vores automatiserede værktøjer er designet til at opdage overtrædelser af vores retningslinjer for brugerne og, hvor det er relevant, vores indholdsretningslinjer for anbefalingsberettigelse og reklamepolitikker.
I første halvdel af 2025 blev stort set al vores proaktive detektion udført ved hjælp af automatiserede værktøjer. (I nogle tilfælde har vores Trust & Safety-team manuelt opdaget indhold, der enten var ulovligt og/eller overtrådte Snaps politikker, hvilket derefter blev undersøgt og håndhævet i overensstemmelse med Snaps politikker og/eller relevante love.) Når vores automatiserede værktøjer opdager en potentiel overtrædelse af vores politikker, træffer de enten automatisk foranstaltninger i overensstemmelse med vores politikker, eller de opretter en opgave til menneskelig gennemgang. Antallet og typerne af restriktioner, der er indført som følge af denne proces, er beskrevet nedenfor.
Antal og typer af restriktioner indført på Snaps eget initiativ
I første halvdel af 2025 iværksatte Snap følgende håndhævelseshandlinger efter proaktivt at have opdaget overtrædelser af vores retningslinjer for brugerne:
Derudover har vi i første halvdel af 2025, med hensyn til indhold på vores offentlige udsendelsesflader, truffet følgende handlinger efter proaktivt at have opdaget overtrædelser af vores indholdsretningslinjer for anbefalingsberettigelse ved hjælp af automatiserede værktøjer:
* Som det fremgår af vores Indholdsretningslinjer for anbefalingsberettigelse, kan konti, der gentagne gange eller groft overtræder vores indholdsretningslinjer for anbefalingsberettigelse, midlertidigt eller permanent udelukkes fra anbefalinger på vores offentlige sendeflader. Vi anvender denne handling i forbindelse med vores proaktive moderationsindsats.
Desuden traf vi i første halvdel af 2025 følgende handlinger efter proaktivt at have opdaget overtrædelser af vores annonceringspolitikker ved hjælp af automatiserede værktøjer:
Foranstaltninger, der er truffet for at give uddannelse og hjælp til personer med ansvar for indholdsmoderering
Vores indholdsmoderationsteams anvender vores politikker for indholdsmoderation for at hjælpe med at beskytte vores Snapchat-fællesskab. De bliver trænet over en periode på flere uger, hvor nye teammedlemmer bliver undervist i Snaps politikker, værktøjer og eskaleringsprocedurer. Vores moderationsteams deltager i efteruddannelse, der er relevant for deres arbejdsgange, især når vi støder på sager, der ligger på grænsen til vores politikker og er afhængige af konteksten. Vi afholder også efteruddannelsesprogrammer og certificeringskurser og gennemfører quizzer for at sikre, at alle moderatorer er opdaterede og overholder alle opdaterede politikker. Endelig, når der opstår presserende tendenser i indholdet baseret på aktuelle begivenheder, formidler vi hurtigt præciseringer af vores politikker for at sikre, at teams reagerer i overensstemmelse med Snaps politikker.
Vi yder vores indholdsmodereringsteams betydelig støtte og ressourcer, herunder støtte til velvære på arbejdspladsen og nem adgang til psykologhjælp.
Brugere, hvis konti er blevet låst af vores sikkerhedsteams på grund af overtrædelser af retningslinjer for brugerne (herunder ulovligt indhold og aktiviteter), kan indsende en klage over den låste konto. Brugere kan også appellere visse beslutninger om indholdsmoderering.
I rapporteringsperioden (1. halvår 2025) behandlede Snap følgende klager (herunder klager over både kontolåsninger og modereringsbeslutninger på indholdsniveau), der blev indsendt via dets interne klagebehandlingssystemer fra brugere, som vi mener befinder sig i EU:
Kvalitativ beskrivelse og formål
Som forklaret ovenfor i afsnit 3(b) anvender vi automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores vilkår og politikker. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Google CSAI Match), Google Content Safety API, modeller til detektering af krænkende sprog (som detekterer og afviser indhold baseret på en identificeret og regelmæssigt opdateret liste over krænkende nøgleord og emojis), anden tilpasset teknologi designet til at detektere krænkende tekst og emojis samt teknologier, der udnytter kunstig intelligens, herunder maskinlæring og store sprogmodeller. Vores automatiserede værktøjer er designet til at opdage overtrædelser af vores retningslinjer for brugerne (som blandt andet forbyder ulovligt indhold) og, hvor det er relevant, vores indholdsretningslinjer for anbefalingsberettigelse og reklamepolitikker.
Når vores automatiserede værktøjer opdager en potentiel overtrædelse af vores politikker, træffer de enten automatisk foranstaltninger i overensstemmelse med vores politikker, eller de opretter en opgave til menneskelig gennemgang.
Indikatorer for nøjagtighed og mulig fejlprocent, opdelt efter medlemsstat
Vi overvåger indikatorer for nøjagtigheden og den mulige fejlprocent for vores automatiserede modereringsværktøjer ved at udvælge tilfældige stikprøver af opgaver, der er behandlet af vores automatiserede værktøjer, og sende dem til fornyet gennemgang af vores menneskelige modereringsteams. Nøjagtighedsprocenten er den procentdel af opgaver fra disse tilfældige stikprøver, hvor det efter en fornyet gennemgang af menneskelige moderatorer er bekræftet, at moderationsbeslutningerne er korrekte. Fejlprocenten er forskellen mellem 100 % og nøjagtighedsprocenten, der er beregnet som beskrevet ovenfor.
Vi overvåger nøjagtigheden og den mulige fejlprocent for to brede kategorier af automatiserede modereringsværktøjer, nemlig:
Automatiserede værktøjer, der opdager og/eller håndhæver overtrædelser af vores retningslinjer for brugerne og kan føre til håndhævelse mod en brugers konto (f.eks. advarsler mod kontoen eller spærring af kontoen). Baseret på stikprøver var nøjagtigheden af disse automatiserede værktøjer i første halvdel af 2025 ca. 96 %, og fejlprocenten var ca. 4 %.
Automatiserede værktøjer, der registrerer og/eller tager handling på indhold på vores offentlige udsendelsesflader på baggrund af vores Indholdsretningslinjer for anbefalingsberettigelse. Baseret på stikprøver var nøjagtigheden af disse automatiserede værktøjer i første halvdel af 2025 ca. 88 %, og fejlprocenten var ca. 12 %.
Baseret på stikprøver var den samlede nøjagtighedsprocent for de automatiserede værktøjer, der blev anvendt i begge ovennævnte kategorier, i første halvdel af 2025 ca. 90 %, og fejlprocenten var ca. 10 %.
Vi sporer generelt ikke sproget i det indhold, vi modererer på Snapchat, og kan derfor ikke give en oversigt over nøjagtigheden og fejlprocenterne for vores automatiserede modereringsværktøjer for hvert officielt sprog i medlemsstaterne. Som en erstatning for disse oplysninger giver vi nedenfor en oversigt over vores samlede nøjagtigheds- og fejlprocenter for automatisk modereret indhold (både i henhold til vores retningslinjer for brugerne og vores indholdsretningslinjer for anbefalingsberettigelse), som vi mener stammer fra de enkelte medlemsstater.
Sikkerhedsforanstaltninger
Vi er opmærksomme på den potentielle intensitet, som automatiserede modereringsværktøjer kan have på grundlæggende rettigheder, og vi implementerer sikkerhedsforanstaltninger for at minimere denne intensitet.
Vores automatiserede værktøjer til moderering af indhold testes, inden de tages i brug. Modellerne testes offline for ydeevne og implementeres via A/B-test for at sikre, at de fungerer korrekt, før de fases helt ind i produktionen. Vi udfører kvalitetssikringskontroller (QA) før lancering, lanceringskontroller og løbende præcise QA-kontroller under udrulningen.
Efter lanceringen af vores automatiserede værktøjer evaluerer vi løbende deres ydeevne og nøjagtighed og foretager justeringer efter behov. Denne proces indebærer, at vores menneskelige moderatorer gennemgår prøver af automatiserede opgaver for at identificere modeller, der kræver justeringer for at forbedre nøjagtigheden. Vi overvåger også forekomsten af specifikke skader på Snapchat via tilfældige daglige stikprøver af bestemt offentligt indhold og udnytter disse oplysninger til at identificere områder, der kan forbedres yderligere.
Vores politikker og systemer fremmer konsekvent og retfærdig håndhævelse, herunder af vores automatiserede værktøjer, og giver Snapchattere en mulighed for meningsfuldt at bestride håndhævelsesresultater gennem meddelelses- og appelprocesser, der har til formål at beskytte vores fællesskabs interesser og samtidig beskytte individuelle Snapchatter-rettigheder.
Vi stræber efter løbende at videreudvikle vores automatiserede værktøjer til moderering af indhold for at forbedre deres nøjagtighed og understøtte en konsekvent og retfærdig håndhævelse af vores politikker.
For rapporteringsperioden (1. halvår 2025) giver vi følgende oplysninger om tvister, der er indbragt mod Snap til de udenretslige tvistbilæggelsesorganer, der er omhandlet i artikel 21 i DSA:
Ovenstående tabel afspejler status pr. 30. juni 2025 for tvister, der er indbragt for certificerede udenretslige tvistbilæggelsesorganer i henhold til artikel 21 i DSA i rapporteringsperioden (1. halvår 2025). I alle målinger har vi medtaget sager, som Snap har modtaget, selvom de var helt eller delvist mangelfulde med hensyn til oplysninger, som Snap derefter anmodede om og først modtog på et senere tidspunkt. Med hensyn til tvister, hvor der er truffet en afgørelse, har vi kun medtaget afgørelser, der er modtaget i rapporteringsperioden. Ligeledes er 2 af de 3 afgørelser til fordel for klageren i øjeblikket under appel. Der blev indgivet en vellykket appel i 1 sag; da den reviderede afgørelse til fordel for Snap imidlertid blev truffet uden for den relevante rapporteringsperiode, rapporteres denne sag fortsat som en afgørelse til fordel for klageren.
Den gennemsnitlige tid, der er nødvendig for at afslutte tvistbilæggelsesprocedurer, er beregnet fra den dato, hvor Snap modtager en klage, til den dato, hvor der er modtaget en afgørelse fra ODS-organet.
Bemærk, at vi ikke har medtaget klager, der blev indgivet til et certificeret organ i henhold til artikel 21, men som det relevante organ fandt uantagelige, inden de blev videresendt til Snap. Vi kan ikke bekræfte antallet af tvister, der falder ind under denne kategori, da nogle, men ikke alle, certificerede organer underretter Snap om sådanne tvister. Vi er dog bekendt med 28 klager, der falder ind under denne kategori i første halvdel af 2025.
Suspensioner i henhold til artikel 23.1: suspension af konti, der ofte leverer åbenlyst ulovligt indhold
Som forklaret i vores Snapchat-vejledning om moderering, håndhævelse og klager, bliver konti, som vi vurderer primært bruges til at overtræde vores retningslinjer for brugerne (herunder ved at forordning åbenlyst ulovligt indhold), og konti, der forvolder alvorlig skade, straks deaktiveret. For andre overtrædelser af vores Retningslinjer for fællesskabet, anvender Snap generelt en tredelt håndhævelsesproces:
Første trin: Det krænkende indhold fjernes.
Trin to: Brugeren modtager en meddelelse om, at vedkommende har overtrådt vores retningslinjer for brugerne, at vedkommendes indhold er blevet fjernet, og at gentagne overtrædelser vil medføre yderligere håndhævelsesforanstaltninger, herunder deaktivering af vedkommendes konto.
Trin tre: vores team registrerer en advarsel på brugerens konto.
Oplysninger om antallet af advarsler og spærringer, der er pålagt konti i EU i første halvdel af 2025, findes ovenfor i afsnit 3(a) og 3(b).
Suspensioner i henhold til artikel 23, stk. 2: suspension af behandlingen af meddelelser og klager fra personer, enheder og klagere, der hyppigt indgiver meddelelser eller klager, der er åbenbart grundløse
Ved anvendelse af vores interne definition af "åbenbart grundløse" anmeldelser og klager og vores interne tærskler for, hvad vi betragter som hyppig indsendelse af sådanne anmeldelser og klager, er antallet af suspensioner af behandlingen af anmeldelser og klager, der er pålagt i første halvdel af 2025 i henhold til DSA artikel 23.2, som følger:
Vores indholdsmoderationsteams opererer over hele verden, døgnet rundt, hvilket gør det muligt for os at holde vores fællesskab sikkert. Nedenfor ses en oversigt over vores menneskelige moderationsressourcer opdelt efter moderatorernes primære sprogkompetencer (bemærk, at nogle moderatorer er specialiserede i flere sprog, men flersprogede moderatorer tælles kun én gang) pr. 30. juni 2025:
Ovenstående tabel omfatter alle medarbejdere, der er beskæftiget med moderering af indhold og som understøtter EU-medlemsstaternes officielle sprog pr. 30. juni 2025. I situationer, hvor vi har brug for yderligere sprogsupport, bruger vi oversættelsestjenester.
Moderatorer rekrutteres ved hjælp af en standardjobbeskrivelse, der inkluderer et sprogkrav (afhængigt af behovet). Sprogkravet fastslår, at kandidaten skal kunne demonstrere flydende skriftlige og mundtlige sprogfærdigheder, og for stillinger på entry-level kræves det, at kandidaterne har mindst et års erhvervserfaring. Kandidater skal opfylde kravene til uddannelse og baggrund for at komme i betragtning. Ansøgere skal også påvise en forståelse af aktuelle begivenheder for det land eller det område inden for indholdsmoderation, de vil yde support til.
Se ovenfor for information om den uddannelse og støtte, Snap yder til indholdsmoderatorer, som er særskilt påkrævet i henhold til DSA artikel 15, stk. 1, litra c), og derfor er medtaget i afsnit 3, litra b), i det sidste underafsnit med titlen: "Foranstaltninger truffet for at yde uddannelse og bistand til personer, der er ansvarlige for indholdsmoderering."
Udgivet: 31. januar 2025
Sidst opdateret: 31. januar 2025
Denne rapport dækker perioden fra den 1. januar 2024 til og med den 31. december 2024.
Baggrund
Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af CSEA (Child Sexual Exploitation and Abuse) på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.
De teknologier, vi bruger, omfatter (a) PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere kendte ulovlige billeder og videoer af henholdsvis CSEA; og (b) Googles Content Safety API for at identificere nye, "ikke-tidligere-hashed" CSEA-billedmaterialer. Vi rapporterer CSEA-billedmaterialer til det amerikanske National Center for Missing and Exploited Children (NCMEC), som krævet af loven. NCMEC koordinerer efterfølgende, med retshåndhævende myndigheder i USA og andre lande efter behov.
Rapport
Nedenstående diagram omfatter data om proaktiv detektion og de derpå følgende håndhævelser over for EU-brugere, for CSEA-billedmaterialer i løbet af 2024. (Bemærk, at nogle håndhævelser, der er resultatet af den nævnte proaktive scanning i 2024, stadig kan have været genstand for en appel på det tidspunkt, hvor denne rapport blev udarbejdet, og vil derfor ikke blive afspejlet i dataene nedenfor om appeller og genindsættelser.)
*Denne kategori rapporterer håndhævelser i forbindelse med overtrædelser af Snaps retningslinjer for brugerne, der forbyder seksuel udnyttelse af børn. Proaktivt detekteret indhold, der sættes ind overfor, i forbindelse med andre overtrædelser af Snaps retningslinjer for brugerne, er ikke rapporteret her.
**En håndhævelse kan omstødes, hvis vi fastslår at den var fejlagtig, baseret på vores gældende politikker på tidspunktet for håndhævelsen, eller hvis vi fastslår at overtrædelsen oprindeligt blev korrekt håndhævet, men vores gældende politik er blevet ændret på tidspunktet for gennemgangen af appellen.
Sikkerhedsforanstaltninger for indholdsmoderering
De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i den ovenstående EU DSA-gennemsigtighedsrapport.
Offentliggjort: 28. februar 2025
Sidst opdateret: 28. februar 2025
Rapporteringscyklus: 1. januar 2024 - 31. december 2024
Denne gennemsigtighedsrapport offentliggøres i overensstemmelse med artikel 7, stk. 2 og 3, i Europa-Parlamentets og Rådets forordning 2021/784 om udbredelse af terrorrelateret onlineindhold (forordningen). Den dækker rapporteringsperioden fra 1. januar til 31. december 2024.
Artikel 7, stk. 3, litra a): oplysninger om hostingtjenesteyderens foranstaltninger i forbindelse med identifikation og fjernelse af eller deaktivering af adgang til terrorindhold
Artikel 7, stk. 3, litra b): oplysninger om hostingtjenesteyderens foranstaltninger til at imødegå, at materiale, der tidligere er blevet fjernet, eller hvortil adgangen er blevet deaktiveret, fordi det blev anset for at være terrorindhold, dukker op igen online, navnlig hvis der er anvendt automatiserede værktøjer
Snapchat har en meget lav forekomst af terrorrelateret indhold og modtog ikke nogen fjernelsesordre i henhold til forordningen i 2024.
Det er forbudt for terrorister, terrororganisationer og voldelige ekstremister at bruge Snapchat. Indhold, der opfordrer til, promoverer, forherliger eller fremmer terrorisme eller andre voldelige, kriminelle handlinger, er forbudt i henhold til vores retningslinjer for brugerne. Brugere kan rapportere indhold, der overtræder vores retningslinjer for brugerne, via vores rapporteringsmenu i appen og vores supportside. Vi bruger også proaktiv detektion til at forsøge at identificere krænkende indhold på offentlige overflader som Spotlight og Udforsk.
Uanset hvordan vi bliver opmærksomme på krænkende indhold, gennemgår vores sikkerhedsteams hurtigt det identificerede indhold ved hjælp af en kombination af automatisering og menneskelig moderering og træffer beslutninger om håndhævelse. Håndhævelse kan omfatte fjernelse af indholdet, advarsel eller deaktivering af den overtrædende konto og, hvis det er berettiget, indberetning af kontoen til politiet. For at forhindre, at terroristisk eller andet voldeligt ekstremistisk indhold dukker op igen på Snapchat, tager vi, ud over at samarbejde med politiet, skridt til at blokere den enhed, der er forbundet med den krænkende konto, og forhindre brugeren i at oprette en anden Snapchat-konto.
Yderligere oplysninger om vores foranstaltninger til identifikation og fjernelse af terrorrelateret indhold findes i vores forklaring om hadefuldt indhold, terrorisme og voldelig ekstremisme og vores forklaring om moderering, håndhævelse og klager.
Artikel 7, stk. 3, litra c): antallet af elementer af terrorindhold, der er fjernet, eller hvortil adgangen er blevet deaktiveret efter påbud om fjernelse eller særlige foranstaltninger, og antallet af påbud om fjernelse, hvor indholdet ikke er blevet fjernet, eller hvortil adgangen ikke er blevet deaktiveret i henhold til artikel 3, stk. 7, første afsnit, og artikel 3, stk. 8, første afsnit, sammen med begrundelserne herfor
I løbet af rapporteringsperioden modtog Snap ingen udsendelsesordrer, og vi var heller ikke forpligtet til at gennemføre nogen specifikke foranstaltninger i henhold til artikel 5 i forordningen. Derfor var vi ikke forpligtet til at træffe håndhævelseshandling i henhold til forordningen.
Følgende tabel beskriver håndhævelseshandlinger, der er truffet på baggrund af brugerrapporter og proaktiv opdagelse af indhold og konti, både i EU og andre steder i verden, som har overtrådt vores retningslinjer for brugerne om terrorisme og voldeligt ekstremistisk indhold.
Artikel 7, stk. 3, litra d): antallet og resultatet af klager, der er behandlet af hostingtjenesteyderen i overensstemmelse med artikel 10
Artikel 7, stk. 3, litra g): antallet af tilfælde, hvor hostingtjenesteyderen har genindsat indhold eller adgang hertil efter en klage fra indholdsleverandøren
Da vi ikke havde nogen håndhævelsesforanstaltninger i henhold til forordningen i rapporteringsperioden som nævnt ovenfor, behandlede vi ingen klager i henhold til artikel 10 i forordningen og havde ingen tilknyttede genindsættelser.
Følgende tabel indeholder oplysninger om appeller og genindsættelser, både i EU og andre steder i verden, der involverer terroristisk og voldeligt ekstremistisk indhold, som håndhæves i henhold til vores retningslinjer for brugerne.
Artikel 7, stk. 3, litra e): antallet og udfaldet af administrative eller retlige klagesager, som hostingtjenesteudbyderen har anlagt
Artikel 7, stk. 3, litra f): antallet af tilfælde, hvor hostingtjenesteudbyderen blev pålagt at genindsætte indhold eller adgang hertil som følge af en administrativ eller retslig prøvelsesprocedure.
Da vi ikke havde nogen håndhævelseshandlinger i henhold til forordningen i rapporteringsperioden, som nævnt ovenfor, havde vi ingen tilknyttede administrative eller retslige prøvelsesprocedurer, og vi var ikke forpligtet til at genindsætte indhold som følge af sådanne procedurer.
Denne rapport er udarbejdet for at overholde Snaps forpligtelser i henhold til artikel 34 og 35 i forordning (EU) 2022/2065 og indeholder resultaterne af vores vurdering af systemrisici, der stammer fra design, funktion og brug af Snapchats onlineplatforme, sammen med den metode, der er brugt til at vurdere disse risici, og de afhjælpende foranstaltninger, der er indført for at imødegå disse risici.
DSA-rapport om vurdering af risiko og afhjælpning | Snapchat | August 2023 (PDF)
Disse rapporter er udarbejdet for at overholde Snaps forpligtelser i henhold til artikel 37 i forordning (EU) 2022/2065 og indeholder: (i) resultaterne af den uafhængige revision af Snaps overholdelse af forpligtelserne i kapitel III i forordning (EU) 2022/2065 og (ii) de foranstaltninger, der er truffet for at gennemføre de operationelle anbefalinger fra denne uafhængige revision.
DSA's uafhængige revisionsrapport | Snapchat | August 2024 (PDF)
Rapport om gennemførelse af DSA-revision | Snapchat | September 2024 (PDF)
EU's VSP-praksiskodeks
Snap er en "videodelingsplatformtjeneste" ("VSP") i henhold til artikel 1, stk. 1, litra aa, i AVMSD. Denne Adfærdskodeks ("Kodeks") er udarbejdet for at beskrive, hvordan Snap overholder sine forpligtelser som en VSP under den hollandske Medielov ("DMA") og Direktiv (EU) 2010/13 (som ændret ved Direktiv (EU) 2018/1808 ("Audiovisuelle Medietjenestedirektiv" eller "AVMSD")). Kodekset gælder i hele Den Europæiske Union og Det Europæiske Økonomiske Samarbejdsområde.
EU VSP-adfærdskodeks | Snapchat | Marts 2025 (PDF)
Bulgarsk | Kroatisk | Tjekkisk | Dansk | Hollandsk | Estisk | Finsk | Fransk | Tysk | Græsk | Ungarsk | Irsk | Italiensk | Lettisk | Litauisk | Maltesisk | Polsk | Portugisisk | Rumænsk | Slovakisk | Slovensk | Spansk | Svensk