25. oktober 2024
17. december 2024
Velkommen til vores side om gennemsigtighed i Den Europæiske Union (EU), hvor vi offentliggør EU-specifikke oplysninger, der kræves i henhold til loven om digitale tjenester (DSA), direktivet om audiovisuelle medietjenester (AVMSD), den hollandske medielov (DMA) og forordningen om håndtering af udbredelsen af terrorrelateret indhold online (TCO). Bemærk venligst, at den mest opdaterede version af disse gennemsigtighedsrapporter kan findes i sproglokaliteten en-US.
Snap Group Limited har udnævnt Snap B.V. som sin juridiske repræsentant i forbindelse med gøremål relateret til DSA. Du kan kontakte repræsentanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AVMSD og DMA, på tco-enquiries [at] snapchat.com for TCO, via vores supportside [her], eller på:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holland
Hvis du er et retshåndhævende agentur, følg venligst de trin, der står beskrevet her.
Kommuniker venligst på engelsk eller hollandsk, når du kontakter os.
For DSA, reguleres vi af Europa-Kommissionen og den hollandske myndighed for forbrugere og markeder (ACM). For AVMSD og DMA er vi reguleret af den hollandske mediemyndighed (CvdM). For TCO, reguleres vi af den hollandske myndighed for forebyggelse af online terrorrelateret indhold og materialer med seksuelt misbrug af børn (ATKM).
Sidst opdateret: 25. oktober 2024
Vi offentliggør denne rapport om vores indsats for indholdsmoderering på Snapchat i overensstemmelse med kravene til gennemsigtighedsrapportering i artikel 15, 24 og 42 i Den Europæiske Unions (EU) lov om digitale tjenester (forordning (EU) 2022/2065) ("DSA"). Medmindre andet er angivet, er oplysningerne i denne rapport for rapporteringsperioden fra 1. januar 2024 til 30. juni 2024 (H1 2024) og dækker indholdsmoderation på de funktioner i Snapchat, der er reguleret af DSA.
Vi stræber hele tiden efter at forbedre vores rapportering. For denne rapporteringsperiode (H1 2024) har vi ændret strukturen i vores rapport med nye og mere differentierede tabeller for at give bedre indsigt i vores indholdsmodereringsindsats.
Pr. 1. oktober 2024 har vi 92,9 millioner gennemsnitlige månedlige aktive modtagere ("AMAR") af vores Snapchat-app i EU. Det betyder, at 92,9 millioner registrerede brugere i EU i gennemsnit over den 6-måneders periode, der slutter den 30. september 2024, har åbnet Snapchat-appen mindst én gang i løbet af en given måned.
Dette tal kan opdeles efter medlemsstat som følger:
Disse tal blev beregnet for at opfylde de nuværende DSA-krav og bør kun bruges til DSA-formål. Vi har ændret, hvordan vi beregner dette tal med tiden, herunder som reaktion på ændringer af intern politik, vejledning og teknologi fra tilsynsmyndigheden, og tallene er ikke beregnet til at blive sammenlignet mellem perioder. Dette kan også afvige fra de beregninger, der anvendes for andre tal vedrørende aktive brugere, som vi offentliggør til andre formål.
I denne rapporteringsperiode (H1 2024) modtog vi nul (0) ordrer om at handle mod specifikt identificerede stykker ulovligt indhold fra EU-medlemsstaternes myndigheder, herunder dem, der er udstedt i overensstemmelse med DSA artikel 9.
Da dette tal er nul (0), kan vi ikke give en oversigt over den pågældende type ulovligt indhold eller den medlemsstat, der udsteder ordren, eller den gennemsnitlige tid til at bekræfte modtagelsen eller effektuere ordrerne.
I løbet af denne rapporteringsperiode (H1 2024) modtog vi følgende påbud om at udlevere brugerdata fra EU-medlemsstaternes myndigheder, herunder dem, der er udstedt i overensstemmelse med DSA artikel 10:
Mediantiden for at informere relevante myndigheder om modtagelsen af disse påbud om at levere oplysninger var 0 minutter — vi giver et automatisk svar, der bekræfter modtagelsen.
Mediantiden for at efterkomme disse påbud om at give oplysninger var ca. 7 dage. Denne måling afspejler tidsperioden fra Snap modtog en ordre, til Snap anså sagen for at være fuldt ud løst, hvilket i individuelle tilfælde delvis kan afhænge af den hastighed, hvormed den relevante medlemsstats myndighed reagerer på eventuelle anmodninger om afklaring fra Snap, der er nødvendige for at behandle ordren.
Bemærk, at vi ikke opdeler ovenstående ordrer i oplysninger, der er kategoriseret efter typen af ulovligt indhold, fordi disse oplysninger ikke er generelt tilgængelige for os.
Alt indhold på Snapchat skal overholde vores retningslinjer for fællesskabet og servicevilkår. Visse former for indhold skal også overholde yderligere retningslinjer og politikker. For eksempel skal indhold, der sendes til algoritmisk anbefaling til et bredere publikum på vores offentlige sendeflader, opfylde de yderligere, højere standarder, der er angivet i vores indholdsretningslinjer for anbefalingsberettigelse, mens reklamer skal overholde vores annoncepolitik.
Vi håndhæver disse politikker ved hjælp af teknologi og menneskelig kontrol. Vi giver også Snapchattere mulighed for at rapportere overtrædelser, herunder ulovligt indhold og aktiviteter, direkte i appen eller via vores hjemmeside. Proaktive opdagelsesmekanismer og rapporter giver anledning til en gennemgang, som derefter udnytter en blanding af automatiserede værktøjer og menneskelige moderatorer til at træffe passende foranstaltninger i overensstemmelse med vores politikker.
Vi giver yderligere oplysninger om vores indholdsmoderation på vores offentlige overflader i H1 2024 nedenfor.
I overensstemmelse med DSA artikel 16 har Snap indført mekanismer, der gør det muligt for brugere og ikke-brugere at underrette Snap om tilstedeværelsen på Snapchat af specifikke elementer af information, som de anser for at være ulovligt indhold. Det kan de gøre ved at rapportere specifikke stykker indhold eller konti, enten direkte i Snapchat-appen eller på vores hjemmeside.
I løbet af rapporteringsperioden (H1 2024) modtog vi følgende meddelelser i henhold til DSA artikel 16 i EU:
Nedenfor giver vi en oversigt over, hvordan disse meddelelser blev behandlet - dvs. gennem en proces, der omfattede menneskelig gennemgang eller udelukkende automatiserede midler:
Ved indsendelse af meddelelser i appen eller via vores hjemmeside kan rapportører vælge en specifik rapporteringsårsag fra en menu med muligheder, der afspejler de kategorier af overtrædelser, der er anført i vores retningslinjer for brugerne (f.eks. hadefuld tale, brug eller salg af stoffer). Vores retningslinjer for brugerne forbyder indhold og aktiviteter, der er ulovlige i EU, så vores rapporteringsårsager afspejler i vid udstrækning specifikke kategorier af ulovligt indhold i EU. Men i det omfang en rapportør i EU mener, at det indhold eller den konto, de rapporterer, er ulovligt af årsager, der ikke specifikt er nævnt i vores rapporteringsmenu, kan de rapportere det som "andet ulovligt indhold" og får mulighed for at forklare, hvorfor de mener, at det, de rapporterer, er ulovligt.
Hvis vi efter gennemgang fastslår, at indberettet indhold eller konto overtræder vores retningslinjer for brugerne (herunder på grund af ulovlighed), kan vi (i) fjerne det krænkende indhold, (ii) advare den relevante kontoindehaver og anvende en strike mod kontoen og/eller (iii) låse den relevante konto, som yderligere forklaret i vores Snapchat Forklaring om moderation, håndhævelse og klager.
I H1 2024 foretog vi følgende håndhævelsesforanstaltninger efter modtagelse af meddelelser i henhold til DSA artikel 16 i EU:
I H1 2024 blev alle rapporter om "andet ulovligt indhold", som vi reagerede på, i sidste ende håndhævet i henhold til vores retningslinjer for brugerne, fordi vores retningslinjer for brugerne forbød det relevante indhold eller den relevante aktivitet. Vi har derfor kategoriseret disse håndhævelser under den relevante kategori af overtrædelse af retningslinjer for brugerne i tabellen ovenfor.
Ud over ovenstående håndhævelser kan vi gribe ind over for indhold, der er meddelt os i overensstemmelse med andre gældende Snap-politikker og -retningslinjer:
Med hensyn til indhold på vores offentlige sendeflader kan vi, hvis vi fastslår, at det rapporterede indhold ikke opfylder de højere standarder i vores indholdsretningslinjer for anbefalingsberettigelse, afvise indholdet til algoritmisk anbefaling (hvis indholdet ikke opfylder vores berettigelseskriterier), eller vi kan begrænse distributionen af indholdet for at udelukke følsomme målgrupper (hvis indholdet opfylder vores berettigelseskriterier for anbefaling, men på anden måde er følsomt eller suggestivt).
I H1 2024 foretog vi følgende handlinger vedrørende indhold på Snapchats offentlige sendeflader, der blev rapporteret til os i EU, i overensstemmelse med vores indholdsretningslinjer for anbefalingsberettigelse:
Hvis vi vurderer, at en indberettet annonce overtræder vores Annoncepolitik, kan vi fjerne den efter gennemgang.
I H1 2024 foretog vi følgende handlinger vedrørende reklamer, der blev rapporteret til os i EU:
Ud over at gennemgå meddelelser, der er indsendt i overensstemmelse med DSA artikel 16, modererer Snapchat på eget initiativ indhold på de offentlige overflader på Snapchat (f.eks. Spotlight, Udforsk). Nedenfor giver vi oplysninger om den indholdsmoderering, der er foretaget på Snaps eget initiativ, herunder brugen af automatiserede værktøjer, de foranstaltninger, der er truffet for at give uddannelse og hjælp til personer med ansvar for indholdsmoderering, og antallet og typerne af begrænsninger, der er pålagt som følge af disse proaktive indholdsmodereringsbestræbelser.
Brug af automatiserede værktøjer i Snaps moderation på eget initiativ
Vi anvender automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores vilkår og politikker på vores offentlige indholdsoverflader. Dette omfatter hash-matching-værktøjer (herunder PhotoDNA og Google CSAI Match), Abusive Language Detection-modeller (som registrerer og afviser indhold baseret på en identificeret og regelmæssigt opdateret liste over krænkende nøgleord og emojis) og kunstig intelligens / maskinlæringsteknologi. Vores automatiserede værktøjer er designet til at opdage overtrædelser af vores retningslinjer for fællesskabet (som blandt andet forbyder ulovligt indhold) og, hvor det er relevant, vores indholdsretningslinjer for anbefalingsberettigelse og annoncepolitik.
I H1 2024 blev al vores proaktive detektion udført ved hjælp af automatiserede værktøjer. Når vores automatiserede værktøjer opdager en potentiel overtrædelse af vores politikker, træffer de enten automatisk foranstaltninger i overensstemmelse med vores politikker, eller de opretter en opgave til menneskelig gennemgang. Antallet og typerne af restriktioner, der er indført som følge af denne proces, er beskrevet nedenfor.
Antal og typer af restriktioner indført på Snaps eget initiativ
I H1 2024 tog Snap følgende håndhævelsesforanstaltninger efter proaktivt at have opdaget, ved hjælp af automatiserede værktøjer, overtrædelser af vores retningslinjer for brugerne (herunder overtrædelser, der svarer til ulovligt indhold og aktiviteter i henhold til EU- og medlemsstatslovgivning):
Derudover tog vi i H1 2024, med hensyn til indhold på vores offentlige sendeflader, følgende handlinger efter proaktivt at have opdaget på Snapchat, ved brug af automatiserede værktøjer, overtrædelser af vores indholdsretningslinjer for anbefalingsberettigelse:
* Som det fremgår af vores Indholdsretningslinjer for anbefalingsberettigelse, kan konti, der gentagne gange eller groft overtræder vores indholdsretningslinjer for anbefalingsberettigelse, midlertidigt eller permanent udelukkes fra anbefalinger på vores offentlige sendeflader. Vi anvender denne handling i forbindelse med vores proaktive moderationsindsats.
I H1 2024 foretog vi desuden følgende handlinger efter proaktivt at have opdaget overtrædelser af vores annoncepolitik på Snapchat ved hjælp af automatiserede værktøjer:
Foranstaltninger, der er truffet for at give uddannelse og hjælp til personer med ansvar for indholdsmoderering
Vores indholdsmoderationsteams anvender vores politikker for indholdsmoderation for at hjælpe med at beskytte vores Snapchat-fællesskab. De bliver trænet over en periode på flere uger, hvor nye teammedlemmer bliver undervist i Snaps politikker, værktøjer og eskaleringsprocedurer. Vores moderationsteams deltager regelmæssigt i genopfriskningskurser, der er relevante for deres arbejdsgange, især når vi støder på sager, der er grænseoverskridende og kontekstafhængige. Vi kører også opkvalificeringsprogrammer, certificationssessioner og quizzer for at sikre, at alle moderatorer er ajourførte og i overensstemmelse med alle opdaterede politikker. Og til sidst, når presserende indholdstrends dukker op baseret på aktuelle begivenheder, formidler vi hurtigt afklaringer af politikken, så teams kan reagere i overensstemmelse med Snaps politikker.
Vi giver vores moderationsteams betydelig støtte og ressourcer, som inkluderer wellness-støtte på arbejdet og nem adgang til mentale sundhedstjenester.
Brugere, hvis konti er låst af vores sikkerhedsteams på grund af overtrædelser af retningslinjerne for brugerne (herunder for ulovligt indhold og ulovlige aktiviteter), kan indsende en appel om låst konto. Brugere kan også appellere visse beslutninger om indholdsmoderering.
I løbet af rapporteringsperioden (H1 2024) behandlede Snap følgende klager (herunder klager over både kontolåse og moderationsbeslutninger på indholdsniveau) indsendt via sine interne klagebehandlingssystemer i EU:
Kvalitativ beskrivelse og formål
Som forklaret ovenfor i afsnit 3(b) anvender vi automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores vilkår og politikker på vores offentlige indholdsoverflader. Dette omfatter hash-matching-værktøjer (herunder PhotoDNA og Google CSAI Match), Abuse Language Detection-modeller (som registrerer og afviser indhold baseret på en identificeret og regelmæssigt opdateret liste over krænkende nøgleord og emojis) og kunstig intelligens / maskinlæringsteknologi. Vores automatiserede værktøjer er designet til at opdage overtrædelser af vores retningslinjer for fællesskabet (som blandt andet forbyder ulovligt indhold) og, hvor det er relevant, vores indholdsretningslinjer for anbefalingsberettigelse og annoncepolitik.
Når vores automatiserede værktøjer opdager en potentiel overtrædelse af vores politikker, træffer de enten automatisk foranstaltninger i overensstemmelse med vores politikker, eller de opretter en opgave til menneskelig gennemgang.
Indikatorer for nøjagtighed og mulig fejlprocent, opdelt efter medlemsstat
Vi overvåger nøjagtigheden af vores automatiserede moderationsværktøjer ved at udvælge tilfældige prøver af opgaver, der er behandlet af vores automatiserede værktøjer på vores offentlige overflader, og sende dem til fornyet gennemgang af vores menneskelige moderationsteams. Nøjagtighedsgraden er den procentdel af opgaverne fra disse tilfældige stikprøver, der blev godkendt af vores menneskelige moderatorer ved fornyet gennemgang. Fejlprocenten er forskellen mellem 100 % og nøjagtighedsprocenten, der er beregnet som beskrevet ovenfor.
Baseret på stikprøver var indikatorerne for nøjagtigheden og den mulige fejlprocent for de anvendte automatiserede midler på tværs af alle kategorier af overtrædelser i H1 2024 ca. 93 %, og fejlprocenten var ca. 7 %.
Vi sporer generelt ikke sproget i det indhold, vi modererer på Snapchat, og kan derfor ikke give en oversigt over nøjagtigheden og fejlprocenterne for vores automatiserede modereringsværktøjer for hvert officielt sprog i medlemsstaterne. Som erstatning for disse oplysninger giver vi nedenfor en oversigt over vores nøjagtighed og fejlprocenter for automatisk modereret indhold, der stammer fra hver medlemsstat.
Sikkerhedsforanstaltninger
Vi er opmærksomme på den potentielle indvirkning af automatiserede moderationsværktøjer på grundlæggende rettigheder, og vi anvender sikkerhedsforanstaltninger for at minimere denne indvirkning.
Vores automatiserede indholdsmoderationsværktøjer testes, før de implementeres på Snapchat. Modellerne testes offline for ydeevne og implementeres via A/B-test for at sikre, at de fungerer korrekt, før de fases helt ind i produktionen. Vi gennemgår kvalitetssikringen (QA) før lanceringen, gennemgår lanceringen og foretager løbende præcise QA-tjek under delvise (faseopdelte) udrulninger.
Efter lanceringen af vores automatiserede værktøjer evaluerer vi løbende deres ydeevne og nøjagtighed og foretager justeringer efter behov. Denne proces indebærer, at vores menneskelige moderatorer gennemgår prøver af automatiserede opgaver for at identificere modeller, der kræver justeringer for at forbedre nøjagtigheden. Vi overvåger også forekomsten af specifikke skader på Snapchat via tilfældige daglige stikprøver af offentlige Historier og udnytter disse oplysninger til at identificere områder, der kan forbedres yderligere.
Vores politikker og systemer fremmer konsekvent og retfærdig håndhævelse, herunder af vores automatiserede værktøjer, og giver Snapchattere en mulighed for meningsfuldt at bestride håndhævelsesresultater gennem meddelelses- og appelprocesser, der har til formål at beskytte vores fællesskabs interesser og samtidig beskytte individuelle Snapchatter-rettigheder.
Vi bestræber os på løbende at forbedre vores automatiserede indholdsmodereringsværktøjer for at forbedre deres nøjagtighed og understøtte en konsekvent og retfærdig håndhævelse af vores politikker.
I rapporteringsperioden (H1 2024) var antallet af tvister, der blev forelagt formelt certificerede udenretslige tvistbilæggelsesorganer i overensstemmelse med DSA artikel 21, nul (0), og vi er ikke i stand til at give en opdeling, der afspejler resultater, medianafslutningstider eller andelen af tvister, hvor Snap implementerede afgørelserne fra et udenretsligt tvistbilæggelsesorgan.
Bemærk, at vi i H1 2024 modtog to (2) meddelelser om tvister, der blev indsendt til et organ, der søgte certificering som et udenretsligt tvistbilæggelsesorgan i henhold til DSA artikel 21. Vi medtog ikke disse tvister i ovenstående optælling, da det organ, der sendte disse meddelelser om tvister, ikke var i stand til at verificere deres certificeringsstatus på vores anmodning.
Suspensioner i henhold til artikel 23.1: suspension af konti, der ofte leverer åbenlyst ulovligt indhold
Som forklaret i vores Snapchat Moderation, Enforcement, and Appeals Explainer, bliver konti, som vi vurderer primært bruges til at overtræde vores retningslinjer for brugerne (herunder gennem levering af åbenlyst ulovligt indhold), og konti, der forvolder alvorlig skade, straks deaktiveret. For andre overtrædelser af vores retningslinjer for brugerne, anvender Snap generelt en tredelt håndhævelsesproces:
Første trin: Det krænkende indhold fjernes.
Trin to: Snapchatteren modtager en meddelelse om, at de har overtrådt vores retningslinjer for brugerne, at deres indhold er blevet fjernet, og at gentagne overtrædelser vil resultere i yderligere håndhævelsesforanstaltninger, herunder at deres konto bliver deaktiveret.
Trin tre: Vores team registrerer et angreb på Snapchatterens konto.
Oplysninger om antallet af strikes (dvs. advarsler) og låse, der i H1 2024 blev pålagt konti i EU i forbindelse med indhold eller aktiviteter på Snapchats offentlige flader, findes ovenfor i afsnit 3(a) og 3(b).
Suspensioner i henhold til artikel 23.2: suspension af behandlingen af meddelelser og klager fra enkeltpersoner, enheder og klagere, der ofte indsender meddelelser eller klager, der er åbenlyst ubegrundede
Ved at anvende vores interne definition af “åbenlyst ubegrundede” meddelelser og klager og vores interne tærskler for, hvad vi anser for at være hyppig indsendelse af sådanne meddelelser og klager, er antallet af suspensioner af behandlingen af meddelelser og klager, der blev pålagt i H1 2024 i henhold til DSA artikel 23.2, som følger:
Vores indholdsmoderationsteams arbejder over hele verden, så vi kan hjælpe med at holde Snapchatters sikre 24/7. Nedenfor kan du se fordelingen af vores menneskelige moderationsressourcer efter moderatorernes sprogspecialer (bemærk, at nogle moderatorer er specialiseret i flere sprog) pr. 30. juni 2024:
Ovenstående tabel omfatter alle menneskelige ressourcer, der er dedikeret til indholdsmoderering, og som understøtter de officielle sprog i EU's medlemsstater pr. 30. juni 2024. I situationer, hvor vi har brug for yderligere sprogsupport, bruger vi oversættelsestjenester.
Moderatorer rekrutteres ved hjælp af en standardjobbeskrivelse, der inkluderer et sprogkrav (afhængigt af behovet). Sprogkravet fastsætter, at ansøgeren skal kunne påvise sproglige evner i sproget i tale og på skrift og have mindst et års erhvervserfaring med stillinger på begynderniveau. Kandidater skal opfylde kravene til uddannelse og baggrund for at komme i betragtning. Ansøgere skal også påvise en forståelse af aktuelle begivenheder for det land eller det område inden for indholdsmoderation, de vil yde support til.
Se ovenfor for oplysninger om den uddannelse og støtte, som Snap giver til indholdsmoderatorer, hvilket er et særskilt krav i henhold til DSA artikel 15, stk. 1, litra c), og derfor medtaget i afsnit 3, litra b), i det sidste underafsnit med titlen: “Foranstaltninger truffet for at give uddannelse og bistand til personer med ansvar for indholdsmoderation”.
Baggrund
Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores retningslinjer for fællesskabet. Forebyggelse, opdagelse og udryddelse af CSEAI (Child Sexual Exploitation and Abuse Imagery), dvs. billeder af udnyttelse og mishandling af børn, på vores platform er en topprioritet for Snap, og vi udvikler hele tiden vores muligheder for at bekæmpe disse og andre forbrydelser.
Vi bruger PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match til at identificere hhv. kendte ulovlige billeder og videoer af seksuelt misbrug af børn og rapportere dem til U.S. National Center for Missing and Exploited Children (NCMEC), som loven kræver det. NCMEC koordinerer derefter, efter behov, med nationale eller internationale ordensmagter.
Rapport
Nedenstående data er baseret på resultatet af proaktiv scanning ved hjælp af PhotoDNA og/eller CSAI Match af medier, der er uploadet fra en brugers kamerarulle til Snapchat.
At stoppe seksuel udnyttelse af børn er en topprioritet. Snap bruger betydelige ressourcer på dette og har ingen tolerance for en sådan adfærd. Særlig uddannelse er påkrævet for at gennemgå CSE-anmeldelser, og der er et begrænset team af medarbejdere der håndterer disse anmeldelser på grund af indholdets grafiske karakter. I løbet af efteråret 2023 gennemførte Snap politiske ændringer, der påvirkede sammenhængen i visse håndhævelser og vi har behandlet disse uoverensstemmelser ved omskoling af medarbejdere og streng kvalitetssikring. Vi forventer, at den gennemsigtighedsrapport afslører fremskridt i retning af at forbedre svartiden for CSE-anmeldelser og forbedre præcisionen af de første håndhævelser.
Sikkerhedsforanstaltninger for indholdsmoderation
De sikkerhedsforanstaltninger, der anvendes til CSEA-mediescanning, er beskrevet i ovenstående afsnit "Sikkerhedsforanstaltninger for indholdsmoderation" under vores DSA-rapport.
Udgivet: 17. juni 2024
Sidst opdateret: 17. juni 2024
Denne gennemsigtighedsrapport offentliggøres i overensstemmelse med artikel 7, stk. 2 og 3, i Europa-Parlamentets og Rådets forordning 2021/784 om udbredelse af terrorrelateret onlineindhold (forordningen). Den dækker rapporteringsperioden 1. januar - 31. december 2023.
Artikel 7, stk. 3, litra a): oplysninger om hostingtjenesteyderens foranstaltninger i forbindelse med identifikation og fjernelse af eller deaktivering af adgang til terrorindhold
Artikel 7, stk. 3, litra b): oplysninger om hostingtjenesteyderens foranstaltninger til at imødegå, at materiale, der tidligere er blevet fjernet, eller hvortil adgangen er blevet deaktiveret, fordi det blev anset for at være terrorindhold, dukker op igen online, navnlig hvis der er anvendt automatiserede værktøjer
Det er forbudt for terrorister, terrororganisationer og voldelige ekstremister at bruge Snapchat. Indhold, der opfordrer til, promoverer, forherliger eller fremmer terrorisme eller andre voldelige, kriminelle handlinger, er forbudt i henhold til vores retningslinjer for brugerne. Brugere kan rapportere indhold, der overtræder vores retningslinjer for brugerne, via vores rapporteringsmenu i appen og vores supportside. Vi bruger også proaktiv detektion til at forsøge at identificere krænkende indhold på offentlige overflader som Spotlight og Udforsk.
Uanset hvordan vi bliver opmærksomme på krænkende indhold, gennemgår vores Trust & Safety-teams gennem en kombination af automatisering og menneskelig moderation straks identificeret indhold og træffer beslutninger om håndhævelse. Håndhævelse kan omfatte fjernelse af indholdet, advarsel eller låsning af den krænkende konto og, hvis det er berettiget, indberetning af kontoen til politiet. For at forhindre, at terroristisk eller andet voldeligt ekstremistisk indhold dukker op igen på Snapchat, tager vi, ud over at samarbejde med politiet, skridt til at blokere den enhed, der er forbundet med den krænkende konto, og forhindre brugeren i at oprette en anden Snapchat-konto.
Yderligere detaljer om vores foranstaltninger til at identificere og fjerne terrorindhold kan findes i vores Explainer om hadefuldt indhold, terrorisme og voldelig ekstremisme og vores Explainer om moderation, håndhævelse og appeller.
Artikel 7, stk. 3, litra c): antallet af elementer af terrorindhold, der er fjernet, eller hvortil adgangen er blevet deaktiveret efter påbud om fjernelse eller særlige foranstaltninger, og antallet af påbud om fjernelse, hvor indholdet ikke er blevet fjernet, eller hvortil adgangen ikke er blevet deaktiveret i henhold til artikel 3, stk. 7, første afsnit, og artikel 3, stk. 8, første afsnit, sammen med begrundelserne herfor
I løbet af rapporteringsperioden modtog Snap ingen udsendelsesordrer, og vi var heller ikke forpligtet til at gennemføre nogen specifikke foranstaltninger i henhold til artikel 5 i forordningen. Derfor var vi ikke forpligtet til at træffe håndhævelsesforanstaltninger i henhold til forordningen.
Følgende tabel beskriver håndhævelsesforanstaltninger, der er truffet på baggrund af brugerrapporter og proaktiv opdagelse af indhold og konti, både i EU og andre steder i verden, der overtrådte vores retningslinjer for brugerne vedrørende indhold om terrorisme og voldelig ekstremisme
Artikel 7, stk. 3, litra d): antallet og resultatet af klager, der er behandlet af hostingtjenesteyderen i overensstemmelse med artikel 10
Artikel 7, stk. 3, litra g): antallet af tilfælde, hvor hostingtjenesteyderen har genindsat indhold eller adgang hertil efter en klage fra indholdsleverandøren
Da vi ikke havde nogen håndhævelsesforanstaltninger i henhold til forordningen i rapporteringsperioden som nævnt ovenfor, behandlede vi ingen klager i henhold til artikel 10 i forordningen og havde ingen tilknyttede genindsættelser.
Følgende tabel indeholder oplysninger om appeller og genindsættelser, både i EU og andre steder i verden, der involverer terroristisk og voldeligt ekstremistisk indhold, som håndhæves i henhold til vores retningslinjer for brugerne.
Artikel 7, stk. 3, litra e): antallet og udfaldet af administrative eller retlige klagesager, som hostingtjenesteudbyderen har anlagt
Artikel 7, stk. 3, litra f): antallet af tilfælde, hvor hostingtjenesteudbyderen blev pålagt at genindsætte indhold eller adgang hertil som følge af en administrativ eller retslig prøvelsesprocedure.
Da vi ikke havde nogen håndhævelsesforanstaltninger i henhold til forordningen i rapporteringsperioden, som nævnt ovenfor, havde vi ingen tilknyttede administrative eller retslige procedurer, og vi var ikke forpligtet til at genindsætte indhold som følge af sådanne procedurer.
Denne rapport er udarbejdet for at overholde Snaps forpligtelser i henhold til artikel 34 og 35 i forordning (EU) 2022/2065 og indeholder resultaterne af vores vurdering af systemrisici, der stammer fra design, funktion og brug af Snapchats onlineplatforme, sammen med den metode, der er brugt til at vurdere disse risici, og de afhjælpende foranstaltninger, der er indført for at imødegå disse risici.
DSA-rapport om vurdering af risiko og afhjælpning | Snapchat | August 2023 (PDF)
Disse rapporter er udarbejdet for at overholde Snaps forpligtelser i henhold til artikel 37 i forordning (EU) 2022/2065 og indeholder: (i) resultaterne af den uafhængige revision af Snaps overholdelse af forpligtelserne i kapitel III i forordning (EU) 2022/2065 og (ii) de foranstaltninger, der er truffet for at gennemføre de operationelle anbefalinger fra denne uafhængige revision.
DSA's uafhængige revisionsrapport | Snapchat | August 2024 (PDF)
Rapport om gennemførelse af DSA-revision | Snapchat | September 2024 (PDF)
EU's VSP-praksiskodeks
Snap er en "videodelingsplatformtjeneste" ("VSP") i henhold til artikel 1, stk. 1, litra aa, i AVMSD. Denne Adfærdskodeks ("Kodeks") er udarbejdet for at beskrive, hvordan Snap overholder sine forpligtelser som en VSP under den hollandske Medielov ("DMA") og Direktiv (EU) 2010/13 (som ændret ved Direktiv (EU) 2018/1808 ("Audiovisuelle Medietjenestedirektiv" eller "AVMSD")). Kodekset gælder i hele Den Europæiske Union og Det Europæiske Økonomiske Samarbejdsområde.