EU
1. juli 2023 – 31. desember 2023

Utgitt:

25. april 2024

Oppdatert:

25. april 2024

Velkommen til EU (EU) åpenhetsside der vi publiserer EU-spesifikk informasjon som kreves av Digital Services Act (DSA), Audiovisuelle tjeneste Directive (AVMSD) og Duch Media Act (DMA).   Vær oppmerksom på at den mest oppdaterte versjonen av disse åpenhetsrapportene finnes i en-US-lokalitet.

Juridisk representant 

Snap Group Limited har utnevnt Snap B.V. som juridisk representant for DSA-formål. Du kan kontakte representanten på dsa-enquiries [at] snapchat.com for DSA på vsp-enquiries [at] snapchat.com for AVMSD og DMA via Supportnettsted [her] eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Hvis du er fra politet, følg trinnene som er skissert her.

Regulatoriske myndigheter

For DSA er vi regulert av Europakommisjonen, og nederlandske myndigheter for forbrukere og markeder (ACM).  Når det kommer til AVMSD og DMA er vi regulert av den nederlandske mediemyndighet (CvdM)

DSA åpenhetsrapport

Snap er pålagt i henhold til artikkel 15, 24 og 42 av DSA å publisere rapporter som inneholder foreskrevet informasjon om Snaps innholdsmoderasjon for Snapchats tjenester som anses som "online-plattformer," dvs. Spotlight, For deg, offentlige profiler, kart, Linser og annonsering. Denne rapporten må publiseres hver 6. måned, fra 25. oktober 2023.

Snap publiserer åpenhetsrapporter to ganger i året for å gi innsikt i Snaps sikkerhetsinnsats, samt typen og omfanget av innhold som blir rapportert på vår plattform. Vår seneste rapport for H2 2023 (1. juli til 31. desember) finner du her. Måltall spesifikke for Digital Services Act, finner du på denne siden.

Gjennomsnittlig antall aktive mottakere per måned 
(DSA-artikler 24.2 og 42.3)

Per 31. desember 2023 har vi gjennomsnittlig 90,9 millioner aktive mottakere per måned ("AMAR") av Snapchat-appen vår i EU. Dette betyr at det i gjennomsnitt i løpet av de siste seks månedene er blitt registrert 90,9 millioner brukere i EU som har åpnet Snapchat-appen minst én gang i løpet av en gitt måned.

Denne figuren viser følgende tall per medlemsland:

Disse tallene ble beregnet for å oppfylle gjeldende DSA-regler og bør kun brukes til DSA-formål. Beregningen av dette tallet har endret seg over tid, blant annet som svar på endringer av våre interne retningslinjer, regulatorisk veiledning og teknologi, og tallene skal ikke sammenlignes fra en periode til en annen. Dette kan også avvike fra beregningene som brukes for andre aktive brukertall som vi publiserer for andre formål.


Forespørsler fra medlemslandenes myndigheter
(DSA-artikkel 15.1(a))

Forespørsler om fjerning 

I løpet av denne perioden har vi mottatt 0 registrerte forespørsler om fjerning fra EUs medlemsland i henhold til DSA-artikkel 9. 

Forespørsler om informasjon 

I løpet av denne perioden har vi mottatt følgende forespørsler om informasjon fra EUs medlemsland i henhold til DSA-artikkel 10:

Median behandlingstid for å informere myndighetene om mottak av forespørsler om informasjon er 0 minutter – vi gir et automatisk svar som bekrefter mottak. Median behandlingstid for å behandle forespørsler om informasjon er ca. 10 dager. Denne beregningen gjenspeiler tidsperioden fra Snap mottar en IR til Snap mener at forespørselen er helt løst. I noen tilfeller avhenger lengden av denne prosessen delvis av hastigheten som politiet svarer på eventuelle forespørsler om avklaring fra Snap, som er nødvendig for å behandle forespørselen deres.

Innholdsmoderasjon 


Al innhold på Snapchat må overholde våre Samfunnsretningslinjer og Tjenestevilkår, samt tilhørende vilkår, retningslinjer og forklaringer. Proaktive deteksjonsmekanismer og rapporter om ulovlig innhold eller krenkende innhold eller kontoer utløser en gjennomgang, på hvilket tidspunkt våre systemer behandler forespørselen, samler relevante metadata og sender det relevante innholdet til moderasjonsteamet vårt via et strukturert brukergrensesnitt som er designet for å effektivisere gjennomgangen og gjøre operasjonene mer effektive. Når våre moderasjonsteam, enten gjennom menneskelig gjennomgang eller automatiserte midler, bestemmer at en bruker har brutt våre vilkår, kan vi fjerne det fornærmende innholdet eller kontoen, avslutte eller begrense synligheten till den relevante kontoen og/eller varsle politiet som forklart i Moderering, håndheving og klager på Snapchat.  Brukere som har kontoer som er låst av vårt sikkerhetsteam på grunn av brudd på Samfunnsretningslinjene, kan levere en appell for stengt kontoer, og brukere kan anke visse deler av håndhevelsen av regelverket.

Innhold og kontovarsler (DSA-artikkel 15.1(b))

Snap har innført mekanismer som tillater brukere og ikke-brukere å varsle Snap om innhold og kontoer som bryter med Samfunnsretningslinjer og Tjenestevilkår på plattformen vår, inkludert de de anser som ulovlige i henhold til DSA-artikkel 16.  Disse rapporteringsmekanismene er tilgjengelige i selve appen (dvs. rett fra innholdsdelen) og på nettstedet vårt.

I løpet av den aktuelle perioden mottok vi følgende innholds- og kontovarsler i EU:

I H2’23 håndterte vi 664 896 varsler utelukkende via automatiserte midler. Alle disse ble håndhevet mot Samfunnsretningslinjene våre fordi våre Samfunnsretningslinjer omslutter ulovlig innhold. 

I tillegg til brukergenerert innhold og kontoer modererer vi annonser hvis de bryter med retningslinjene på plattformen vår. Nedenfor er det totale antallet annonser som ble rapportert og fjernet i EU. 

Varsler for klarerte rapportører (Artikkel 15.1(b))

For perioden av vår nyeste åpenhetsrapport (H2 2023) var det ingen formelt utnevnte klarerte rapportører under DSA. Som et resultat av dette var antall varslinger sendt inn av slike klarerte rapportører null (0) i denne perioden.

Proaktiv innholdsmoderering (Artikkel 15.1(c))

I løpet av den aktuelle perioden håndhevet Snap følgende innhold og kontoer i EU etter å ha engasjert innholdsmoderering på eget initiativ:

Snap sine egne moderasjonsforsøk baserte seg på både menneskelig innsats og automatisering. På våre offentlige innholdsoverflater går innholdet generelt gjennom både automatisert moderasjon og menneskelig gjennomgang, før det kvalifiseres for distribusjon til et større publikum. Med automatiske verktøy, tenker vi på følgende:

  • Proaktiv deteksjon av ulovlig og krenkende innhold ved bruk av maskinlæring.

  • Hash-matching-verktøy (som PhotoDNA og Googles CSAI Match);

  • Deteksjon av fornærmende språk for å avvise innhold basert på en identifisert og regelmessig oppdatert liste over fornærmende nøkkelord, inkludert emojier


Klager (Artikkel 15.1(d))

I løpet av den aktuelle perioden behandlet Snap følgende innholds- og kontoanker i EU via sine interne klagebehandlingssystemer:


* Å stoppe seksuell utnyttelse av barn er en førsteprioritet. Snap bruker ressurser mot dette og har null toleranse for slik oppførsel.  For å vurdere CSE- anker må man være spesielt opplært, og det er et begrenset team av agenter som håndterer disse evalueringene på grunn av den grafiske naturen på innholdet.  I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Automatiserte midler for innholdsmoderasjon (Artikkel 15.1(d))

På våre offentlige innholdsoverflater går innholdet generelt gjennom både automatisert moderasjon og menneskelig gjennomgang, før det kvalifiseres for distribusjon til et større publikum. Med automatiske verktøy, tenker vi på følgende:

  • Proaktiv deteksjon av ulovlig og krenkende innhold ved bruk av maskinlæring.

  • Hash-matching-verktøy (som PhotoDNA og Googles CSAI Match).

  • Deteksjon av fornærmende språk for å avvise innhold basert på en identifisert og regelmessig oppdatert liste over fornærmende nøkkelord, inkludert emojier.


Nøyaktigheten av automatisert moderasjon for alle skader var ca 96,61 % og feilraten var ca 3,39 %.


Sikkerhetstiltak for innholdsmoderasjon (Artikler 15.1(d))

Vi anerkjenner at det finnes risiko forbundet med innholdsmoderasjon, inkludert risiko ved ytrings- og forsamlingsfriheter som kan være forårsaket av fordommer hos automatiserte og menneskelige moderatorer samt misbruk av rapporter, også fra regjeringer, politiske valgkretser eller velorganiserte enkeltpersoner. Snapchat er vanligvis ikke et sted for politisk eller aktivistisk innhold, spesielt ikke i de offentlige områdene våre. 


For å beskytte mot disse risikoene har Snap testing og opplæring på plass og har robuste, konsekvente prosedyrer for håndtering av rapporter om ulovlig eller brudd på innhold inkludert fra politi og myndigheter. Vi evaluerer og utvikler kontinuerlig algoritmene våre for innholdsmoderasjon. Selv om potensielle skader på ytringsfriheten er vanskelige å oppdage, kjenner vi ikke til noen betydelige problemer, og vi tilbyr arenaer hvor brukerne våre kan rapportere feil hvis de oppstår. 


Våre retningslinjer og systemer fremmer konsekvent og rettferdig håndhevelse, og som beskrevet ovenfor, gir vi Snapchattere en mulighet til å klage på resultater av tvister, gjennom varsel og klagesaksprosesser som tar sikte på å beskytte interessene til samfunnet vårt mens de beskytter individuelle Snapchattere sine rettigheter.

Vi streber kontinuerlig etter å forbedre retningslinjene og prosessene våre for håndheving og har gjort store fremskritt i bekjempelsen av potensielt skadelig og ulovlig innhold og aktiviteter på Snapchat. Dette gjenspeiles i en oppadgående trend i rapporteringen og håndhevingen som vises i vår åpenhetsrapport og reduserer prevalensrater for brudd Snapchat samlet.


Utenomrettslige forlik (Artikkel 24.1(a))

For perioden av vår siste Åpenhetsrapport (H2 2023) var det ingen formelt utnevnte utenomrettslige forlik under DSA. Som et resultat av dette var antall tvister sendt til slike organer null (0) i denne perioden, og vi kan ikke gi resultater, mediane behandlingstider for forlik og andelen tvister der vi implementerte avgjørelser av kroppen. 



Kontosuspensjoner (Artikkel 24.1(a))

I løpet av H2 2023 hadde vi ingen kontosuspensjoner pålagt i henhold til Artikkel 23. Snaps Tillit & Sikkerhetsteam har prosedyrer på plass for å begrense muligheten for brukerkontoer til ofte å sende inn meldinger eller klager som åpenbart er ubegrunnet. Disse prosedyrene inkluderer å begrense duplikater av rapporter og bruk av e-post filtre for å hindre brukere som ofte har sendt inn åpenbart ubegrunnede rapporter fra å fortsette å gjøre det. Snap bruker passende håndheving mot kontoer som forklart i Snapchat Moderasjon, Håndhevelse og Klage- håndbok og informasjon om nivået av Snap sin kontohåndhevelse kan bli funnet i Åpenhetsrapport (H2 2023). Slike tiltak vil fortsette å bli gjennomgått og repetert.


Moderatorressurser, Ekspertise og Støtte (Artikkel 42.2)

Innholdsmodereringsteamet vårt opererer over hele verden, og gjør det mulig for oss å bidra til å holde Snapchattere trygge døgnet rundt. Nedenfor finner du nedbrytningen av våre menneskelige ressurser av moderatorer sine språkspesialiteter (merk at noen moderatorer spesialiserer seg på flere språk) per 31. desember 2023:

Tabellen ovenfor inkluderer alle moderatorer Support som støtter EU per 31. desember 2023. I situasjoner der vi har behov for ekstra språkstøtte, tar vi i bruk oversettingstjenester.

Moderatorer rekrutteres gjennom en standard stillingsbeskrivelse som inneholder et språkkrav (avhengig av behovet). Språkkravet angir at kandidaten må kunne beherske språket flytende både skriftlig og muntlig, og ha minst ett års arbeidserfaring for førstegangsstillinger. Kandidater må oppfylle de pedagogiske bakgrunn krav for å vurderes. Kandidatene må også vise forståelse for aktuelle hendelser i landet eller området de skal bidra med innholdsmoderasjon i. 

Moderasjonsteamet vårt tar i bruk retningslinjene og tiltakene våre for håndhevelse for å bidra med å beskytte Snapchat-felleskapet vårt. Opplæringen foregår i en periode på flere uker, der nye teammedlemmer undervises om Snaps retningslinjer, verktøy og eskaleringsprosedyrer. Etter opplæringen må alle moderatorer bestå en sertifiseringseksamen før de får lov til å gjennomgå innhold. Moderasjonsteamet vårt deltar regelmessig på oppfriskningskurs som er relevante for arbeidsflytene deres, spesielt når vi møter saker som angår retningslinjene og er kontekstavhengige. Vi foretar også ferdighetsforbedrende programmer, sertifiseringssesjoner og quizer for å sikre at alle moderatorer er oppdaterte og i samsvar med alle oppdaterte retningslinjer. Til slutt, når det dukker opp viktige innholdstrender ut ifra gjeldende hendelser, sprer vi raskt avklaringer om retningslinjer slik at teamene er i stand til å respondere i henhold til Snaps retningslinjer.

Vi tilbyr innholdsmoderasjonsteamet vårt – Snaps "første digitale tilbakemeldere" – betydningsfull støtte og ressurser, inkludert helsestøtte på jobb og lett tilgang til psykisk helsehjelp. 

Barn seksuell utnyttelse og misbruk (CSEA) Media rapportere


bakgrunn

Seksuell utnyttelse av ethvert medlem av samfunnet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til Samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse av barn (CSEA) på plattformen vår er en topp prioritet for oss, og vi utvikler kontinuerlig kapasiteten vår for å bekjempe disse og andre typer forbrytelser.


Vi bruker PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere kjente ulovlige bilder og videoer av seksuelt overgrep, og rapportere dem til det amerikanske National for manglende og utnyttede barn (NCMEC), som kreves av loven. NCMEC koordinerer deretter med nasjonal eller internasjonal rettshåndhevelse, etter behov.


rapportere

Nedenfor data er basert på resultatet av proaktiv skanning ved å bruke PhotoDNA og/eller CSAI Match av medier lastet opp av en brukers kamerarull Snapchat .

Å stoppe barn seksuell utnyttelse er topp prioritet. Snap bruker ressurser mot dette og har null toleranse for slik oppførsel.  For å vurdere CSE- anker må man være spesielt opplært, og det er et begrenset team av agenter som håndterer disse evalueringene på grunn av den grafiske naturen på innholdet.  I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Innhold moderasjon sikringstiltak

Sikkerhetsvaktene som er søkt om CSEA Media Scanning er angitt i avsnittet ovenfor «Content moderation Safeguards» under DSA vår.


Barn seksuell utnyttelse og misbruk (CSEA) Media rapportere


bakgrunn

Seksuell utnyttelse av ethvert medlem av samfunnet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til Samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse av barn (CSEA) på plattformen vår er en topp prioritet for oss, og vi utvikler kontinuerlig kapasiteten vår for å bekjempe disse og andre typer forbrytelser.


Vi bruker PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere kjente ulovlige bilder og videoer av seksuelt overgrep, og rapportere dem til det amerikanske National for manglende og utnyttede barn (NCMEC), som kreves av loven. NCMEC koordinerer deretter med nasjonal eller internasjonal rettshåndhevelse, etter behov.


rapportere

Nedenfor data er basert på resultatet av proaktiv skanning ved å bruke PhotoDNA og/eller CSAI Match av medier lastet opp av en brukers kamerarull Snapchat .

Å stoppe barn seksuell utnyttelse er topp prioritet. Snap bruker ressurser mot dette og har null toleranse for slik oppførsel.  For å vurdere CSE- anker må man være spesielt opplært, og det er et begrenset team av agenter som håndterer disse evalueringene på grunn av den grafiske naturen på innholdet.  I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Innhold moderasjon sikringstiltak

Sikkerhetsvaktene som er søkt om CSEA Media Scanning er angitt i avsnittet ovenfor «Content moderation Safeguards» under DSA vår.


Å stoppe barn seksuell utnyttelse er topp prioritet. Snap bruker ressurser mot dette og har null toleranse for slik oppførsel.  For å vurdere CSE- anker må man være spesielt opplært, og det er et begrenset team av agenter som håndterer disse evalueringene på grunn av den grafiske naturen på innholdet.  I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Innhold moderasjon sikringstiltak

Sikkerhetsvaktene som er søkt om CSEA Media Scanning er angitt i avsnittet ovenfor «Content moderation Safeguards» under DSA vår.