EU
1. juli 2023 – 31. desember 2023

Utgitt:

25. april 2024

Oppdatert:

25. april 2024

Velkommen til EUs (Den europeiske union) åpenhetsside der vi publiserer EU-spesifikk informasjon som kreves av forordningen om digitale tjenester (DSA), direktivet for audiovisuelle medietjenester (AMTD), den nederlandske medieloven (DMA) og TCO-forordningen (terrorrelatert innhold på internett). Vær oppmerksom på at den mest oppdaterte versjonen av disse åpenhetsrapportene finnes i den en-US språkversjonen.

Juridisk representant 

Snap Group Limited har utnevnt Snap B.V. som juridisk representant for DSA-formål. Du kan kontakte representanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AMTD og DMA via støttesiden [her] eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Hvis du er fra politiet, følg trinnene som er skissert her.

Hold dialogen på nederlandsk eller engelsk når du kontakter oss.

Regulatoriske myndigheter

For DSA er vi regulert av Europakommisjonen, og nederlandske myndigheter for forbrukere og markeder (ACM). Når det kommer til AMTD og DMA er vi regulert av den nederlandske mediemyndigheten (CvdM). For TCO reguleres vi av den nederlandske myndigheten for forebygging av terrormateriale og materiale som inneholder seksuell misbruk av barn på nett (ATKM).

DSA åpenhetsrapport

Snap er pålagt i henhold til artikkel 15, 24 og 42 av DSA å publisere rapporter som inneholder foreskrevet informasjon om Snaps innholdsmoderasjon for Snapchats tjenester som anses som «online-plattformer,» dvs. Spotlight, For deg, offentlige profiler, kart, Linser og annonsering. Denne rapporten må publiseres hver 6. måned, fra 25. oktober 2023.

Snap publiserer åpenhetsrapporter to ganger i året for å gi innsikt i Snaps sikkerhetsinnsats, samt typen og omfanget av innhold som blir rapportert på vår plattform. Den siste rapporten vår for H2 2023 (1. juli til 31. desember) er tilgjengelig her (med tall-oppdateringer om gjennomsnittlig antall aktive mottakere per måned fra 1. august 2024 – se nederst på denne siden). Måltall spesifikke for forordningen om digitale tjenester, finner du på denne siden.

Gjennomsnittlig antall aktive mottakere per måned 
(DSA-artikler 24.2 og 42.3)

Per 31. desember 2023 har vi gjennomsnittlig 90,9 millioner aktive mottakere per måned («AMAR») av Snapchat-appen vår i EU. Dette betyr at det i gjennomsnitt i løpet av de siste seks månedene er blitt registrert 90,9 millioner brukere i EU som har åpnet Snapchat-appen minst én gang i løpet av en gitt måned.

Denne figuren viser følgende tall per medlemsland:

Disse tallene ble beregnet for å oppfylle gjeldende DSA-regler og bør kun brukes til DSA-formål. Beregningen av dette tallet har endret seg over tid, blant annet som svar på endringer av våre interne retningslinjer, regulatorisk veiledning og teknologi, og tallene skal ikke sammenlignes fra en periode til en annen. Dette kan også avvike fra beregningene som brukes for andre aktive brukertall som vi publiserer for andre formål.


Forespørsler fra medlemslandenes myndigheter
(DSA-artikkel 15.1(a))

Forespørsler om fjerning 

I løpet av denne perioden har vi mottatt 0 registrerte forespørsler om fjerning fra EUs medlemsland i henhold til DSA-artikkel 9. 

Forespørsler om informasjon 

I løpet av denne perioden har vi mottatt følgende forespørsler om informasjon fra EUs medlemsland i henhold til DSA-artikkel 10:

Median behandlingstid for å informere myndighetene om mottak av forespørsler om informasjon er 0 minutter – vi gir et automatisk svar som bekrefter mottak. Median behandlingstid for å behandle forespørsler om informasjon er ca. 10 dager. Denne beregningen gjenspeiler tidsperioden fra Snap mottar en IR til Snap mener at forespørselen er helt løst. I noen tilfeller avhenger lengden av denne prosessen delvis av hastigheten som politiet svarer på eventuelle forespørsler om avklaring fra Snap, som er nødvendig for å behandle forespørselen deres.

Innholdsmoderasjon 


Al innhold på Snapchat må overholde våre Samfunnsretningslinjer og Tjenestevilkår, samt tilhørende vilkår, retningslinjer og forklaringer. Proaktive deteksjonsmekanismer og rapporter om ulovlig innhold eller krenkende innhold eller kontoer utløser en gjennomgang, på hvilket tidspunkt våre systemer behandler forespørselen, samler relevante metadata og sender det relevante innholdet til moderasjonsteamet vårt via et strukturert brukergrensesnitt som er designet for å effektivisere gjennomgangen og gjøre operasjonene mer effektive. Når våre moderasjonsteam, enten gjennom menneskelig gjennomgang eller automatiserte midler, bestemmer at en bruker har brutt våre vilkår, kan vi fjerne det fornærmende innholdet eller kontoen, avslutte eller begrense synligheten till den relevante kontoen og/eller varsle politiet som forklart i Moderering, håndheving og klager på Snapchat.  Brukere som har kontoer som er låst av vårt sikkerhetsteam på grunn av brudd på Samfunnsretningslinjene, kan levere en appell for stengt kontoer, og brukere kan anke visse deler av håndhevelsen av regelverket.

Innhold og kontovarsler (DSA-artikkel 15.1(b))

Snap har innført mekanismer som tillater brukere og ikke-brukere å varsle Snap om innhold og kontoer som bryter med Samfunnsretningslinjer og Tjenestevilkår på plattformen vår, inkludert de de anser som ulovlige i henhold til DSA-artikkel 16.  Disse rapporteringsmekanismene er tilgjengelige i selve appen (dvs. rett fra innholdsdelen) og på nettstedet vårt.

I løpet av den aktuelle perioden mottok vi følgende innholds- og kontovarsler i EU:

I H2’23 håndterte vi 664 896 varsler utelukkende via automatiserte midler. Alle disse ble håndhevet mot Samfunnsretningslinjene våre fordi våre Samfunnsretningslinjer omslutter ulovlig innhold. 

I tillegg til brukergenerert innhold og kontoer modererer vi annonser hvis de bryter med retningslinjene på plattformen vår. Nedenfor er det totale antallet annonser som ble rapportert og fjernet i EU. 

Varsler for klarerte rapportører (Artikkel 15.1(b))

For perioden av vår nyeste åpenhetsrapport (H2 2023) var det ingen formelt utnevnte klarerte rapportører under DSA. Som et resultat av dette var antall varslinger sendt inn av slike klarerte rapportører null (0) i denne perioden.

Proaktiv innholdsmoderering (Artikkel 15.1(c))

I løpet av den aktuelle perioden håndhevet Snap følgende innhold og kontoer i EU etter å ha engasjert innholdsmoderering på eget initiativ:

Snap sine egne moderasjonsforsøk baserte seg på både menneskelig innsats og automatisering. På våre offentlige innholdsoverflater går innholdet generelt gjennom både automatisert moderasjon og menneskelig gjennomgang, før det kvalifiseres for distribusjon til et større publikum. Med automatiske verktøy, tenker vi på følgende:

  • Proaktiv deteksjon av ulovlig og krenkende innhold ved bruk av maskinlæring.

  • Hash-matching-verktøy (som PhotoDNA og Googles CSAI Match);

  • Deteksjon av fornærmende språk for å avvise innhold basert på en identifisert og regelmessig oppdatert liste over fornærmende nøkkelord, inkludert emojier


Klager (Artikkel 15.1(d))

I løpet av den aktuelle perioden behandlet Snap følgende innholds- og kontoanker i EU via sine interne klagebehandlingssystemer:


* Å stoppe seksuell utnyttelse av barn er en førsteprioritet. Snap bruker betydelige ressurser mot dette og har null toleranse for slik oppførsel.  Det kreves spesialopplæring for å vurdere CSE-anker, og det finnes et begrenset team med agenter som håndterer disse evalueringene på grunn av innholdets grafiske karakter. I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsistensen av visse CSE håndhevelse, og vi har håndtert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE anker og forbedre presisjonen av innledende gjennomføring. 

Automatiserte midler for innholdsmoderering (artikkel 15.1(e))

På våre offentlige innholdssider går innholdet vanligvis gjennom både automatisert moderasjon og menneskelig gjennomgang, før det godkjennes for distribusjon til et større publikum. Med automatiske verktøy, tenker vi på følgende:

  • Proaktiv deteksjon av ulovlig og krenkende innhold ved bruk av maskinlæring;

  • Hash-matching-verktøy (som PhotoDNA og Googles CSAI Match);

  • Deteksjon av fornærmende språk for å avvise innhold basert på en identifisert og regelmessig oppdatert liste over fornærmende nøkkelord, inkludert emojier.


Nøyaktigheten av automatisert moderasjon for alle skader var ca 96,61 % og feilraten var ca 3,39 %.


Sikkerhetstiltak for innholdsmoderering (artikler 15.1(e))

Vi anerkjenner at det finnes risiko forbundet med innholdsmoderasjon, inkludert risiko ved ytrings- og forsamlingsfriheter som kan være forårsaket av fordommer hos automatiserte og menneskelige moderatorer samt misbruk av rapporter, også fra myndigheter, politiske grupperinger eller velorganiserte enkeltpersoner. Snapchat er vanligvis ikke et sted for politisk eller aktivistisk innhold, spesielt ikke i de offentlige områdene våre. 


Allikevel, for å beskytte mot disse risikoene, har Snap testing og opplæring på plass og har robuste, konsekvente prosedyrer for håndtering av rapporter om ulovlig eller brudd på innhold inkludert fra politi og myndigheter. Vi evaluerer og utvikler algoritmene våre for innholdsmoderasjon kontinuerlig. Selv om potensielle skader på ytringsfriheten er vanskelige å oppdage, kjenner vi ikke til noen betydelige problemer, og vi tilbyr arenaer hvor brukerne våre kan rapportere feil hvis de oppstår. 


Våre retningslinjer og systemer fremmer konsekvent og rettferdig håndhevelse, og som beskrevet ovenfor, gir vi Snapchattere en mulighet til å klage på resultater av tvister, gjennom varsel og klagesaksprosesser som tar sikte på å beskytte interessene til felleskapet vårt mens de beskytter individuelle Snapchattere sine rettigheter.

Vi streber kontinuerlig etter å forbedre retningslinjene og prosessene våre for håndheving og har gjort store fremskritt i bekjempelsen av potensielt skadelig og ulovlig innhold og aktiviteter på Snapchat. Dette gjenspeiles i en oppadgående trend i rapporteringen og håndhevingen som vises i vår Åpenhetsrapport og reduserer prevalensrater for brudd Snapchat samlet.


Utenomrettslige oppgjør (Artikkel 24.1(a))

For perioden av vår siste Åpenhetsrapport (H2 2023) var det ingen formelt utnevnte utenomrettslige oppgjør under DSA. Som et resultat av dette var antallet tvister som ble sendt til slike organer null (0) i denne perioden, og vi er ikke i stand til å oppgi utfall, median behandlingstid for oppgjør og andelen av tvister der vi iverksatte organets avgjørelser.



Kontosuspensjoner (artikkel 24.1(b))

I løpet av H2 2023 hadde vi ingen kontosuspensjoner pålagt i henhold til artikkel 23. Snaps Tillit & Sikkerhetsteam har prosedyrer på plass for å begrense muligheten for brukerkontoer til ofte å sende inn meldinger eller klager som åpenbart er ubegrunnet. Disse prosedyrene inkluderer å begrense duplikater av rapporter og bruk av e-post filtre for å hindre brukere som ofte har sendt inn åpenbart ubegrunnede rapporter fra å fortsette å gjøre det. Snap bruker passende håndheving mot kontoer, som forklart i Snapchat Moderasjon, Håndhevelse og Klage-håndbok, og informasjon om nivået av Snap sin kontohåndhevelse kan bli funnet i vår Åpenhetsrapport (H2 2023). Slike tiltak vil fortsette å bli gjennomgått og repetert.


Moderatorressurser, Ekspertise og Støtte (Artikkel 42.2)

Innholdsmodereringsteamet vårt opererer over hele verden, og gjør det mulig for oss å bidra til å holde Snapchattere trygge døgnet rundt. Nedenfor finner du oversikten over de menneskelige moderatorressursene våre fordelt på moderatorenes språkspesialiteter (merk at noen moderatorer spesialiserer seg på flere språk) per 31. desember 2023:

Tabellen ovenfor inkluderer alle moderatorer Support som støtter EU per 31. desember 2023. I situasjoner der vi har behov for ekstra språkstøtte, tar vi i bruk oversettingstjenester.

Moderatorer rekrutteres gjennom en standard stillingsbeskrivelse som inneholder et språkkrav (avhengig av behovet). Språkkravet angir at kandidaten må kunne beherske språket flytende både skriftlig og muntlig, og ha minst ett års arbeidserfaring for førstegangsstillinger. Kandidater må oppfylle de pedagogiske bakgrunn krav for å vurderes. Kandidatene må også vise forståelse for aktuelle hendelser i landet eller området de skal bidra med innholdsmoderasjon i. 

Moderasjonsteamet vårt tar i bruk retningslinjene og tiltakene våre for håndhevelse for å bidra med å beskytte Snapchat-felleskapet vårt. Opplæringen foregår i en periode på flere uker, der nye teammedlemmer undervises om Snaps retningslinjer, verktøy og eskaleringsprosedyrer. Etter opplæringen må alle moderatorer bestå en sertifiseringseksamen før de får lov til å gjennomgå innhold. Moderasjonsteamet vårt deltar regelmessig på oppfriskningskurs som er relevante for arbeidsflytene deres, spesielt når vi møter saker som angår retningslinjene og er kontekstavhengige. Vi foretar også ferdighetsforbedrende programmer, sertifiseringssesjoner og quizer for å sikre at alle moderatorer er oppdaterte og i samsvar med alle oppdaterte retningslinjer. Til slutt, når det dukker opp viktige innholdstrender ut ifra gjeldende hendelser, sprer vi raskt avklaringer om retningslinjer slik at teamene er i stand til å respondere i henhold til Snaps retningslinjer.

Vi tilbyr innholdsmoderasjonsteamet vårt – Snaps "første digitale tilbakemeldere" – betydningsfull støtte og ressurser, inkludert helsestøtte på jobb og lett tilgang til psykisk helsehjelp. 

Barn seksuell utnyttelse og misbruk (CSEA) Media rapportere


bakgrunn

Seksuell utnyttelse av ethvert medlem av samfunnet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til Samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse av barn (CSEA) på plattformen vår er en topp prioritet for oss, og vi utvikler kontinuerlig kapasiteten vår for å bekjempe disse og andre typer forbrytelser.


Vi bruker PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere kjente ulovlige bilder og videoer av seksuelt overgrep, og rapportere dem til det amerikanske National for manglende og utnyttede barn (NCMEC), som kreves av loven. NCMEC koordinerer deretter med nasjonal eller internasjonal rettshåndhevelse, etter behov.


rapportere

Nedenfor data er basert på resultatet av proaktiv skanning ved å bruke PhotoDNA og/eller CSAI Match av medier lastet opp av en brukers kamerarull Snapchat .

Å stoppe barn seksuell utnyttelse er topp prioritet. Snap bruker ressurser mot dette og har null toleranse for slik oppførsel.  For å vurdere CSE- anker må man være spesielt opplært, og det er et begrenset team av agenter som håndterer disse evalueringene på grunn av den grafiske naturen på innholdet.  I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Innhold moderasjon sikringstiltak

Sikkerhetsvaktene som er søkt om CSEA Media Scanning er angitt i avsnittet ovenfor «Content moderation Safeguards» under DSA vår.


Barn seksuell utnyttelse og misbruk (CSEA) Media rapportere


bakgrunn

Seksuell utnyttelse av ethvert medlem av samfunnet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til Samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse av barn (CSEA) på plattformen vår er en topp prioritet for oss, og vi utvikler kontinuerlig kapasiteten vår for å bekjempe disse og andre typer forbrytelser.


Vi bruker PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere kjente ulovlige bilder og videoer av seksuelt overgrep, og rapportere dem til det amerikanske National for manglende og utnyttede barn (NCMEC), som kreves av loven. NCMEC koordinerer deretter med nasjonal eller internasjonal rettshåndhevelse, etter behov.


rapportere

Nedenfor data er basert på resultatet av proaktiv skanning ved å bruke PhotoDNA og/eller CSAI Match av medier lastet opp av en brukers kamerarull Snapchat .

Å stoppe barn seksuell utnyttelse er topp prioritet. Snap bruker ressurser mot dette og har null toleranse for slik oppførsel.  For å vurdere CSE- anker må man være spesielt opplært, og det er et begrenset team av agenter som håndterer disse evalueringene på grunn av den grafiske naturen på innholdet.  I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Innhold moderasjon sikringstiltak

Sikkerhetsvaktene som er søkt om CSEA Media Scanning er angitt i avsnittet ovenfor «Content moderation Safeguards» under DSA vår.


Å stoppe barn seksuell utnyttelse er topp prioritet. Snap bruker ressurser mot dette og har null toleranse for slik oppførsel.  For å vurdere CSE- anker må man være spesielt opplært, og det er et begrenset team av agenter som håndterer disse evalueringene på grunn av den grafiske naturen på innholdet.  I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Innhold moderasjon sikringstiltak

Sikkerhetsvaktene som er søkt om CSEA Media Scanning er angitt i avsnittet ovenfor «Content moderation Safeguards» under DSA vår.


EU DSA: gjennomsnittlige månedlige aktive mottakere (august 2024)
(DSA-artikler 24.2 og 42.3)

1. august 2024 hadde vi 92,4 millioner gjennomsnittlige månedlige aktive mottakere («AMAR») i Snapchat-appen vår i EU. Dette betyr at det, i gjennomsnitt i løpet av de siste seks månedene, er blitt registrert 92,4 millioner brukere i EU som har åpnet Snapchat-appen minst én gang i løpet av en gitt måned.

Denne figuren viser følgende tall per medlemsland: