EU
Sist oppdatert: 7. februar 2024

Velkommen til EU (EU) åpenhetsside der vi publiserer EU-spesifikk informasjon som kreves av EUs Digital Services Act (DSA), Audiovisuelle tjeneste Directive (AVMSD) og Duch Media Act (DMA).  

Gjennomsnittlig antall aktive mottakere per måned 

Per 1. august 2023 har vi 102 millioner gjennomsnittlige månedlige aktive mottakere per måned ("AMAR") av Snapchat-appen vår i EU. Dette betyr at det i gjennomsnitt i løpet av de siste seks månedene er blitt registrert 102 millioner brukere i EU som har åpnet Snapchat-appen minst én gang i løpet av en gitt måned.

Denne figuren viser følgende tall per medlemsland:

Disse tallene ble beregnet for å oppfylle gjeldende DSA-regler og bør kun brukes til DSA-formål. Vi kan endre hvordan vi beregner denne figuren over tid, inkludert som svar på endringer i regulatoriske retningslinjer og teknologi. Dette kan også avvike fra beregningene som brukes for andre aktive brukertall som vi publiserer for andre formål.

Juridisk representant 

Snap Snap Group Limited har utnevnt Snap B.V. som sin juridiske representant Du kan kontakte representanten på dsa-enquiries [at] snapchat.com for DSA på vsp-enquiries [at] snapchat.com for AVMSD og DMA via Supportnettsted [her] eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Hvis du er fra politet, følg trinnene som er skissert her.

Regulatoriske myndigheter

For DSA er vi regulert av Europakommisjonen, og nederlandske myndigheter for forbrukere og markeder (ACM). 

Når det kommer til AVMSD og DMA er vi regulert av den nederlandske mediemyndighet (CvdM).

DSA åpenhetsrapport

Snap er pålagt i henhold til artikkel 15, 24 og 42 av DSA å publisere rapporter som inneholder foreskrevet informasjon om Snaps innholdsmoderasjon for Snapchats tjenester som anses som "online-plattformer," dvs. Spotlight, For deg, offentlige profiler, kart, Linser og annonsering. Denne rapporten må publiseres hver 6. måned, fra 25. oktober 2023.

Snap publiserer åpenhetsrapporter to ganger i året for å gi innsikt i Snaps sikkerhetsinnsats, samt typen og omfanget av innhold som blir rapportert på vår plattform. Vår seneste rapport for H1 2023 (1. januar - 30. juni) finner du her. Rapporten inneholder følgende informasjon:

  • Forespørsler fra myndighetene som inkluderer forespørsler om informasjon og fjerning av innhold; 

  • Innholdsbrudd, som inkluderer tiltak tatt i forhold til ulovlig innhold og median responstid; 

  • Klager som mottas og håndteres gjennom vår interne klageprosess.

Disse delene er relevante for informasjonen som kreves i henhold til Artikkel 15.1(a), (b) og (d) av DSA. Merk at de ennå ikke inneholder et komplett datasett fordi den seneste rapporten dekker H1 2023, som er før DSA trådte i kraft. 

Vi gir nedenfor noen tilleggsinformasjon om aspekter som ikke dekkes av åpenhetsrapporten vår for H1 2023:

Innholdsmoderasjon (Artikkel 15.1(c) og (e), Artikkel 42.2)

Alt innhold på Snapchat må overholde våre Samfunnsretningslinjer og Tjenestevilkår samt tilhørende vilkår, retningslinjer og forklaringer. Proaktive deteksjonsmekanismer og rapporter om ulovlig innhold eller krenkende innhold eller kontoer utløser en gjennomgang, på hvilket tidspunkt våre systemer behandler forespørselen, samler relevante metadata og sender det relevante innholdet til moderasjonsteamet vårt via et strukturert brukergrensesnitt som er designet for å effektivisere gjennomgangen og gjøre operasjonene mer effektive. Når våre moderasjonsteam, enten gjennom menneskelig gjennomgang eller automatiserte midler, bestemmer at en bruker har brutt våre vilkår, kan vi fjerne det fornærmende innholdet eller kontoen, avslutte eller begrense synligheten till den relevante kontoen og/eller varsle politiet som forklart i Moderering, håndheving og klager på Snapchat.  Brukere som har kontoer som er låst av vårt sikkerhetsteam på grunn av brudd på Samfunnsretningslinjene, kan levere en appell for stengt kontoer, og brukere kan anke visse deler av håndhevelsen av regelverket.

Automatiserte verktøy for innholdsmoderasjon

På våre offentlige innholdsoverflater går innholdet generelt gjennom både automatisert moderasjon og menneskelig gjennomgang, før det kvalifiseres for distribusjon til et større publikum. Med automatiske verktøy, tenker vi på følgende:

  • Proaktiv deteksjon av ulovlig og krenkende innhold ved bruk av maskinlæring.

  • Hash-matching-verktøy (som PhotoDNA og Googles CSAI Match).

  • Deteksjon av fornærmende språk for å avvise innhold basert på en identifisert og regelmessig oppdatert liste over fornærmende nøkkelord, inkludert emojier.

I tidsperioden for den forrige åpenhetsrapporten vår (H1 2023) var det ingen krav om å samle formelle indikatorer/ feilfrekvenser for disse automatiserte systemene. Vi overvåker imidlertid regelmessig disse systemene for problemer og våre menneskelige moderatorer blir jevnlig vurdert for nøyaktighet.


Menneskelig moderering

Innholdsmodereringsteamet vårt opererer over hele verden, og gjør det mulig for oss å bidra til å holde Snapchattere trygge døgnet rundt. Nedenfor finner du oversikt over våre ressurser for menneskelig moderering basert på moderatorenes språk, (merk at noen moderatorer spesialiserer seg på flere språk) per august 2023:

Tallene ovenfor varierer ofte når vi ser innkommende trender for volum eller innsendinger per språk/land. I situasjoner der vi har behov for ekstra språkstøtte, tar vi i bruk oversettingstjenester.

Moderatorer rekrutteres gjennom en standard stillingsbeskrivelse som inneholder et språkkrav (avhengig av behovet). Språkkravet angir at kandidaten må kunne beherske språket flytende både skriftlig og muntlig, og ha minst ett års arbeidserfaring for førstegangsstillinger. Kandidatene må også oppfylle kravene om utdanning og bakgrunn for å bli vurdert. Kandidatene må også vise forståelse for aktuelle hendelser i landet eller området de skal bidra med innholdsmoderasjon i. 

Moderasjonsteamet vårt tar i bruk retningslinjene og tiltakene våre for håndhevelse for å bidra med å beskytte Snapchat-felleskapet vårt. Opplæringen foregår i en periode på flere uker, der nye teammedlemmer undervises om Snaps retningslinjer, verktøy og eskaleringsprosedyrer. Etter opplæringen må alle moderatorer bestå en sertifiseringseksamen før de får lov til å gjennomgå innhold. Moderasjonsteamet vårt deltar regelmessig på oppfriskningskurs som er relevante for arbeidsflytene deres, spesielt når vi møter saker som angår retningslinjene og er kontekstavhengige. Vi foretar også ferdighetsforbedrende programmer, sertifiseringssesjoner og quizer for å sikre at alle moderatorer er oppdaterte og i samsvar med alle oppdaterte retningslinjer. Til slutt, når det dukker opp viktige innholdstrender ut ifra gjeldende hendelser, sprer vi raskt avklaringer om retningslinjer slik at teamene er i stand til å respondere i henhold til Snaps retningslinjer.

Vi tilbyr innholdsmoderasjonsteamet vårt – Snaps "første digitale tilbakemeldere" – betydningsfull støtte og ressurser, inkludert helsestøtte på jobb og lett tilgang til psykisk helsehjelp. 


Trygging av innholdsmoderasjon

Vi anerkjenner at det finnes risiko forbundet med innholdsmoderasjon, inkludert risiko ved ytrings- og forsamlingsfriheter som kan være forårsaket av fordommer hos automatiserte og menneskelige moderatorer samt misbruk av rapporter, også fra regjeringer, politiske valgkretser eller velorganiserte enkeltpersoner. Snapchat er vanligvis ikke et sted for politisk eller aktivistisk innhold, spesielt ikke i de offentlige områdene våre. 

Til tross for det har Snap på plass testing og opplæring for å beskytte mot disse risikoene, og har robuste og konsekvente prosedyrer for håndtering av ulovlig eller krenkende innholdsrapporter, også fra rettshåndhevende og offentlige myndigheter. Vi evaluerer og utvikler kontinuerlig algoritmene våre for innholdsmoderasjon. Selv om potensielle skader på ytringsfriheten er vanskelige å oppdage, kjenner vi ikke til noen betydelige problemer, og vi tilbyr arenaer hvor brukerne våre kan rapportere feil hvis de oppstår. 

Retningslinjene og systemene våre fremmer konsekvent og rettferdig håndhevelse, og som beskrevet ovenfor, gir de Snapchattere en mulighet til å bestride utfallet på en meningsfull måte gjennom Varslings- og klageprosessene, som har som formål å sikre interessene til samfunnet vårt samtidig som de beskytter Snapchatternes individuelle rettigheter.

Vi streber kontinuerlig etter å forbedre retningslinjene og prosessene våre for håndheving og har gjort store fremskritt i bekjempelsen av potensielt skadelig og ulovlig innhold og aktiviteter på Snapchat. Dette gjenspeiles ved en oppadgående trend i rapporterings- og håndhevelsesfigurene våre, som vist i den nyeste Åpenhetsrapporten vår, og gjennom minskende forekomster av brudd på Snapchat totalt sett. 


Merknader for klarerte rapportører (Artikkel 15.1(b))

I perioden for den nyeste Åpenhetsrapporten (H1 2023) vår, fantes det ingen formelt oppnevnte klarerte rapportører i henhold til DSA. Som et resultat av dette var antall varslinger sendt inn av slike klarerte rapportører null (0) i denne perioden.


Tvister utenfor domstolen (Artikkel 24.1(a))

I perioden for den nyeste Åpenhetsrapporten (H1 2023) vår, fantes det ingen formelt oppnevnte tvisteforlik utenom domstolen i henhold til DSA. Som en følge av dette var antallet tvister sendt inn til slike organer lik null (0) i denne perioden.


Kontosuspensjoner i henhold til artikkel 23 (Artikkel 24.1(b))

I perioden for den nyeste Åpenhetsrapporten (H1 2023) vår, fantes det ingen krav om å suspendere kontoer i henhold til artikkel 23 av DSA for bestemmelse om åpenbart ulovlig innhold, ubegrunnede merknader eller ubegrunnede klager. Som et resultat av dette var antallet slike suspensjoner lik null (0). Snap handler imidlertid gjennom passende håndhevelser mot kontoer som forklart i vår Moderering, håndheving og klager på Snapchat og informasjon angående nivået av Snaps kontohåndhevelser finner du i Åpenhetsrapporten (H1 2023) vår.