Privacy, Safety, and Policy Hub
EU
1. januar 2024 til 30. juni 2024

Utgitt:

25. oktober 2024

Oppdatert:

17. desember 2024

Velkommen til EUs (Den europeiske union) åpenhetsside der vi publiserer EU-spesifikk informasjon som kreves av forordningen om digitale tjenester (DSA), direktivet for audiovisuelle medietjenester (AMTD), den nederlandske medieloven (DMA) og TCO-forordningen (terrorrelatert innhold på internett). Vær oppmerksom på at den mest oppdaterte versjonen av disse åpenhetsrapportene finnes i den en-US språkversjonen.

Juridisk representant 

Snap Group Limited har utnevnt Snap B.V. som juridisk representant for DSA-formål. Du kan kontakte representanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AMTD og DMA via støttesiden [her] eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Hvis du er fra politiet, følg trinnene som er skissert her.

Hold dialogen på nederlandsk eller engelsk når du kontakter oss.

Regulatoriske myndigheter

For DSA er vi regulert av Europakommisjonen og det nederlandske forbruker- og markedstilsynet (ACM). Når det kommer til AMTD og DMA er vi regulert av den nederlandske mediemyndigheten (CvdM). For TCO reguleres vi av den nederlandske myndigheten for forebygging av terrormateriale og materiale som inneholder seksuell misbruk av barn på nett (ATKM).

DSA åpenhetsrapport

Sist oppdatert: 25. oktober 2024

Vi publiserte denne rapporten om innsatsen vår for innholdsmoderering på Snapchat i samsvar med kravene til åpenhetsrapportering i artikkel 15, 24 og 42 i EUs forordning om digitale tjenester (forordning (EU) 2022/2065) («DSA»). Med mindre annet er angitt, gjelder informasjonen i denne rapporten for rapporteringsperioden fra 1. januar 2024 til 30. juni 2024 (H1 2024), og dekker innholdsmoderering av funksjonene på Snapchat som reguleres av DSA. 

Vi jobber kontinuerlig med å forbedre rapporteringen vår. For denne rapporteringsperioden (H1 2024) har vi gjort endringer i strukturen til rapporten med nye og mer differensierte tabeller, for å gi bedre innsikt i innsatsen vår til innholdsmoderering. 

1. Gjennomsnittlig antall aktive mottakere per måned 
(DSA-artikler 24.2 og 42.3)


Per 1. oktober 2024 hadde vi 92,9 millioner gjennomsnittlige månedlige aktive mottakere («AMAR») i Snapchat-appen i EU. Dette betyr at det, i gjennomsnitt i løpet av perioden siste seks månedene som avslutter 30. september 2024, har blitt registrert 90,9 millioner brukere i EU som har åpnet Snapchat-appen minst én gang i løpet av en gitt måned.

Denne figuren viser følgende tall per medlemsland:

Disse tallene ble beregnet for å oppfylle gjeldende DSA-krav og bør kun brukes til DSA-formål. Beregningen av dette tallet har endret seg over tid, blant annet som svar på endringer av våre interne retningslinjer, regulatorisk veiledning og teknologi, og tallene skal ikke sammenlignes fra en periode til en annen. Dette kan også avvike fra beregningene som brukes for andre aktive brukertall som vi publiserer for andre formål.

2. Forespørsler fra medlemsstatens myndighet
(DSA-artikkel 15.1(a))
a) Pålegg om å handle mot ulovlig innhold


I løpet av rapporteringsperioden (H1 2024) mottok vi null (0) pålegg om å handle mot spesifikt identifiserte deler av ulovlig innhold fra myndigheter i EUs medlemsstater, inkludert de som er utstedt i samsvar med DSA-artikkel 9. 

Fordi dette tallet er null (0), kan vi ikke gi en oversikt over type ulovlig innhold eller medlemsstat som utstedte pålegget, eller gjennomsnittlig tid for å bekrefte mottak eller for pålegget til å tre i kraft.

b) Pålegg om å gi informasjon 


I løpet av denne rapporteringsperioden (H1 2024) mottok vi følgende pålegg om å dele brukerdata fra myndigheter i EUs medlemsstater, inkludert de som ble utstedt i samsvar med DSA-artikkel 10:


Den gjennomsnittlige tiden det tok å informere relevante myndigheter om mottak av disse bestillingene for å gi informasjon var 0 minutter – vi sender et automatisk svar som bekrefter mottak. 

Den gjennomsnittlige tiden for å etterkomme bestillingene for å gi informasjon var ca. 7 dager. Denne beregningen gjenspeiler tidsperioden fra da Snap mottok en bestilling til Snap anså saken som løst. Noe som i noen enkelttilfeller delvis kan avhenge av hvor raskt myndighetene i den relevante medlemsstaten svarer på forespørsler om avklaring sendt av Snap, som er nødvendig for å behandle bestillingen.

Merk at vi ikke gir noen detaljert oversikt over bestillingene ovenfor for å informere om kategorisering av typen ulovlig innhold, fordi denne informasjonen generelt sett ikke er tilgjengelig for oss.

3. Moderering av innhold 


Alt innhold på Snapchat må samsvare med våre sammfunnsretningslinjer og tjenestevilkår. Noen typer innhold må også overholde ytterligere retningslinjer og vilkår. For eksempel må innhold som sendes for algoritmisk anbefaling til et større publikum på de offentlige overflatene våre oppfylle ytterligere høye standarder i våre innholdsretningslinjer for anbefalt kvalifisering, mens annonser må være i samsvar med annonsevilkårene.

Vi håndhever disse retningslinjene ved hjelp av teknologi og menneskelig gjennomgang. Vi tilbyr også mekanismer for at Snapchattere kan rapportere brudd, inkludert ulovlig innhold og aktiviteter, direkte i appen eller via nettsiden vår. Proaktive mekanismer for deteksjon og rapporteringer fører til en gjennomgang, som deretter behandles av en blanding av automatiserte verktøy og menneskelige moderatorer, som iverksetter passende tiltak i samsvar med retningslinjene våre. 

Vi gir mer informasjon om modereringen vår av innhold på offentlige overflater i H1 2024, nedenfor.

a) Varsler sendt inn i samsvar med DSA-artikkel 16 
(DSA-artikkel 15.1(b))

I samsvar med DSA-artikkel 16 har Snap innført mekanismer som lar brukere og ikke-brukere varsle Snap om spesifikke ting de anser som ulovlig innhold på Snapchat. De kan gjøre det ved å rapportere spesifikke deler av innhold eller kontoer, enten direkte i Snapchat-appen eller via nettsiden vår. 

I løpet av rapporteringsperioden (H1 2024), mottok vi følgende varsler som var sendt inn i samsvar med DSA-artikkel 16 i EU:


Nedenfor er det en oversikt som gjenspeiler hvordan disse varslene ble behandlet – dvs. gjennom prosessen som inkluderer en menneskelig vurdering eller kun med automatiserte metoder: 

Ved å sende inn varsler i appen eller via nettsiden, kan den som rapporterer velge en spesifikk årsak fra menyen som gjenspeiler kategoriene på brudd som er oppført i samfunnsretningslinjene våre (f.eks. hatytringer, narkotikabruk eller salg). Samfunnsretningslinjene våre forbyr innhold og aktiviteter som er ulovlig i EU. Rapporteringsårsakene gjenspeiler i stor grad spesifikke kategorier av ulovlig innhold i EU. I den grad den som rapporterer i EU mener innholdet eller kontoen de rapporter er ulovlig av årsaker som det ikke refereres til i rapporteringsmenyen, kan de rapportere det som «annet ulovlig innhold» og få muligheten til å forklare hvorfor de mener det de rapporterer er ulovlig. 

Hvis vi, etter en gjennomgang, mener at innholdet eller kontoen som er rapportert bryter med våre samfunnsretningslinjer (inkludert på grunn av ulovlighet), kan vi (i) fjerne det støtende innholdet, (ii) advare kontoeieren og iverksette en advarsel mot kontoen og/eller (iii) låse kontoen, som ytterligere forklart i vår Snapchat moderasjons-, håndhevelses- og ankeveiledning

I H1 2024 iverksatte vi følgende håndhevingstiltak etter å ha mottatt varsler som var sendt inn i samsvar med DSA-artikkel 16 i EU:

I H1 2024 ble alle rapporteringer under «annet ulovlig innhold» som vi behandlet, til slutt håndhevet i samsvar med samfunnsretningslinjene våre, fordi innholdet eller aktiviteten var forbudt etter samfunnsretningslinjene. Vi kategoriserte derfor disse håndhevelsene under den relevante kategorien for brudd på samfunnsretningslinjene i tabellen ovenfor.

I tillegg til håndhevelsene nevnt ovenfor kan vi iverksette tiltak mot innhold som det er varslet om til oss i samsvar med andre gjeldende Snap-vilkår og -retningslinjer: 

  • Med tanke på innhold på de offentlige overflatene våre, hvis vi mener at det rapporterte innholdet ikke møter de høye standardene i våre innholdsretningslinjer for anbefalt kvalifisering, kan vi avvise innholdet fra algoritmisk anbefaling (hvis innholdet ikke møter kvalifiseringskravene våre), eller vi kan begrense distribusjon av innholdet for å ekskludere sensitive målgrupper (hvis innholdet møter kvalifiseringskrav for anbefaling, men er sensitivt eller suggestivt).  

I H1 2024 iverksatte vi følgende handlinger angående innhold på Snapchats offentlige overflater som ble rapportert til oss i EU, i samsvar med våre innholdsretningslinjer for anbefalt kvalifisering:

  • Hvis vi fastslår at en rapportert annonse bryter med annonsevilkårene våre, kan vi fjerne den etter gjennomgang. 


I H1 2024 tok vi følgende handlinger om annonser rapportert til oss i EU:


b) Moderering av innhold utført på Snaps eget initiativ 
(Artikkel 15.1(c))


I tillegg til å gjennomgå varsler som er sendt inn i samsvar med DSA-artikkel 16, modererer Snap innhold på de offentlige overflatene til Snapchat (f.eks. Spotlight, Utforsk) på eget initiativ. Nedenfor er det informasjon om innholdsmoderering som er utført på Snaps eget initiativ, inkludert bruk av automatiserte verktøy, tiltak som er iverksatt for å gi opplæring og hjelp til personer som er ansvarlige for innholdsmoderering og antall og type restriksjoner som er pålagt som følge av denne proaktive innholdsmodereringen.


  • Bruk av automatiserte verktøy i Snaps moderering på eget initiativ


Vi distribuerer automatiserte verktøy for proaktivt å oppdage og, i noen tilfeller, håndheve brudd på våre vilkåre og retningslinjer på våre overflater med offentlig innhold. Dette inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google CSAI Match), deteksjonsmodeller for upassende språk (som oppdager og avviser innhold basert på en identifisert og regelmessig oppdatert liste over upassende søkeord og emojis), og kunstig intelligens eller maskinlæringsteknologi. De automatiserte verktøyene våre er designet for å oppdage brudd på våre samfunnsretningslinjer (som blant annet forbyr ulovlig innhold) og, der det er aktuelt, våre innholdsretningslinjer for anbefalt kvalifisering og annonsevilkår. 


I H1 2024 ble all proaktiv deteksjon utført ved hjelp av automatiserte verktøy. Når de automatiserte verktøyene oppdager potensielle brudd på retningslinjene våre, iverksetter de automatisk handling i samsvar med retningslinjene, eller de oppretter en oppgave for menneskelig gjennomgang. Antall og type restriksjoner som ble pålagt som et resultat av denne prosessen er beskrevet nedenfor. 


  • Antall og type restriksjoner som ble pålagt på Snaps eget initiativ


I H1 2024 iverksatte Snap følgende håndhevingstiltak etter proaktivt å ha oppdaget brudd på våre samfunnsretningsliner gjennom bruk av automatiserte verktøy (inkludert brudd som tilsvarer ulovlig innhold og aktiviteter i henhold til lover i EU og medlemsstater):

I tillegg, i H1 2024, med tanke på innhold på de offentlige overflatene våre, tok vi følgende handlinger etter å proaktivt ha oppdaget brudd på innholdsretningslinjene for anbefalt kvalifisering på Snapchat, som ble oppdaget gjennom bruk av automatiserte verktøy:

* Som det fremgår i våre innholdsretningslinjer for anbefalt kvalifisering, kan kontoer som gjentatte ganger bryter med eller begår alvorlige brudd på våre innholdsretningslinjer for anbefalt kvalifisering midlertidig eller permanent diskvalifiseres fra anbefalinger på de offentlige overflatene våre. Vi utfører denne handlingen i sammenheng med det proaktive modereringsarbeidet vårt.

I H1 2024 iverksatte vi følgende handlinger etter proaktivt å ha oppdaget brudd på Snapchats annonsevilkår gjennom bruk av automatiserte verktøy:

  • Tiltak som er iverksatt for å gi opplæring og hjelp til personer med ansvar for innholdsmoderering


Innholdsmodereringsteamene våre bruker retningslinjene for innholdsmoderering for å beskytte Snapchat-fellesskapet vårt. De læres opp i en periode på flere uker, der nye teammedlemmer undervises om Snaps retningslinjer, verktøy og eskaleringsprosedyrer. Modereringsteamene våre deltar regelmessig i oppfriskningsopplæring som er relevante for deres arbeidsoppgaver, spesielt når vi støter på saker som er på grensen av retningslinjene og kontekstavhengige. Vi foretar også ferdighetsforbedrende programmer, sertifiseringssesjoner og quizer for å sikre at alle moderatorer er oppdaterte og i samsvar med alle oppdaterte retningslinjer. Til slutt, når det dukker opp viktige innholdstrender ut ifra gjeldende hendelser, sprer vi raskt avklaringer om retningslinjer slik at teamene er i stand til å respondere i henhold til Snaps retningslinjer.


Vi gir innholdsmodereringsteamene betydelig støtte og ressurser, inkludert velvære på jobben og enkel tilgang til psykiske helsetjenester. 

c) Klager som er mottatt gjennom Snaps interne klagebehandlingssystemer (dvs. anker) 
(Artikkel 15.1(d))


Brukere som har fått sin konto låst av sikkerhetsteamene våre for brudd på samfunnsretningslinjene (inkludert for ulovlig innhold og aktiviteter), kan sende inn en klage for låst konto. Brukere kan også klage på visse avgjørelser om innholdsmoderering.

I løpet av rapporteringsperioden (H1 2024) behandlet Snap følgende klager (inkludert klager om låst konto og moderering av innhold) sendt inn via sine interne klagebehandlingssystemer i EU:

d) Bruk av automatiserte metoder for å moderere innhold 
(Artikkel 15.1(e) og 42.2(c))

  • Kvalitativ beskrivelse og formål


Som forklart ovenfor i del 3(b), implementerer vi automatiserte verktøy for proaktivt å oppdage og, i noen tilfeller, håndheve brudd på våre vilkår og retningslinjer på våre overflater med offentlig innhold. Dette inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google CSAI Match), deteksjonsmodeller for upassende språk (som oppdager og avviser innhold basert på en identifisert og regelmessig oppdatert liste over upassende søkeord og emojis), og kunstig intelligens eller maskinlæringsteknologi. De automatiserte verktøyene våre er designet for å oppdage brudd på våre samfunnsretningslinjer (som blant annet forbyr ulovlig innhold) og, der det er aktuelt, våre innholdsretningslinjer for anbefalt kvalifisering og annonsevilkår. 

Når de automatiserte verktøyene oppdager potensielle brudd på retningslinjene våre, iverksetter de automatisk handling i samsvar med retningslinjene, eller de oppretter en oppgave for menneskelig gjennomgang.  

  • Indikatorer for nøyaktighet og mulig feilfrekvens, fordelt etter medlemsstat


Vi overvåker nøyaktigheten til de automatiserte modereringsverktøyene ved å velge tilfeldige utvalg av oppgaver som behandles av de automatiserte verktøyene på de offentlige overflatene, og sender dem til vurdering hos det menneskelige modereringsteamet vårt. Nøyaktighetsgraden er prosentandelen av oppgaver fra disse tilfeldige prøvene som ble godkjent av de menneskelige moderatorene etter ny gjennomgang. Feilfrekvensen er differansen mellom 100 % og nøyaktighetsgraden som er beregnet som beskrevet ovenfor. 

Basert på stikkprøver i H1 2024, var nøyaktighetsindikatorene og den mulige feilfrekvensen for de automatiserte metodene på tvers av alle bruddkategorier omtrent 93 %, og feilfrekvensen var omtrent 7 %. 

Vi registrerer generelt ikke språket for innhold vi modererer på Snapchat, og kan derfor ikke gi en oversikt over nøyaktighet og feilfrekvensen for våre automatiserte modereringsverktøy for de offisielle språkene i medlemsstatene.  Som et bidrag til denne informasjonen, gir vi nedenfor en oversikt over nøyaktighet og feilfrekvens for automatisk moderert innhold for hver medlemsstat. 

  • Beskyttelsesregler


Vi er klar over den potensielle effekten automatiserte moderasjonsverktøy har på grunnleggende rettigheter, og vi har beskyttelsesregler for å minimere den påvirkningen.

De automatiserte verktøyene våre for innholdsmoderasjon testes før de distribueres på Snapchat. Modeller testes offline for ytelse og distribueres via A/B-testing for å sikre at de fungerer som de skal, før de fases fult inn i produksjonen. Vi gjennomfører kvalitetskontroll (QA) før lansering, utfører lanseringsgjennomgang og løpende QA-sjekker av presisjonen under delvis (faset) utrulling. 

Etter lanseringen av de automatiserte verktøyene evaluerer vi ytelsen og nøyaktigheten fortløpende, og justerer etter behov. Denne prosessen innebærer en ny gjennomgang av prøver på automatiserte oppgaver av våre menneskelige moderatorer for å identifisere modeller som krever justeringer for å forbedre nøyaktigheten. Vi overvåker også forekomsten av bestemte skader på Snapchat via tilfeldig, daglig prøvetaking av offentlige Stories, og bruker denne informasjonen til å identifisere områder som trenger ytterligere forbedring. 

Retningslinjene og systemene våre fremmer konsistent og rettferdig håndhevelse, inkludert gjennom de automatiserte verktøyene våre, og gir Snapchattere en mulighet til å bestride resultater av håndhevelse gjennom varslings- og ankeprosesser som tar sikte på å ivareta interessene til fellesskapet vårt, samtidig som det beskytter individuelle Snapchatteres rettigheter.

Vi jobber kontinuerlig med å forbedre våre automatiserte verktøy for innholdsmoderering for å forbedre nøyaktigheten, og for å støtte konsistent og rettferdig håndhevelse av retningslinjene våre.

e) Tvister sendt til utenrettslige tvisteløsningsorganer etter artikkel 21
(Artikkel 24.1(a))

For rapporteringsperioden (H1 2024) var antallet tvister som ble sendt til formelt sertifiserte utenrettslige tvisteløsningsorganer i samsvar med DSA-artikkel 21 null (0). Vi kan ikke gi en detaljert oversikt som viser utfall, gjennomsnittlig fullføringstider eller andelen tvister der Snap implementerte beslutningene fra et utenrettslig tvisteløsningsorgan. 

Legg merke til at vi i H1 2024 mottok to (2) varsler om tvister som ble sendt inn til et organ som søker sertifisering som et utenrettslig tvisteløsningsorgan under DSA-artikkel 21. Vi inkluderte ikke disse tvistene i antallet ovenfor fordi organet som sendte disse varslene om tvister ikke kunne bekrefte sin sertifiseringsstatus etter forespørsel fra oss.

f) Suspensjoner pålagt i henhold til artikkel 23 
(Artikkel 24.1(b))
  • Suspensjoner i henhold til artikkel 23.1: suspensjon av kontoer som ofte har åpenbart ulovlig innhold 

Som forklart i vår Snapchat moderasjons-, håndhevelses- og ankeveiledning, blir kontoer vi mener først og fremst brukes til å bryte med samfunnsretningslinjene våre (inkludert gjennom åpenbart ulovlig innhold) og kontoer som kan føre til alvorlig skade, umiddelbart deaktivert. For andre brudd på våre samfunnsretningslinjer anvender Snap en håndhevelsesprosess i tre deler:

  • Trinn 1: Det krenkende innholdet blir fjernet.

  • Trinn 2: Snapchatteren mottar en melding som indikerer at de har brutt våre samfunnsretningslinjer og at innholdet er fjernet, og at gjentatte brudd vil resultere i flere håndhevingstiltak, inkludert at kontoen blir deaktivert.

  • Trinn 3: Teamet vårt registrerer en advarsel mot Snapchatterens konto.

Informasjon om antall strikes (dvs. advarsler) og låser pålagt i H1 2024 for kontoer i EU i forbindelse med innhold eller aktiviteter på Snapchats offentlige overflater finner du ovenfor, i del 3(a) og 3(b).

  • Suspensjoner i henhold til artikkel 23.2: suspensjon av behandlingen av varsler og klager fra enkeltpersoner, enheter og klagere som ofte sender inn varsler eller klager som åpenbart er grunnløse

Bruken av den interne definisjonen vår «åpenbart grunnløse» varsler og klager, samt våre interne terskler for hva vi anser som hyppig innsending av slike varsler og klager, antall suspensjoner av behandlingen av varsler og klager pålagt i H1 2024 i henhold til DSA-artikkel 23.2, er som følger:

4. Informasjon om innholdsmodereringsteamene våre 
a) Menneskelige ressurser dedikert til innholdsmoderering, inkludert for samsvar med DSA-artikkel 16, 20 og 22, oppdelt etter offisielle språk i medlemsstatene
(Artikkel 42.2(a))


Innholdsmodereringsteamene våre opererer over hele verden, og gjør det mulig for oss å bidra til å holde Snapchattere trygge døgnet rundt. Nedenfor finner du oversikten over de menneskelige moderatorressursene våre fordelt på moderatorenes språkspesialiseringer (merk at noen moderatorer spesialiserer seg på flere språk) per 30. juni 2024:

Tabellen ovenfor inkluderer alle menneskelige ressurser som er dedikert til innholdsmoderasjon, som støtter offisielle språk i EUs medlemsland per 30. juni 2024. I situasjoner der vi har behov for ekstra språkstøtte, tar vi i bruk oversettingstjenester.

b) Kvalifikasjon og språklig ekspertise for innholdsmoderatorer, opplæring og støtte som gis
(Artikkel 42.2(b))


Moderatorer rekrutteres gjennom en standard stillingsbeskrivelse som inneholder et språkkrav (avhengig av behovet). Språkkravet angir at kandidaten må kunne beherske språket flytende både skriftlig og muntlig, og ha minst ett års arbeidserfaring for førstegangsstillinger. Kandidater må oppfylle kravene til utdanning og bakgrunn for å bli vurdert. Kandidatene må også vise forståelse for aktuelle hendelser i landet eller området de skal bidra med innholdsmoderasjon i. 

Se ovenfor for informasjon om opplæring og støtte Snap gir til innholdsmoderatorer, som er påkrevd separat under DSA-artikkel 15(1)(c) og dermed inkludert i avsnitt 3(b), i det siste underseksjonen med tittelen: «Tiltak som er utført for å gi opplæring og assistanse til personer som har ansvar for innholdsmoderasjon»

Rapport om skanning av medier for seksuell utnyttelse og misbruk av barn (CSEA)


Bakgrunn

Seksuell utnyttelse av ethvert medlem av fellesskapet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse av barn (CSEA) på plattformen vår er en førsteprioritet for oss, og vi utvikler kontinuerlig kompetansen vår for å bekjempe disse og andre typer forbrytelser.


Vi bruker PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere kjente ulovlige bilder og videoer av seksuelt overgrep, og rapportere dem til det amerikanske nasjonale senter for savnede og utnyttede barn (NCMEC), i samsvar med loven. NCMEC koordinerer deretter med nasjonal eller internasjonal rettshåndhevelse, etter behov.


Rapport

Data nedenfor er basert på resultatet av proaktiv skanning ved å bruke PhotoDNA og/eller CSAI Match av medier lastet opp fra en brukers kamerarull til Snapchat.

Å stoppe seksuell utnyttelse av barn er en førsteprioritet. Snap bruker betydelige ressurser på dette og har null toleranse for slik oppførsel.  Det kreves spesialopplæring for å vurdere CSE-anker, og det finnes et begrenset team med agenter som håndterer disse evalueringene på grunn av innholdets grafiske karakter. I løpet av høsten 2023 implementerte Snap retningslinjer som påvirket konsekvensheten av visse CSE forsterkninger, og vi har adressert disse inkonsekvensene gjennom repetisjonstrening av agenter og streng kvalitetssikring.  Vi forventer at den neste åpenhetsrapporten vil avsløre fremskritt mot å forbedre svartider for CSE klager og forbedre presisjonen av innledende gjennomføring. 

Beskyttelsesregler for innholdsmoderering

Beskyttelsesregler som brukes for CSEA Media Scanning er angitt i avsnittet ovenfor, «Beskyttelsesregler for innholdsmoderering», under DSA-rapporten vår.


EUs åpenhetsrapport om terrorinnhold på nettet

Publisert: 17. juni 2024

Sist oppdatert: 17. juni 2024

Denne åpenhetsrapporten er publisert i samsvar med artikkel 7(2) og 7(3) i forordning 2021/784 fra Europaparlamentet og EU-rådet, som tar for seg spredningen av terrorinnhold på nettet (forordningen). Den dekker rapporteringsperioden 1. januar til 31. desember 2023


Generell informasjon
  • Artikkel 7(3)(a): informasjon om hostingtjenesteleverandørens tiltak for å identifisere og fjerne eller deaktivere tilgang til terrorinnhold

  • Artikkel 7(3)(b): informasjon om hostingtjenesteleverandørens tiltak for å håndtere gjenopptreden på nettet for materiale som tidligere har blitt fjernet eller som tilgangen til har blitt deaktivert fordi det ble ansett å være terrorinnhold, spesielt der automatiserte verktøy er brukt


Terrorister, terrororganisasjoner og voldelige ekstremister har forbud mot å bruke Snapchat. Innhold som oppfordrer til, fremmer, glorifiserer eller forfremmer terrorisme eller andre voldelige, kriminelle handlinger er forbudt i henhold til våre samfunnsretningslinjer. Brukere kan rapportere innhold som bryter med våre samfunnsretningslinjer via rapporteringsmenyen i appen eller støttesiden. Vi bruker også proaktiv deteksjon for å forsøke å identifisere krenkende innhold på offentlige overflater som ​​Spotlight og Utforsk. 


Tillits- og sikkerhetsteamene våre vurderer, gjennom en kombinasjon av automatisert og manuell moderering, krenkende innhold umiddelbart og tar håndhevelsesbeslutninger, uansett hvordan vi blir oppmerksomme på det. Håndhevelser kan inkludere fjerning av innhold, advarsel eller låsing av den krenkende kontoen, og hvis nødvendig, politianmeldelse av kontoen. For å forhindre at terror- eller annet voldelig ekstremisme innhold dukker opp igjen på Snapchat, tar vi, i tillegg til å samarbeide med politimyndigheter, skritt for å blokkere enheten knyttet til den aktuelle kontoen og hindre brukeren i å opprette en ny Snapchat-konto.


Ytterligere detaljer om tiltakene våre for å identifisere og fjerne terrorinnhold finner du i vår forklaring om hatefullt innhold, terrorisme og voldelig ekstremisme og i vår forklaring om moderering, håndhevelse og anker



Rapporter og håndhevelser 
  • Artikkel 7(3)(c): antall elementer med terrorinnhold som ble fjernet eller som tilgangen til ble deaktivert etter ordre om fjerning eller spesifikke tiltak, og antall ordre om fjerning der innhold ikke har blitt fjernet eller tilgangen til ikke har blitt deaktivert i henhold til artikkel 3(7) første ledd og artikkel 3(8) første ledd, sammen med begrunnelsen for dette


I løpet av rapporteringsperioden mottok ikke Snap noen ordre om fjerning, og vi var heller ikke pålagt å iverksette spesifikke tiltak i henhold til artikkel 5 i forordningen. Dermed var vi ikke pålagt å iverksette tiltak i henhold til forordningen.


Følgende tabell beskriver håndhevingstiltak som er utført basert på brukerrapporter og proaktiv deteksjon mot innhold og kontoer, både i EU og andre steder i verden, som bryter med våre samfunnsretningslinjer knyttet til terrorisme og voldelig ekstremisme

Håndhevingsklager
  • Artikkel 7(3)(d): antall og utfall av klager behandlet av hostingtjenesteleverandøren i samsvar med artikkel 10

  • Artikkel 7(3)(g): antall tilfeller der hostingtjenesteleverandøren gjenoppretter innhold eller tilgang etter klage fra innholdsleverandøren


Fordi vi ikke hadde noen håndshevingstiltak som krevdes i henhold til forordningen i rapporteringsperioden som nevnt ovenfor, håndterte vi ingen klager i henhold til artikkel 10 i forordningen og hadde ingen tilknyttede gjenopprettinger.


Følgende tabell inneholder informasjon knyttet til klager og gjenopprettinger, både i EU og andre steder i verden, som involverer innhold med terrorisme og voldelige ekstremisme håndhevet i henhold til våre samfunnsretningslinjer.

Rettslig saksbehandling og anker
  • Artikkel 7(3)(e): antallet og utfallet av administrative eller rettslige prosesser startet av leverandøren av hostingtjenesten

  • Artikkel 7(3)(f): antall saker der leverandøren av hostingtjenesten ble pålagt å tilbakeføre innhold eller tilgang til dette som følge av administrativ eller rettslig behandling


Fordi vi ikke hadde noen håndhevingstiltak som ble krevd etter forskriften i løpet av rapporteringsperioden, som nevnt ovenfor, hadde vi ingen tilknyttede administrativ eller rettslig behandling, og vi ble ikke pålagt å tilbakeføre innhold som følge av slik behandling.

DSA risikovurdering

Denne rapporten er utarbeidet for å overholde Snaps forpliktelser i henhold til artikkel 34 og 35 i forordning (EU) 2022/2065, og inneholder resultatene av vurderingen vår av systemrisiko som stammer fra designen, funksjonen og bruken av Snapchats nettbaserte plattformer, sammen med metodikken som brukes til å vurdere disse risikoene og tiltakene som er iverksatt for å håndtere disse risikoene.


DSA rapport om vurdering av risiko og tiltak | Snapchat | august 2023 (PDF)


DSA revisjon og revisjonsimplementering

Disse rapportene er utarbeidet for å overholde Snaps forpliktelser i henhold til artikkel 37 i forordning (EU) 2022/2065 og gi: (i) resultatene av den uavhengige revisjonen av Snaps overholdelse av forpliktelsene fastsatt i kapittel III i forordning (EU) 2022/2065, og (ii) tiltakene som er tatt for å implementere de operasjonelle anbefalingene fra den uavhengige revisjonen.

DSA uavhengig revisjonsrapport | Snapchat | august 2024 (PDF)

DSA rapport om revisjonsimplementering | Snapchat | september 2024 (PDF)



EU VSP Retningslinjer for god praksis

Snap er en «tjenesteleverandør for videodelingsplattform» («VSP») i henhold til artikkel 1(1)(aa) i AVMSD. Disse etiske retningslinjene («retningslinjene») er utarbeidet for å beskrive hvordan Snap overholder sine forpliktelser som VSP i henhold til den nederlandske medieloven («DMA») og EU-direktiv 2010/13 (som endret ved direktiv (EU) 2018/1808 («direktivet om audiovisuelle medietjenester» eller «AVMSD»)). Koden gjelder for hele EU samt Det europeiske økonomiske samarbeidsområde (EØS).

EU VSP Etiske retningslinjer| Snapchat | Desember 2024 (PDF)