Snap Values
EU

Velkommen til EUs (Den europeiske union) åpenhetsside der vi publiserer EU-spesifikk informasjon som kreves av forordningen om digitale tjenester (DSA), direktivet for audiovisuelle medietjenester (AMTD), den nederlandske medieloven (DMA) og TCO-forordningen (terrorrelatert innhold på internett). Vær oppmerksom på at den mest oppdaterte versjonen av disse åpenhetsrapportene finnes i den en-US språkversjonen.

Juridisk representant 

Snap Group Limited har utnevnt Snap B.V. som juridisk representant for DSA-formål. Du kan kontakte representanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AMTD og DMA, på tco-enquiries [at] snapchat.com for TCO, via støttesiden vår [her] eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Hvis du er fra politiet, følg trinnene som er skissert her.

Hold dialogen på nederlandsk eller engelsk når du kontakter oss.

Regulatoriske myndigheter

For DSA er vi regulert av Europakommisjonen og det nederlandske forbruker- og markedstilsynet (ACM). Når det kommer til AMTD og DMA er vi regulert av den nederlandske mediemyndigheten (CvdM). For TCO reguleres vi av den nederlandske myndigheten for forebygging av terrormateriale og materiale som inneholder seksuell misbruk av barn på nett (ATKM).

DSA åpenhetsrapport

Publisert: 29. august 2025

Sist oppdatert: 29. august 2025

Rapporteringssyklus: 1. januar 2025 - 30. juni 2025

Vi publiserer denne rapporten i samsvar med kravene til åpenhetsrapportering som er gitt i artiklene 15, 24 og 42 i EUs forordning om digitale tjenester (Regulation (EU) 2022/2065), heretter referert til som «DSA». Med mindre annet er spesifisert, gjelder informasjonen i denne rapporten for rapporteringsperioden fra 1. januar 2025 til 30. juni 2025 (H1 2025).

1. Gjennomsnittlig antall aktive mottakere per måned 
(DSA-artikler 24.2 og 42.3)

Per 1. oktober 2024 hadde vi 92,9 millioner normal månedlige aktive mottakere («AMAR») i Snapchat-appen i EU. Dette betyr at i normal i løpet av seksmånedersperioden som sluttet 30. juni 2025, har 94,7 millioner registrerte brukere i EU åpnet Snapchat-appen minst én gang i løpet av en gitt måned.

Denne figuren viser følgende tall per medlemsland:

Disse tallene ble beregnet for å overholde gjeldende DSA-krav og skal kun brukes til DSA-formål. Vi har endret hvordan vi beregner dette tallet over tid, blant annet som svar på endrede interne retningslinjer, veiledning fra tilsynsmyndigheter og teknologi, og tallene er ikke ment å sammenlignes mellom perioder. Dette kan også avvike fra beregningene som brukes for andre aktive brukertall som vi publiserer for andre formål.

2. Forespørsler fra medlemsstatens myndighet
(DSA-artikkel 15.1(a))

a) Pålegg om å handle mot ulovlig innhold

I løpet av denne rapporteringsperioden (H1 2025) mottok vi null (0) pålegg om å iverksette tiltak mot spesifikt identifisert ulovlig innhold fra myndigheter i EUs medlemsstater, inkludert de som er utstedt i samsvar med DSA artikkel 9.


Siden dette tallet er null (0), kan vi ikke gi en oversikt per type ulovlig innhold det gjelder eller medlemsstaten som utstedte bestillingen, eller medianstiden for å bekrefte mottak eller iverksette bestillingene.

b) Pålegg om å gi informasjon 

I løpet av denne rapporteringsperioden (H1 2025) mottok vi følgende antall forespørsler (ikke inkludert forespørsler om utlevering av data i nødstilfeller) om å utlevere brukerdata fra myndigheter i EUs medlemsstater, inkludert de som ble utstedt i samsvar med DSA artikkel 10:

Den gjennomsnittlige tiden det tok å informere relevante myndigheter om mottak av disse bestillingene for å gi informasjon var 0 minutter – vi sender et automatisk svar som bekrefter mottak. 

Median behandlingstid for å iverksette disse påleggene om å utlevere informasjon var under 14 dager. Denne metrikken reflekterer tidsperioden fra Snap mottok et bestilling til Snap anså saken som fullstendig løst, noe som i individuelle tilfeller delvis kan avhenge av hvor raskt den relevante medlemsstatens myndighet svarer på eventuelle forespørsler om avklaring fra Snap som er nødvendige for å behandle bestilling.

Merk at vi ikke gir noen detaljert oversikt over bestillingene ovenfor for å informere om kategorisering av typen ulovlig innhold, fordi denne informasjonen generelt sett ikke er tilgjengelig for oss.


3. Moderering av innhold 


Alt innhold på Snapchat må samsvare med våre sammfunnsretningslinjer og tjenestevilkår. Noen typer innhold må også overholde ytterligere retningslinjer og vilkår. For eksempel må innhold som sendes inn for algoritmisk anbefaling til et videre publikum på våre offentlige kringkastingsflater, oppfylle ytterligere, høyere standarder som er angitt i våre Innholdsretningslinjer for anbefalt kvalifisering, mens annonser må overholde våre retningslinjer for annonsering.

Vi håndhever disse retningslinjene ved hjelp av teknologi og menneskelig gjennomgang. Vi tilbyr mekanismer som lar brukere og ikke-brukere rapportere brudd, inkludert ulovlig innhold og aktiviteter, enten direkte i appen eller via nettstedet vårt. Vi bruker også proaktiv teknologi for å oppdage skadelig innhold. Proaktive deteksjonsmekanismer og rapporter utløser en gjennomgang, som deretter kan benytte en blanding av automatiserte verktøy og menneskelige moderatorer for å iverksette passende tiltak i samsvar med våre retningslinjer.

Vi gir ytterligere informasjon om vår innholdsmoderering i H1 2025 nedenfor.

a) Varsler sendt inn i samsvar med DSA-artikkel 16 
(DSA-artikkel 15.1(b))

I samsvar med DSA-artikkel 16 har Snap innført mekanismer som lar brukere og ikke-brukere varsle Snap om spesifikke ting de anser som ulovlig innhold på Snapchat. Dette kan de gjøre ved å rapportere spesifikt innhold eller bestemte kontoer, enten direkte i Snapchat-appen eller på nettstedet vårt.

Når brukere sender inn meldinger i appen eller via nettsiden vår, kan de velge en spesifikk rapporteringsårsak fra en meny med alternativer som gjenspeiler kategoriene av brudd som er oppført i våre Samfunnsretningslinjer (f.eks. hatytringer, narkotika). Våre Samfunnsretningslinjer, som er basert på våre verdier, omfatter generelt kategorier av innhold og aktiviteter som er ulovlige i EU, så våre rapporteringsalternativer inkluderer i noen tilfeller kategorier av ulovlig innhold i EU. Imidlertid, i den grad en innmelder i EU mener at innholdet eller kontoen de rapporterer er ulovlig av grunner som ikke er spesifikt referert i vår rapporteringsmeny, kan de rapportere det for «annet ulovlig innhold» og får en mulighet til å forklare hvorfor de mener det de rapporterer er ulovlig.

I løpet av rapporteringsperioden (H1 2025) mottok vi følgende meldinger fra brukere som vi anser å være i EU:

Nedenfor er det en oversikt som gjenspeiler hvordan disse varslene ble behandlet – dvs. gjennom prosessen som inkluderer en menneskelig vurdering eller kun med automatiserte metoder: 

Hvis vi, etter en gjennomgang, mener at innholdet eller kontoen som er rapportert bryter med våre samfunnsretningslinjer (inkludert på grunn av ulovlighet), kan vi (i) fjerne det støtende innholdet, (ii) advare kontoeieren og iverksette en advarsel mot kontoen og/eller (iii) låse kontoen, som ytterligere forklart i vår Snapchat moderasjons-, håndhevelses- og ankeveiledning

I H1 2025 tok vi følgende håndhevelsesaksjoner etter å ha mottatt meldinger fra brukere som vi anser å være i EU:

Merk: Totalt antall innsendte meldinger fordelt på type brudd i tabellen ovenfor, inkluderer ikke alle rapporter gjort gjennom Support-siden vår. Support-nettstedet rapporterer at klager vi tilskriver EU-rapporterere utgjorde omtrent 0,4 % av det totale EU-meldingsvolumet. Vi har til hensikt å inkludere disse rapportene fra Support-nettstedet i våre beregninger i fremtiden.

I H1 2025 ble alle rapporter for «annet ulovlig innhold» som vi iverksatte tiltak mot, til syvende og sist håndhevet under våre Samfunnsretningslinjer, fordi våre Samfunnsretningslinjer forbød det aktuelle innholdet eller aktiviteten. Vi kategoriserte derfor disse håndhevelsene under den relevante kategorien for brudd på samfunnsretningslinjene i tabellen ovenfor.

I tillegg til håndhevelsene nevnt ovenfor kan vi iverksette tiltak mot innhold som det er varslet om til oss i samsvar med andre gjeldende Snap-vilkår og -retningslinjer: 

  • Med hensyn til innhold på våre offentlige kringkastingsflater, hvis vi bestemmer at det rapporterte innholdet ikke oppfyller våre kriterier i Innholdsretningslinjer for anbefalt kvalifisering, kan vi avvise innholdet for algoritmisk anbefaling, eller vi kan begrense distribusjonen av innholdet for å utelukke visse publikumsgrupper (hvis innholdet oppfyller våre kvalifikasjonskriterier for anbefaling, men ellers er sensitivt eller antydende).

I H1 2024 iverksatte vi følgende handlinger angående innhold på Snapchats offentlige overflater som ble rapportert til oss i EU, i samsvar med våre innholdsretningslinjer for anbefalt kvalifisering:

  • Hvis vi fastslår at en rapportert annonse bryter med annonsevilkårene våre, kan vi fjerne den etter gjennomgang. 

I H1 2025 tok vi følgende tiltak angående annonser som ble rapportert til oss fra brukere som vi anser å være i EU:


b) Moderering av innhold utført på Snaps eget initiativ 
(Artikkel 15.1(c))

I tillegg til å gå gjennom varsler som er sendt i samsvar med DSA-artikkel 16, driver Snap også med innholdsmoderering på eget initiativ. Nedenfor gir vi informasjon om innholdsmoderering som er utført på Snaps eget initiativ, inkludert bruk av automatiserte verktøy, tiltak som er iverksatt for å gi opplæring og hjelp til personer som er ansvarlige for innholdsmoderering, og antall og type restriksjoner som er pålagt som følge av denne proaktive innholdsmodereringen.

  • Bruk av automatiserte verktøy i Snaps moderering på eget initiativ

Vi bruker automatiserte verktøy for å proaktivt oppdage og, i noen tilfeller, håndheve brudd på vilkårene og retningslinjene våre. Disse verktøyene inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google CSAI Match), Google Content Safety API, modeller for gjenkjenning av krenkende språk (som oppdager og avviser innhold basert på en identifisert og jevnlig oppdatert liste over krenkende nøkkelord og emojier), annen tilpasset teknologi designet for å oppdage krenkende tekst og emojier, og teknologier som benytter seg av kunstig intelligens, inkludert maskinlæring og store språkmodeller. Våre automatiserte verktøy er utformet for å oppdage brudd på våre Samfunnsretningslinjer og, der det er relevant, våre Innholdsretningslinjer for anbefalt kvalifisering og retningslinjer for annonsering.

I H1 2025 ble nesten all vår proaktive gjenkjenning utført ved hjelp av automatiserte verktøy. (I noen tilfeller oppdaget vårt sikkerhets- og tillitsteam manuelt innhold som enten var ulovlig og/eller brøt med Snaps retningslinjer. Dette ble deretter undersøkt og håndhevet i tråd med Snaps retningslinjer og/eller relevante lover.) Når de automatiserte verktøyene oppdager potensielle brudd på retningslinjene våre, iverksetter de automatisk handling i samsvar med retningslinjene, eller de oppretter en oppgave for menneskelig gjennomgang. Antall og type restriksjoner som ble pålagt som et resultat av denne prosessen er beskrevet nedenfor. 

  • Antall og type restriksjoner som ble pålagt på Snaps eget initiativ

I H1 2025 tok Snap følgende håndhevelsesaksjoner etter proaktivt å ha oppdaget brudd på våre Samfunnsretningslinjer:

I tillegg, i H1 2025, med hensyn til innhold på våre offentlige kringkastingsflater, tok vi følgende tiltak etter proaktivt å ha oppdaget brudd på våre Innholdsretningslinjer for anbefalt kvalifisering ved bruk av automatiserte verktøy:

* Som det fremgår i våre innholdsretningslinjer for anbefalt kvalifisering, kan kontoer som gjentatte ganger bryter med eller begår alvorlige brudd på våre innholdsretningslinjer for anbefalt kvalifisering midlertidig eller permanent diskvalifiseres fra anbefalinger på de offentlige overflatene våre. Vi utfører denne handlingen i sammenheng med det proaktive modereringsarbeidet vårt.

I H1 2025 tok vi videre følgende tiltak etter proaktivt å ha oppdaget brudd på våre annonseretningslinjer ved bruk av automatiserte verktøy:

  • Tiltak som er iverksatt for å gi opplæring og hjelp til personer med ansvar for innholdsmoderering

Innholdsmodereringsteamene våre bruker retningslinjene for innholdsmoderering for å beskytte Snapchat-fellesskapet vårt. De læres opp i en periode på flere uker, der nye teammedlemmer undervises om Snaps retningslinjer, verktøy og eskaleringsprosedyrer. Våre modereringsteam gjennomfører oppfriskningsopplæring som er relevant for deres arbeidsflyt, spesielt når vi møter tilfeller som ligger i grenseland av retningslinjene og er avhengige av kontekst. Vi driver også med kompetanseheving og sertifiseringssesjoner, og avholder spørrekonkurranser, for å sikre at alle moderatorer er oppdatert og i samsvar med alle oppdaterte retningslinjer. Til slutt, når presserende innholdstrender dukker opp basert på aktuelle hendelser, sprer vi raskt retningslinjeklare tilbakemeldinger for å sikre at teamene reagerer i henhold til Snaps retningslinjer.

Vi gir våre team for innholdsmoderering betydelig støtte og ressurser, inkludert velferdsstøtte på jobben og enkel tilgang til tjenester for mental helse.

c) Klager som er mottatt gjennom Snaps interne klagebehandlingssystemer (dvs. anker) 
(Artikkel 15.1(d))

Brukere hvis kontoer er låst av sikkerhetsteamene våre på grunn av brudd på Samfunnsretningslinjene (inkludert for ulovlig innhold og aktiviteter), kan sende inn en anke for låst konto. Brukere kan også klage på visse avgjørelser om innholdsmoderering.

I løpet av rapporteringsperioden (H1 2025) behandlet Snap følgende anker (inkludert anker mot både kontolåser og innholdsmodereringsbeslutninger) som ble sendt inn via selskapets interne klagebehandlingssystemer fra brukere som vi anser å være i EU:

d) Bruk av automatiserte metoder for å moderere innhold 
(Artikkel 15.1(e) og 42.2(c))

  • Kvalitativ beskrivelse og formål

Som forklart ovenfor i avsnitt 3(b), bruker vi automatiserte verktøy for å proaktivt oppdage og, i noen tilfeller, håndheve brudd på våre vilkår og retningslinjer. Disse verktøyene inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google CSAI Match), Google Content Safety API, modeller for gjenkjenning av krenkende språk (som oppdager og avviser innhold basert på en identifisert og jevnlig oppdatert liste over krenkende nøkkelord og emojier), annen tilpasset teknologi designet for å oppdage krenkende tekst og emojier, og teknologier som benytter seg av kunstig intelligens, inkludert maskinlæring og store språkmodeller. De automatiserte verktøyene våre er designet for å oppdage brudd på våre samfunnsretningslinjer (som blant annet forbyr ulovlig innhold) og, der det er aktuelt, våre innholdsretningslinjer for anbefalt kvalifisering og annonsevilkår. 

Når de automatiserte verktøyene oppdager potensielle brudd på retningslinjene våre, iverksetter de automatisk handling i samsvar med retningslinjene, eller de oppretter en oppgave for menneskelig gjennomgang.  

 

  • Indikatorer for nøyaktighet og mulig feilfrekvens, fordelt etter medlemsstat

For å vurdere nøyaktigheten og feilfrekvensen til våre automatiserte modereringsverktøy, trekker vi tilfeldige utvalg av oppgaver behandlet av disse verktøyene på våre offentlige overflater, og sender dem til ny gjennomgang av våre menneskelige modereringsteam. Nøyaktighetsprosenten er andelen av oppgaver fra disse tilfeldige utvalgene som bekreftes å ha korrekte modereringsbeslutninger ved en ny gjennomgang av menneskelige moderatorer. Feilfrekvensen er differansen mellom 100 % og nøyaktighetsgraden som er beregnet som beskrevet ovenfor. 

Vi overvåker nøyaktigheten og den mulige feilraten for to brede kategorier av automatiserte moderasjonsverktøy, nemlig:

  • Automatiserte verktøy som oppdager og/eller håndhever brudd på våre Samfunnsretningslinjer, og kan føre til håndhevelser mot en brukerkonto (f.eks. advarsler mot kontoen eller at kontoen blir låst). Basert på prøvetaking, var nøyaktighetsprosenten for disse automatiserte verktøyene i H1 2025 omtrent 96 %, og feilprosenten var omtrent 4 %.

  • Automatiserte verktøy som oppdager og/eller iverksetter tiltak på innhold på våre offentlige kringkastingsflater på grunnlag av våre Innholdsretningslinjer for anbefalt kvalifisering. Basert på prøvetaking, var nøyaktighetsprosenten for disse automatiserte verktøyene i H1 2025 omtrent 88 %, og feilprosenten var omtrent 12 %.

Basert på prøvetaking, var den kombinerte nøyaktighetsprosenten for de automatiserte verktøyene som ble brukt i begge kategoriene som er beskrevet ovenfor, omtrent 90 %, og feilprosenten var omtrent 10 % i H1 2025.

Vi registrerer generelt ikke språket for innhold vi modererer på Snapchat, og kan derfor ikke gi en oversikt over nøyaktigheten og feilfrekvensen for våre automatiserte modereringsverktøy for de offisielle språkene i medlemsstatene.  Som en stedfortreder for denne informasjonen, gir vi nedenfor en oversikt over våre kombinerte nøyaktighets- og feilrater for automatisk moderert innhold (på tvers av både våre Samfunnsretningslinjer og våre Innholdsretningslinjer for anbefalt kvalifisering) som vi mener stammer fra hver medlemsstat.

  • Beskyttelsesregler

Vi er bevisste på den potensielle intensiteten av automatiserte moderasjonsverktøy på grunnleggende rettigheter, og vi iverksetter sikkerhetstiltak for å minimere denne intensitet.

Våre automatiserte verktøy for innholdsmoderering testes før de tas i bruk. Modeller testes offline for ytelse og tas i bruk via A/B-testing for å sikre at de fungerer som de skal, før de fases fult inn i produksjonen. Vi utfører **Quality Assurance (QA)**-gjennomganger før lansering, lanseringsgjennomganger, og løpende presisjons-QA-kontroller under utrullinger.

Etter lanseringen av de automatiserte verktøyene evaluerer vi ytelsen og nøyaktigheten fortløpende, og justerer etter behov. Denne prosessen innebærer en ny gjennomgang av prøver på automatiserte oppgaver av våre menneskelige moderatorer for å identifisere modeller som krever justeringer for å forbedre nøyaktigheten. Vi overvåker også forekomsten av spesifikke skader på Snapchat via daglige tilfeldige prøver av visst offentlig innhold, og utnytter denne informasjonen til å identifisere områder for ytterligere forbedring.

Retningslinjene og systemene våre fremmer konsistent og rettferdig håndhevelse, inkludert gjennom de automatiserte verktøyene våre, og gir Snapchattere en mulighet til å bestride resultater av håndhevelse gjennom varslings- og ankeprosesser som tar sikte på å ivareta interessene til fellesskapet vårt, samtidig som det beskytter individuelle Snapchatteres rettigheter.

Vi arbeider for kontinuerlig å utvikle våre automatiserte verktøy for innholdsmoderering for å forbedre nøyaktigheten deres og støtte konsekvent og rettferdig håndhevelse av våre retningslinjer.

e) Tvister sendt til utenrettslige tvisteløsningsorganer etter artikkel 21
(Artikkel 24.1(a))

For rapporteringsperioden (H2 2024) gir vi følgende informasjon om tvister som ble sendt inn mot Snap til de utenrettslige tvisteløsningsorganene som det er henvist til i DSA artikkel 21: 

Tabellen ovenfor gjenspeiler statusen per 30. juni 2025 for tvister som ble sendt til sertifiserte organer for utenrettslig tvisteløsning i henhold til DSA artikkel 21 i løpet av rapporteringsperioden (H1 2025). Over alle beregninger har vi inkludert saker som Snap har mottatt, selv om de helt eller delvis manglet informasjon som Snap deretter ba om og ikke mottok før på et senere tidspunkt. Med hensyn til tvister hvor det forelå en utstedt avgjørelse, har vi kun inkludert avgjørelser som ble mottatt i løpet av rapporteringsperioden. Også, av de 3 avgjørelsene til fordel for klageren, er 2 for tiden under ankebehandling. En vellykket anke ble sendt inn i 1 sak; men siden den reviderte avgjørelsen til fordel for Snap ble utstedt utenfor den aktuelle rapporteringsperioden, fortsetter denne saken å bli rapportert som en avgjørelse til fordel for klageren.


Median tid som kreves for å fullføre tvisteløsningsprosedyrer, er beregnet fra datoen Snap mottar en klage til datoen en avgjørelse ble mottatt fra ODS-organet.


Merk at vi i tabellen ovenfor ikke har inkludert klager som ble sendt til et sertifisert organ i henhold til artikkel 21, men som det relevante organet fant at ikke kunne tas opp til behandling før de ble overført til Snap. Vi kan ikke bekrefte antall tvister som faller innenfor denne kategorien, fordi noen, men ikke alle, sertifiserte organer varsler Snap om slike tvister. Vi er imidlertid klar over 28 klager som faller inn under denne kategorien i H1 2025.

f) Suspensjoner pålagt i henhold til artikkel 23 
(Artikkel 24.1(b))
  • Suspensjoner i henhold til artikkel 23.1: suspensjon av kontoer som ofte har åpenbart ulovlig innhold 

Som forklart i vår forklaring om moderering, håndhevelse og anker på Snapchat, blir kontoer som vi fastslår primært brukes til å bryte våre Samfunnsretningslinjer (inkludert gjennom tilbud av åpenbart ulovlig innhold) og kontoer som påfører alvorlig skade, umiddelbart deaktivert. For andre brudd på våre samfunnsretningslinjer anvender Snap en håndhevelsesprosess i tre deler:

  • Trinn 1: Det krenkende innholdet blir fjernet.

  • Trinn to: brukeren mottar et varsel om at de har brutt våre Samfunnsretningslinjer, at innholdet deres er blitt fjernet, og at gjentatte brudd vil føre til ytterligere håndhevelsesaksjoner, inkludert deaktivering av kontoen deres.

  • Trinn tre: teamet vårt registrerer en advarsel mot brukerens konto.

Informasjon angående antall advarsler (dvs. varsler) og midlertidige sperringer som ble påført kontoer i EU i H1 2025 finnes ovenfor, i avsnitt 3(a) og 3(b).

  • Suspensjoner i henhold til artikkel 23.2: suspensjon av behandlingen av varsler og klager fra enkeltpersoner, enheter og klagere som ofte sender inn varsler eller klager som åpenbart er grunnløse

Ved å anvende vår interne definisjon av «åpenbart grunnløse» meldinger og klager, og våre interne terskler for hva vi anser som hyppig innlevering av slike meldinger og klager, er antallet suspensjoner i behandlingen av meldinger og klager som ble pålagt i H1 2025 i henhold til DSA artikkel 23.2 som følger:

4. Informasjon om innholdsmodereringsteamene våre 
a) Menneskelige ressurser dedikert til innholdsmoderering, inkludert for samsvar med DSA-artikkel 16, 20 og 22, oppdelt etter offisielle språk i medlemsstatene
(Artikkel 42.2(a))


Innholdsmodereringsteamene våre opererer over hele verden, døgnet rundt, og gjør at vi kan bidra til å holde samfunnet vårt trygt. Nedenfor er en oversikt over våre menneskelige modereringsressurser, fordelt etter moderatorers primære språkområde (merk at noen moderatorer spesialiserer seg på flere språk, men flerspråklige moderatorer telles kun én gang) per 30. juni 2025:

Tabellen ovenfor inkluderer alle menneskelige ressurser som er dedikert til innholdsmoderasjon, som støtter offisielle språk i EUs medlemsland per 30. juni 2024. I situasjoner der vi har behov for ekstra språkstøtte, tar vi i bruk oversettingstjenester.

b) Kvalifikasjon og språklig ekspertise for innholdsmoderatorer, opplæring og støtte som gis
(Artikkel 42.2(b))

Moderatorer rekrutteres gjennom en standard stillingsbeskrivelse som inneholder et språkkrav (avhengig av behovet). Språkkravet sier at kandidaten må kunne demonstrere skriftlig og muntlig flyt i språket, og for stillinger på inngangsnivå kreves det at kandidatene har minst ett års arbeidserfaring. Kandidater må oppfylle kravene til utdanning og bakgrunn for å bli vurdert. Kandidatene må også vise forståelse for aktuelle hendelser i landet eller området de skal bidra med innholdsmoderasjon i. 


Se ovenfor for informasjon om opplæringen og støtten som Snap gir til innholdsmoderatorer, som er et eget krav i henhold til DSA artikkel 15(1)(c) og derfor er inkludert i avsnitt 3(b), i det siste underavsnittet med tittelen: «Tiltak iverksatt for å gi opplæring og assistanse til personer med ansvar for innholdsmoderering.»

Rapport om skanning av medier for seksuell utnyttelse og misbruk av barn (CSEA)

Utgitt: 31. januar 2025

Sist oppdatert: 31. januar 2025

Denne rapporten dekker perioden fra 1. januar 2024 til 31. desember 2024.

Bakgrunn

Seksuell utnyttelse av ethvert medlem av fellesskapet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til Samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse og overgrep av barn (CSEA) på plattformen vår er en førsteprioritet for oss, og vi utvikler kontinuerlig kompetansen vår for å bekjempe disse og andre typer forbrytelser.


Teknologiene vi bruker inkluderer (a) PhotoDNA for robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere kjente ulovlige bilder og videoer av CSEA, og (b) Googles Content Safety API for å identifisere nytt CSEA-materiale som ikke tidligere er hashet. Vi rapporterer CSEA-materiale til USAs nasjonale senter for savnede og utnyttede barn (NCMEC), slik loven krever. NCMEC koordinerer i sin tur med politimyndigheter i USA og andre land, etter behov.


Rapport

Diagrammet nedenfor viser data om proaktiv oppdagelse og tilhørende håndhevingstiltak mot EU-brukere for CSEA-materiale i 2024. (Vær oppmerksom på at noen tiltak fra denne proaktive skanningen i 2024 kan være under klagebehandling når denne rapporten ble utarbeidet, og er derfor ikke inkludert i dataene om klager og gjenopprettelser.)

*Denne kategorien rapporterer håndhevelser for brudd på Snaps Samfunnsretningslinjer som forbyr seksuell utnyttelse av barn.  Innhold som oppdages proaktivt og håndheves for andre brudd på Snaps Samfunnsretningslinjer, rapporteres ikke her.

**En håndheving kan omgjøres dersom vi fastslår at den ble utført feil i henhold til våre gjeldende retningslinjer på håndhevingstidspunktet, eller hvis vi finner at den opprinnelig var korrekt, men at våre retningslinjer har endret seg på tidspunktet for klagebehandlingen.

Sikringstiltak for innholdsmoderering

Sikkerhetstiltakene som er iverksatt for CSEA-medieskanning, er beskrevet i EU DSA-åpenhetsrapporten ovenfor.

EUs åpenhetsrapport om terrorinnhold på nettet

Publisert: 28. februar 2025

Sist oppdatert: 28. februar 2025

Rapporteringssyklus: 1. januar 2024 - 31. desember 2024

Denne åpenhetsrapporten er publisert i samsvar med artikkel 7(2) og 7(3) i forordning 2021/784 fra Europaparlamentet og EU-rådet, som tar for seg spredningen av terrorinnhold på nettet (forordningen). Den dekker rapporteringsperioden fra 1. januar til 31. desember 2024

Generell informasjon
  • Artikkel 7(3)(a): informasjon om hostingtjenesteleverandørens tiltak for å identifisere og fjerne eller deaktivere tilgang til terrorinnhold

  • Artikkel 7(3)(b): informasjon om hostingtjenesteleverandørens tiltak for å håndtere gjenopptreden på nettet for materiale som tidligere har blitt fjernet eller som tilgangen til har blitt deaktivert fordi det ble ansett å være terrorinnhold, spesielt der automatiserte verktøy er brukt


Snapchat opplever svært få tilfeller av terrorinnhold, og mottok ingen fjerningsbestilling under forordningen i 2024.

Terrorister, terrororganisasjoner og voldelige ekstremister har forbud mot å bruke Snapchat. Innhold som oppfordrer til, fremmer, glorifiserer eller forfremmer terrorisme eller andre voldelige, kriminelle handlinger er forbudt i henhold til våre samfunnsretningslinjer. Brukere kan rapportere innhold som bryter med våre samfunnsretningslinjer via rapporteringsmenyen i appen eller støttesiden. Vi bruker også proaktiv deteksjon for å forsøke å identifisere krenkende innhold på offentlige overflater som ​​Spotlight og Utforsk. 


Uavhengig av hvordan vi blir oppmerksomme på brudd på retningslinjene, gjennomgår våre sikkerhetsteam, ved hjelp av en kombinasjon av automatisering og menneskelig moderering, identifisert innhold umiddelbart og tar beslutninger om håndhevelse. Håndhevelser kan inkludere fjerning av innholdet, varsling eller deaktivering av kontoen som bryter reglene, og, om nødvendig, rapportering av kontoen til politiet. For å forhindre at terror- eller annet voldelig ekstremisme innhold dukker opp igjen på Snapchat, tar vi, i tillegg til å samarbeide med politimyndigheter, skritt for å blokkere enheten knyttet til den aktuelle kontoen og hindre brukeren i å opprette en ny Snapchat-konto.


Ytterligere detaljer angående våre tiltak for å identifisere og fjerne terrorinnhold kan finnes i vår veiledning om hatefullt innhold, terrorisme og voldelig ekstremisme og vår veiledning om moderering, håndhevelse og anker.



Rapporter og håndhevelser 
  • Artikkel 7(3)(c): antall elementer med terrorinnhold som ble fjernet eller som tilgangen til ble deaktivert etter ordre om fjerning eller spesifikke tiltak, og antall ordre om fjerning der innhold ikke har blitt fjernet eller tilgangen til ikke har blitt deaktivert i henhold til artikkel 3(7) første ledd og artikkel 3(8) første ledd, sammen med begrunnelsen for dette


I løpet av rapporteringsperioden mottok ikke Snap noen ordre om fjerning, og vi var heller ikke pålagt å iverksette spesifikke tiltak i henhold til artikkel 5 i forordningen. Følgelig var vi ikke pålagt å iverksette håndhevelsesaksjoner i henhold til forordningen.

Følgende tabell beskriver håndhevingstiltak som er utført basert på brukerrapporter og proaktiv deteksjon mot innhold og kontoer, både i EU og andre steder i verden, som bryter med våre samfunnsretningslinjer knyttet til terrorisme og voldelig ekstremisme

Håndhevingsklager
  • Artikkel 7(3)(d): antall og utfall av klager behandlet av hostingtjenesteleverandøren i samsvar med artikkel 10

  • Artikkel 7(3)(g): antall tilfeller der hostingtjenesteleverandøren gjenoppretter innhold eller tilgang etter klage fra innholdsleverandøren

Fordi vi ikke hadde noen håndshevingstiltak som krevdes i henhold til forordningen i rapporteringsperioden som nevnt ovenfor, håndterte vi ingen klager i henhold til artikkel 10 i forordningen og hadde ingen tilknyttede gjenopprettinger.

Følgende tabell inneholder informasjon knyttet til klager og gjenopprettinger, både i EU og andre steder i verden, som involverer innhold med terrorisme og voldelige ekstremisme håndhevet i henhold til våre samfunnsretningslinjer.

Rettslig saksbehandling og anker
  • Artikkel 7(3)(e): antallet og utfallet av administrative eller rettslige prosesser startet av leverandøren av hostingtjenesten

  • Artikkel 7(3)(f): antall saker der leverandøren av hostingtjenesten ble pålagt å tilbakeføre innhold eller tilgang til dette som følge av administrativ eller rettslig behandling

Siden vi ikke hadde noen håndhevelsesaksjoner som var påkrevd under forordningen i rapporteringsperioden, som nevnt ovenfor, hadde vi ingen tilknyttede administrative eller rettslige gjennomgangsprosesser, og vi var heller ikke pålagt å gjeninnføre innhold som et resultat av slike prosesser.

DSA risikovurdering

Denne rapporten er utarbeidet for å overholde Snaps forpliktelser i henhold til artikkel 34 og 35 i forordning (EU) 2022/2065, og inneholder resultatene av vurderingen vår av systemrisiko som stammer fra designen, funksjonen og bruken av Snapchats nettbaserte plattformer, sammen med metodikken som brukes til å vurdere disse risikoene og tiltakene som er iverksatt for å håndtere disse risikoene.


DSA rapport om vurdering av risiko og tiltak | Snapchat | august 2023 (PDF)


DSA revisjon og revisjonsimplementering

Disse rapportene er utarbeidet for å overholde Snaps forpliktelser i henhold til artikkel 37 i forordning (EU) 2022/2065 og gi: (i) resultatene av den uavhengige revisjonen av Snaps overholdelse av forpliktelsene fastsatt i kapittel III i forordning (EU) 2022/2065, og (ii) tiltakene som er tatt for å implementere de operasjonelle anbefalingene fra den uavhengige revisjonen.

DSA uavhengig revisjonsrapport | Snapchat | august 2024 (PDF)

DSA rapport om revisjonsimplementering | Snapchat | september 2024 (PDF)



EU VSP Retningslinjer for god praksis

Snap er en «leverandør av videodelingsplattformtjeneste» («VSP») i henhold til artikkel 1(1)(aa) i AVMSD. Disse etiske retningslinjene («retningslinjene») er utarbeidet for å beskrive hvordan Snap overholder sine forpliktelser som VSP i henhold til den nederlandske medieloven («DMA») og EU-direktiv 2010/13 (som endret ved direktiv (EU) 2018/1808 («direktivet om audiovisuelle medietjenester» eller «AVMSD»)). Koden gjelder i hele EU og EØS.

EUs VSP-kodeks for oppførsel | Snapchat | Mars 2025 (PDF)

Bulgarsk | Dansk | Estisk | Finsk | Fransk | Gresk | Irsk | Italiensk | Kroatisk | Latvisk | Litauisk | Maltesisk | Nederlandsk | Polsk | Portugisisk | Rumensk | Slovakisk | Slovensk | Spansk | Svensk | Tsjekkisk | Tysk | Ungarsk