Snap Values
EU

Velkommen til EUs (Den europeiske union) åpenhetsside der vi publiserer EU-spesifikk informasjon som kreves av forordningen om digitale tjenester (DSA), direktivet for audiovisuelle medietjenester (AMTD), den nederlandske medieloven (DMA) og TCO-forordningen (terrorrelatert innhold på internett). Vær oppmerksom på at den mest oppdaterte versjonen av disse åpenhetsrapportene finnes i den en-US språkversjonen.

Juridisk representant 

Snap Group Limited har utnevnt Snap B.V. som juridisk representant for DSA-formål. Du kan kontakte representanten på dsa-enquiries [at] snapchat.com for DSA, på vsp-enquiries [at] snapchat.com for AMTD og DMA, på tco-enquiries [at] snapchat.com for TCO, via støttesiden vår [her] eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Hvis du er fra politiet, følg trinnene som er skissert her.

Hold dialogen på nederlandsk eller engelsk når du kontakter oss.

Regulatoriske myndigheter

For DSA er vi regulert av Europakommisjonen og det nederlandske forbruker- og markedstilsynet (ACM). Når det kommer til AMTD og DMA er vi regulert av den nederlandske mediemyndigheten (CvdM). For TCO reguleres vi av den nederlandske myndigheten for forebygging av terrormateriale og materiale som inneholder seksuell misbruk av barn på nett (ATKM).

DSA åpenhetsrapport

Publisert: 28. februar 2025

Sist oppdatert: 23. april 2025 (versjon 2.0)

Rapporteringssyklus: 1. januar 2024 - 31. desember 2024

Vi publiserer denne rapporten i samsvar med kravene til åpenhetsrapportering som er gitt i artiklene 15, 24 og 42 i EUs forordning om digitale tjenester (Regulation (EU) 2022/2065), heretter referert til som «DSA». Med mindre annet er angitt, gjelder informasjonen i denne rapporten for rapporteringsperioden fra 1. juli 2024 til 31. desember 2024 (H2 2024).

1. Gjennomsnittlig antall aktive mottakere per måned 
(DSA-artikler 24.2 og 42.3)

Per 1. januar 2025 har vi 93,7 millioner normal månedlige aktive mottakere («AMAR») av Snapchat-appen vår i EU. Dette betyr at i normal over den 6 måneder lange perioden som endte 31. desember 2024, har 93,7 millioner registrerte brukere i EU åpnet Snapchat-appen minst én gang i løpet av en gitt måned.

Denne figuren viser følgende tall per medlemsland:

Disse tallene ble beregnet for å overholde gjeldende DSA-krav og skal kun brukes til DSA-formål. Beregningen av dette tallet har endret seg over tid, blant annet som svar på endringer av våre interne retningslinjer, regulatorisk veiledning og teknologi, og tallene skal ikke sammenlignes fra en periode til en annen. Dette kan også avvike fra beregningene som brukes for andre aktive brukertall som vi publiserer for andre formål.

2. Forespørsler fra medlemsstatens myndighet
(DSA-artikkel 15.1(a))

a) Pålegg om å handle mot ulovlig innhold


I løpet av rapporteringsperioden (H1 2024) mottok vi null (0) pålegg om å handle mot spesifikt identifiserte deler av ulovlig innhold fra myndigheter i EUs medlemsstater, inkludert de som er utstedt i samsvar med DSA-artikkel 9. 

Siden dette tallet er null (0), kan vi ikke gi en oversikt per type ulovlig innhold det gjelder eller medlemsstaten som utstedte bestillingen, eller medianstiden for å bekrefte mottak eller iverksette bestillingene.

b) Pålegg om å gi informasjon 

I løpet av denne rapporteringsperioden (H1 2024) mottok vi følgende pålegg om å dele brukerdata fra myndigheter i EUs medlemsstater, inkludert de som ble utstedt i samsvar med DSA-artikkel 10:

Den gjennomsnittlige tiden det tok å informere relevante myndigheter om mottak av disse bestillingene for å gi informasjon var 0 minutter – vi sender et automatisk svar som bekrefter mottak. 

Median tiden for å sette disse ordrene om å gi informasjon i kraft var ~12 dager. Denne beregningen gjenspeiler tidsperioden fra da Snap mottok en bestilling til Snap anså saken som løst. Noe som i noen enkelttilfeller delvis kan avhenge av hvor raskt myndighetene i den relevante medlemsstaten svarer på forespørsler om avklaring sendt av Snap, som er nødvendig for å behandle bestillingen.

Merk at vi ikke gir noen detaljert oversikt over bestillingene ovenfor for å informere om kategorisering av typen ulovlig innhold, fordi denne informasjonen generelt sett ikke er tilgjengelig for oss.

3. Moderering av innhold 


Alt innhold på Snapchat må samsvare med våre sammfunnsretningslinjer og tjenestevilkår. Noen typer innhold må også overholde ytterligere retningslinjer og vilkår. For eksempel må innhold som sendes inn for algoritmisk anbefaling til et videre publikum på våre offentlige kringkastingsflater, oppfylle ytterligere, høyere standarder som er angitt i våre Innholdsretningslinjer for anbefalt kvalifisering, mens annonser må overholde våre retningslinjer for annonsering.

Vi håndhever disse retningslinjene ved hjelp av teknologi og menneskelig gjennomgang. Vi tilbyr mekanismer som lar brukere og ikke-brukere rapportere brudd, inkludert ulovlig innhold og aktiviteter, enten direkte i appen eller via nettstedet vårt. Vi bruker også proaktiv teknologi for å oppdage skadelig innhold. Proaktive mekanismer for deteksjon og rapporteringer fører til en gjennomgang, som deretter behandles av en blanding av automatiserte verktøy og menneskelige moderatorer, som iverksetter passende tiltak i samsvar med retningslinjene våre. 

Vi gir ytterligere informasjon om vår innholdsmoderering i H2 2024 nedenfor.

a) Varsler sendt inn i samsvar med DSA-artikkel 16 
(DSA-artikkel 15.1(b))

I samsvar med DSA-artikkel 16 har Snap innført mekanismer som lar brukere og ikke-brukere varsle Snap om spesifikke ting de anser som ulovlig innhold på Snapchat. Dette kan de gjøre ved å rapportere spesifikt innhold eller bestemte kontoer, enten direkte i Snapchat-appen eller på nettstedet vårt.

Når brukere sender inn meldinger i appen eller via nettsiden vår, kan de velge en spesifikk rapporteringsårsak fra en meny med alternativer som gjenspeiler kategoriene av brudd som er oppført i våre Samfunnsretningslinjer (f.eks. hatytringer, narkotika). Våre Samfunnsretningslinjer forbyr innhold og aktiviteter som er ulovlige i EU, og derfor gjenspeiler våre rapporteringsårsaker i stor grad spesifikke kategorier av ulovlig innhold i EU. Imidlertid, i den grad en innmelder i EU mener at innholdet eller kontoen de rapporterer er ulovlig av grunner som ikke er spesifikt referert i vår rapporteringsmeny, kan de rapportere det for «annet ulovlig innhold» og får en mulighet til å forklare hvorfor de mener det de rapporterer er ulovlig.

I løpet av rapporteringsperioden (H2 2024) mottok vi følgende meldinger sendt inn i samsvar med DSA artikkel 16 i EU:

Nedenfor er det en oversikt som gjenspeiler hvordan disse varslene ble behandlet – dvs. gjennom prosessen som inkluderer en menneskelig vurdering eller kun med automatiserte metoder: 

Hvis vi, etter en gjennomgang, mener at innholdet eller kontoen som er rapportert bryter med våre samfunnsretningslinjer (inkludert på grunn av ulovlighet), kan vi (i) fjerne det støtende innholdet, (ii) advare kontoeieren og iverksette en advarsel mot kontoen og/eller (iii) låse kontoen, som ytterligere forklart i vår Snapchat moderasjons-, håndhevelses- og ankeveiledning

I H2 2024 tok vi følgende håndhevelsesaksjoner etter å ha mottatt meldinger sendt inn i henhold til DSA artikkel 16 i EU:

I H2 2024 ble alle rapporter for «annet ulovlig innhold» som vi iverksatte tiltak på, til syvende og sist håndhevet under våre Samfunnsretningslinjer, fordi våre Samfunnsretningslinjer forbød det aktuelle innholdet eller aktiviteten. Vi kategoriserte derfor disse håndhevelsene under den relevante kategorien for brudd på samfunnsretningslinjene i tabellen ovenfor.

I tillegg til håndhevelsene nevnt ovenfor kan vi iverksette tiltak mot innhold som det er varslet om til oss i samsvar med andre gjeldende Snap-vilkår og -retningslinjer: 

  • Med hensyn til innhold på våre offentlige kringkastingsflater, hvis vi bestemmer at det rapporterte innholdet ikke oppfyller våre kriterier i Innholdsretningslinjer for anbefalt kvalifisering, kan vi avvise innholdet for algoritmisk anbefaling, eller vi kan begrense distribusjonen av innholdet for å utelukke visse publikumsgrupper (hvis innholdet oppfyller våre kvalifikasjonskriterier for anbefaling, men ellers er sensitivt eller antydende).

I H1 2024 iverksatte vi følgende handlinger angående innhold på Snapchats offentlige overflater som ble rapportert til oss i EU, i samsvar med våre innholdsretningslinjer for anbefalt kvalifisering:

  • Hvis vi fastslår at en rapportert annonse bryter med annonsevilkårene våre, kan vi fjerne den etter gjennomgang. 


I H2 2024 tok vi følgende tiltak angående annonser som ble rapportert til oss i EU:


b) Moderering av innhold utført på Snaps eget initiativ 
(Artikkel 15.1(c))


I tillegg til å gå gjennom varsler som er sendt i samsvar med DSA-artikkel 16, driver Snap også med innholdsmoderering på eget initiativ. Nedenfor gir vi informasjon om innholdsmoderering som er utført på Snaps eget initiativ, inkludert bruk av automatiserte verktøy, tiltak som er iverksatt for å gi opplæring og hjelp til personer som er ansvarlige for innholdsmoderering, og antall og type restriksjoner som er pålagt som følge av denne proaktive innholdsmodereringen.

  • Bruk av automatiserte verktøy i Snaps moderering på eget initiativ

Vi bruker automatiserte verktøy for å proaktivt oppdage og, i noen tilfeller, håndheve brudd på vilkårene og retningslinjene våre. Disse verktøyene inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google CSAI Match), Google Content Safety API, modeller for gjenkjenning av krenkende språk (som oppdager og avviser innhold basert på en identifisert og jevnlig oppdatert liste over krenkende nøkkelord og emojier), samt teknologier som benytter seg av kunstig intelligens, maskinlæring og store språkmodeller. De automatiserte verktøyene våre er designet for å oppdage brudd på våre samfunnsretningslinjer (som blant annet forbyr ulovlig innhold) og, der det er aktuelt, våre innholdsretningslinjer for anbefalt kvalifisering og annonsevilkår. 

I H2 2024 ble all vår proaktive deteksjon utført ved hjelp av automatiserte verktøy. Når de automatiserte verktøyene oppdager potensielle brudd på retningslinjene våre, iverksetter de automatisk handling i samsvar med retningslinjene, eller de oppretter en oppgave for menneskelig gjennomgang. Antall og type restriksjoner som ble pålagt som et resultat av denne prosessen er beskrevet nedenfor. 

  • Antall og type restriksjoner som ble pålagt på Snaps eget initiativ

I H2 2024 tok Snap følgende håndhevelsesaksjoner etter proaktivt å ha oppdaget brudd på våre Samfunnsretningslinjer (inkludert brudd som utgjør ulovlig innhold og aktiviteter under EU- og medlemsstatslovgivning):

I tillegg, i H2 2024, med hensyn til innhold på våre offentlige kringkastingsflater, tok vi følgende tiltak etter proaktivt å ha oppdaget brudd på våre Innholdsretningslinjer for anbefalt kvalifisering ved bruk av automatiserte verktøy på Snapchat:

* Som det fremgår i våre innholdsretningslinjer for anbefalt kvalifisering, kan kontoer som gjentatte ganger bryter med eller begår alvorlige brudd på våre innholdsretningslinjer for anbefalt kvalifisering midlertidig eller permanent diskvalifiseres fra anbefalinger på de offentlige overflatene våre. Vi utfører denne handlingen i sammenheng med det proaktive modereringsarbeidet vårt.

Videre, i H2 2024, tok vi følgende tiltak etter å ha proaktivt oppdaget brudd på våre retningslinjer for annonsering på Snapchat, ved bruk av automatiserte verktøy:

  • Tiltak som er iverksatt for å gi opplæring og hjelp til personer med ansvar for innholdsmoderering

Innholdsmodereringsteamene våre bruker retningslinjene for innholdsmoderering for å beskytte Snapchat-fellesskapet vårt. De læres opp i en periode på flere uker, der nye teammedlemmer undervises om Snaps retningslinjer, verktøy og eskaleringsprosedyrer. Modereringsteamene våre deltar regelmessig i oppfriskningsopplæring som er relevante for deres arbeidsoppgaver, spesielt når vi støter på saker som er på grensen av retningslinjene og kontekstavhengige. Vi foretar også ferdighetsforbedrende programmer, sertifiseringssesjoner og quizer for å sikre at alle moderatorer er oppdaterte og i samsvar med alle oppdaterte retningslinjer. Til slutt, når presserende innholdstrender dukker opp basert på aktuelle hendelser, sprer vi raskt policyavklaringer slik at teamene kan svare i henhold til Snaps retningslinjer.

Vi gir våre team for innholdsmoderering betydelig støtte og ressurser, inkludert velferdsstøtte på jobben og enkel tilgang til tjenester for mental helse.

c) Klager som er mottatt gjennom Snaps interne klagebehandlingssystemer (dvs. anker) 
(Artikkel 15.1(d))


Brukere som har fått sin konto låst av sikkerhetsteamene våre for brudd på samfunnsretningslinjene (inkludert for ulovlig innhold og aktiviteter), kan sende inn en klage for låst konto. Brukere kan også klage på visse avgjørelser om innholdsmoderering.

I løpet av rapporteringsperioden (H1 2024) behandlet Snap følgende klager (inkludert klager om låst konto og moderering av innhold) sendt inn via sine interne klagebehandlingssystemer i EU:

d) Bruk av automatiserte metoder for å moderere innhold 
(Artikkel 15.1(e) og 42.2(c))

  • Kvalitativ beskrivelse og formål

Som forklart ovenfor i avsnitt 3(b), bruker vi automatiserte verktøy for å proaktivt oppdage og, i noen tilfeller, håndheve brudd på våre vilkår og retningslinjer. Disse verktøyene inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google CSAI Match), Google Content Safety API, modeller for gjenkjenning av krenkende språk (som oppdager og avviser innhold basert på en identifisert og jevnlig oppdatert liste over krenkende nøkkelord og emojier), samt teknologier som benytter seg av kunstig intelligens, maskinlæring og store språkmodeller. De automatiserte verktøyene våre er designet for å oppdage brudd på våre samfunnsretningslinjer (som blant annet forbyr ulovlig innhold) og, der det er aktuelt, våre innholdsretningslinjer for anbefalt kvalifisering og annonsevilkår. 

Når de automatiserte verktøyene oppdager potensielle brudd på retningslinjene våre, iverksetter de automatisk handling i samsvar med retningslinjene, eller de lage en oppgave for menneskelig gjennomgang.

  • Indikatorer for nøyaktighet og mulig feilfrekvens, fordelt etter medlemsstat

For å vurdere nøyaktigheten og feilfrekvensen til våre automatiserte modereringsverktøy, trekker vi tilfeldige utvalg av oppgaver behandlet av disse verktøyene på våre offentlige overflater, og sender dem til ny gjennomgang av våre menneskelige modereringsteam. Nøyaktighetsprosenten er andelen av oppgaver fra disse tilfeldige utvalgene som bekreftes å ha korrekte modereringsbeslutninger ved en ny gjennomgang av menneskelige moderatorer. Feilfrekvensen er differansen mellom 100 % og nøyaktighetsgraden som er beregnet som beskrevet ovenfor. 

Vi overvåker nøyaktigheten og den mulige feilraten for to brede kategorier av automatiserte moderasjonsverktøy, nemlig:

  • Automatiserte verktøy som oppdager og/eller håndhever brudd på våre Samfunnsretningslinjer, og kan føre til håndhevelser mot en brukerkonto (f.eks. advarsler mot kontoen eller at kontoen blir låst). Basert på prøvetaking, var nøyaktighetsprosenten for disse automatiserte verktøyene i H2 2024 omtrent 95 %, og feilprosenten var omtrent 5 %.

  • Automatiserte verktøy som oppdager og/eller iverksetter tiltak på innhold på våre offentlige kringkastingsflater på grunnlag av våre Innholdsretningslinjer for anbefalt kvalifisering. Basert på prøvetaking, var nøyaktighetsprosenten for disse automatiserte verktøyene i H2 2024 omtrent 85 %, og feilprosenten var omtrent 15 %.

Basert på prøvetaking, var den kombinerte nøyaktighetsprosenten for de automatiserte verktøyene som ble brukt i begge kategoriene som er beskrevet ovenfor, omtrent 89 %, og feilprosenten var omtrent 11 % i H2 2024.


Vi sporer generelt ikke språket på innholdet vi modererer på Snapchat, og kan derfor ikke gi en oversikt over nøyaktighets- og feilratene for våre automatiserte moderasjonsverktøy for hvert offisielle språk i medlemsstatene. Som en stedfortreder for denne informasjonen gir vi nedenfor en oversikt over våre kombinerte nøyaktighets- og feilrater for automatisk moderert innhold (på tvers av både våre Samfunnsretningslinjer og våre Innholdsretningslinjer for anbefalt kvalifisering) som stammer fra hver medlemsstat.

  • Beskyttelsesregler

Vi er bevisste på den potensielle intensiteten av automatiserte moderasjonsverktøy på grunnleggende rettigheter, og vi iverksetter sikkerhetstiltak for å minimere denne intensitet.

Våre automatiserte verktøy for innholdsmoderering testes før de tas i bruk. Modeller testes offline for ytelse og tas i bruk via A/B-testing for å sikre at de fungerer som de skal, før de fases fult inn i produksjonen. Vi gjennomfører kvalitetskontroll (QA) før lansering, utfører lanseringsgjennomgang og løpende QA-sjekker av presisjonen under delvis (faset) utrullinger. 

Etter lanseringen av de automatiserte verktøyene evaluerer vi ytelsen og nøyaktigheten fortløpende, og justerer etter behov. Denne prosessen innebærer en ny gjennomgang av prøver på automatiserte oppgaver av våre menneskelige moderatorer for å identifisere modeller som krever justeringer for å forbedre nøyaktigheten. Vi overvåker også forekomsten av spesifikke skader på Snapchat via daglige tilfeldige prøver av visst offentlig innhold, og utnytter denne informasjonen til å identifisere områder for ytterligere forbedring.

Retningslinjene og systemene våre fremmer konsistent og rettferdig håndhevelse, inkludert gjennom de automatiserte verktøyene våre, og gir Snapchattere en mulighet til å bestride resultater av håndhevelse gjennom varslings- og ankeprosesser som tar sikte på å ivareta interessene til fellesskapet vårt, samtidig som det beskytter individuelle Snapchatteres rettigheter.

Vi jobber kontinuerlig med å forbedre våre automatiserte verktøy for innholdsmoderering for å forbedre nøyaktigheten, og for å støtte konsistent og rettferdig håndhevelse av retningslinjene våre.

e) Tvister sendt til utenrettslige tvisteløsningsorganer etter artikkel 21
(Artikkel 24.1(a))

For rapporteringsperioden (H2 2024) gir vi følgende informasjon om tvister som ble sendt inn mot Snap til de utenrettslige tvisteløsningsorganene som det er henvist til i DSA artikkel 21: 

Tabellen ovenfor gjenspeiler statusen per 31. desember 2024 for tvister som ble sendt til sertifiserte organer for utenrettslig tvisteløsning i henhold til DSA artikkel 21 i løpet av rapporteringsperioden (H2 2024). Per 31. desember 2024, av 20 tvister som ble sendt til slike organer i H2 2024, var 15 under behandling, og 5 var blitt avgjort før en beslutning ble utstedt.

Merk at vi i tabellen ovenfor ikke har inkludert klager som ble sendt til et sertifisert organ i henhold til artikkel 21, men som det relevante organet fant at ikke kunne tas opp til behandling før de ble overført til Snap. Vi kan ikke bekrefte antall tvister som faller innenfor denne kategorien, fordi noen, men ikke alle, sertifiserte organer varsler Snap om slike tvister. Vi er imidlertid klar over 6 klager som faller inn under denne kategorien i H2 2024.

f) Suspensjoner pålagt i henhold til artikkel 23 
(Artikkel 24.1(b))
  • Suspensjoner i henhold til artikkel 23.1: suspensjon av kontoer som ofte har åpenbart ulovlig innhold 

Som forklart i vår forklaring om moderering, håndhevelse og anker på Snapchat, blir kontoer som vi fastslår primært brukes til å bryte våre Samfunnsretningslinjer (inkludert gjennom tilbud av åpenbart ulovlig innhold) og kontoer som påfører alvorlig skade, umiddelbart deaktivert. For andre brudd på våre samfunnsretningslinjer anvender Snap en håndhevelsesprosess i tre deler:

  • Trinn 1: Det krenkende innholdet blir fjernet.

  • Trinn to: brukeren mottar et varsel om at de har brutt våre Samfunnsretningslinjer, at innholdet deres er blitt fjernet, og at gjentatte brudd vil føre til ytterligere håndhevelsesaksjoner, inkludert deaktivering av kontoen deres.

  • Trinn tre: teamet vårt registrerer en advarsel mot brukerens konto.

Informasjon angående antall advarsler (dvs. varsler) og midlertidige sperringer som ble påført kontoer i EU i H2 2024 finnes ovenfor, i avsnitt 3(a) og 3(b).

  • Suspensjoner i henhold til artikkel 23.2: suspensjon av behandlingen av varsler og klager fra enkeltpersoner, enheter og klagere som ofte sender inn varsler eller klager som åpenbart er grunnløse

Bruken av den interne definisjonen vår «åpenbart grunnløse» varsler og klager, samt våre interne terskler for hva vi anser som hyppig innsending av slike varsler og klager, antall suspensjoner av behandlingen av varsler og klager pålagt i første halvdel av 2024 i henhold til DSA-artikkel 23.2, er som følger:

4. Informasjon om innholdsmodereringsteamene våre 
a) Menneskelige ressurser dedikert til innholdsmoderering, inkludert for samsvar med DSA-artikkel 16, 20 og 22, oppdelt etter offisielle språk i medlemsstatene
(Artikkel 42.2(a))


Innholdsmodereringsteamene våre opererer over hele verden, døgnet rundt, og gjør at vi kan bidra til å holde samfunnet vårt trygt. Nedenfor er en detaljert fordeling av våre menneskelige moderatorressurser fordelt etter språkspesialiseringer (merk at noen moderatorer har kompetanse i flere språk) per 31. desember 2024:

Tabellen ovenfor inkluderer alle menneskelige ressurser dedikert til innholdsmoderering som støtter offisielle språk i EUs medlemsstater per 31. desember 2024. I situasjoner der vi har behov for ekstra språkstøtte, tar vi i bruk oversettingstjenester.

b) Kvalifikasjon og språklig ekspertise for innholdsmoderatorer, opplæring og støtte som gis
(Artikkel 42.2(b))

Moderatorer rekrutteres gjennom en standard stillingsbeskrivelse som inneholder et språkkrav (avhengig av behovet). Språkkravet sier at kandidaten må kunne demonstrere skriftlig og muntlig flyt i språket, og for stillinger på inngangsnivå kreves det at kandidatene har minst ett års arbeidserfaring. Kandidater må oppfylle kravene til utdanning og bakgrunn for å bli vurdert. Kandidatene må også vise forståelse for aktuelle hendelser i landet eller området de skal bidra med innholdsmoderasjon i. 


Se ovenfor for informasjon om opplæringen og støtten som Snap gir til innholdsmoderatorer, som er et eget krav i henhold til DSA artikkel 15(1)(c) og derfor er inkludert i avsnitt 3(b), i det siste underavsnittet med tittelen: «Tiltak iverksatt for å gi opplæring og assistanse til personer med ansvar for innholdsmoderering»

Rapport om skanning av medier for seksuell utnyttelse og misbruk av barn (CSEA)

Utgitt: 31. januar 2025

Sist oppdatert: 31. januar 2025

Denne rapporten dekker perioden fra 1. januar 2024 til 31. desember 2024.

Bakgrunn

Seksuell utnyttelse av ethvert medlem av fellesskapet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til Samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse og overgrep av barn (CSEA) på plattformen vår er en førsteprioritet for oss, og vi utvikler kontinuerlig kompetansen vår for å bekjempe disse og andre typer forbrytelser.


Teknologiene vi bruker inkluderer (a) PhotoDNA for robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere kjente ulovlige bilder og videoer av CSEA, og (b) Googles Content Safety API for å identifisere nytt CSEA-materiale som ikke tidligere er hashet. Vi rapporterer CSEA-materiale til USAs nasjonale senter for savnede og utnyttede barn (NCMEC), slik loven krever. NCMEC koordinerer i sin tur med politimyndigheter i USA og andre land, etter behov.


Rapport

Diagrammet nedenfor viser data om proaktiv oppdagelse og tilhørende håndhevingstiltak mot EU-brukere for CSEA-materiale i 2024. (Vær oppmerksom på at noen tiltak fra denne proaktive skanningen i 2024 kan være under klagebehandling når denne rapporten ble utarbeidet, og er derfor ikke inkludert i dataene om klager og gjenopprettelser.)

*Denne kategorien rapporterer håndhevelser for brudd på Snaps Samfunnsretningslinjer som forbyr seksuell utnyttelse av barn.  Innhold som oppdages proaktivt og håndheves for andre brudd på Snaps Samfunnsretningslinjer, rapporteres ikke her.

**En håndheving kan omgjøres dersom vi fastslår at den ble utført feil i henhold til våre gjeldende retningslinjer på håndhevingstidspunktet, eller hvis vi finner at den opprinnelig var korrekt, men at våre retningslinjer har endret seg på tidspunktet for klagebehandlingen.

Sikringstiltak for innholdsmoderering

Sikkerhetstiltakene som er iverksatt for CSEA-medieskanning, er beskrevet i EU DSA-åpenhetsrapporten ovenfor.

EUs åpenhetsrapport om terrorinnhold på nettet

Publisert: 28. februar 2025

Sist oppdatert: 28. februar 2025

Rapporteringssyklus: 1. januar 2024 - 31. desember 2024

Denne åpenhetsrapporten er publisert i samsvar med artikkel 7(2) og 7(3) i forordning 2021/784 fra Europaparlamentet og EU-rådet, som tar for seg spredningen av terrorinnhold på nettet (forordningen). Den dekker rapporteringsperioden fra 1. januar til 31. desember 2024

Generell informasjon
  • Artikkel 7(3)(a): informasjon om hostingtjenesteleverandørens tiltak for å identifisere og fjerne eller deaktivere tilgang til terrorinnhold

  • Artikkel 7(3)(b): informasjon om hostingtjenesteleverandørens tiltak for å håndtere gjenopptreden på nettet for materiale som tidligere har blitt fjernet eller som tilgangen til har blitt deaktivert fordi det ble ansett å være terrorinnhold, spesielt der automatiserte verktøy er brukt


Snapchat opplever svært få tilfeller av terrorinnhold, og mottok ingen fjerningsbestilling under forordningen i 2024.

Terrorister, terrororganisasjoner og voldelige ekstremister har forbud mot å bruke Snapchat. Innhold som oppfordrer til, fremmer, glorifiserer eller forfremmer terrorisme eller andre voldelige, kriminelle handlinger er forbudt i henhold til våre samfunnsretningslinjer. Brukere kan rapportere innhold som bryter med våre samfunnsretningslinjer via rapporteringsmenyen i appen eller støttesiden. Vi bruker også proaktiv deteksjon for å forsøke å identifisere krenkende innhold på offentlige overflater som ​​Spotlight og Utforsk. 


Uavhengig av hvordan vi blir oppmerksomme på brudd på retningslinjene, gjennomgår våre sikkerhetsteam, ved hjelp av en kombinasjon av automatisering og menneskelig moderering, identifisert innhold umiddelbart og tar beslutninger om håndhevelse. Håndhevelser kan inkludere fjerning av innholdet, varsling eller deaktivering av kontoen som bryter reglene, og, om nødvendig, rapportering av kontoen til politiet. For å forhindre at terror- eller annet voldelig ekstremisme innhold dukker opp igjen på Snapchat, tar vi, i tillegg til å samarbeide med politimyndigheter, skritt for å blokkere enheten knyttet til den aktuelle kontoen og hindre brukeren i å opprette en ny Snapchat-konto.


Ytterligere detaljer om tiltakene våre for å identifisere og fjerne terrorinnhold finner du i vår forklaring om hatefullt innhold, terrorisme og voldelig ekstremisme og i vår forklaring om moderering, håndhevelse og anker



Rapporter og håndhevelser
  • Artikkel 7(3)(c): antall elementer med terrorinnhold som ble fjernet eller som tilgangen til ble deaktivert etter ordre om fjerning eller spesifikke tiltak, og antall ordre om fjerning der innhold ikke har blitt fjernet eller tilgangen til ikke har blitt deaktivert i henhold til artikkel 3(7) første ledd og artikkel 3(8) første ledd, sammen med begrunnelsen for dette


I løpet av rapporteringsperioden mottok ikke Snap noen ordre om fjerning, og vi var heller ikke pålagt å iverksette spesifikke tiltak i henhold til artikkel 5 i forordningen. Dermed var vi ikke pålagt å iverksette tiltak i henhold til forordningen.

Følgende tabell beskriver håndhevingstiltak som er utført basert på brukerrapporter og proaktiv deteksjon mot innhold og kontoer, både i EU og andre steder i verden, som bryter med våre samfunnsretningslinjer knyttet til terrorisme og voldelig ekstremisme

Håndhevingsklager
  • Artikkel 7(3)(d): antall og utfall av klager behandlet av hostingtjenesteleverandøren i samsvar med artikkel 10

  • Artikkel 7(3)(g): antall tilfeller der hostingtjenesteleverandøren gjenoppretter innhold eller tilgang etter klage fra innholdsleverandøren

Fordi vi ikke hadde noen håndshevingstiltak som krevdes i henhold til forordningen i rapporteringsperioden som nevnt ovenfor, håndterte vi ingen klager i henhold til artikkel 10 i forordningen og hadde ingen tilknyttede gjenopprettinger.

Følgende tabell inneholder informasjon knyttet til klager og gjenopprettinger, både i EU og andre steder i verden, som involverer innhold med terrorisme og voldelige ekstremisme håndhevet i henhold til våre samfunnsretningslinjer.

Rettslig saksbehandling og anker
  • Artikkel 7(3)(e): antallet og utfallet av administrative eller rettslige prosesser startet av leverandøren av hostingtjenesten

  • Artikkel 7(3)(f): antall saker der leverandøren av hostingtjenesten ble pålagt å tilbakeføre innhold eller tilgang til dette som følge av administrativ eller rettslig behandling

Siden vi ikke hadde noen håndhevelsesaksjoner som var påkrevd under forordningen i rapporteringsperioden, som nevnt ovenfor, hadde vi ingen tilknyttede administrative eller rettslige gjennomgangsprosesser, og vi var heller ikke pålagt å gjeninnføre innhold som et resultat av slike prosesser.

DSA risikovurdering

Denne rapporten er utarbeidet for å overholde Snaps forpliktelser i henhold til artikkel 34 og 35 i forordning (EU) 2022/2065, og inneholder resultatene av vurderingen vår av systemrisiko som stammer fra designen, funksjonen og bruken av Snapchats nettbaserte plattformer, sammen med metodikken som brukes til å vurdere disse risikoene og tiltakene som er iverksatt for å håndtere disse risikoene.


DSA rapport om vurdering av risiko og tiltak | Snapchat | august 2023 (PDF)


DSA revisjon og revisjonsimplementering

Disse rapportene er utarbeidet for å overholde Snaps forpliktelser i henhold til artikkel 37 i forordning (EU) 2022/2065 og gi: (i) resultatene av den uavhengige revisjonen av Snaps overholdelse av forpliktelsene fastsatt i kapittel III i forordning (EU) 2022/2065, og (ii) tiltakene som er tatt for å implementere de operasjonelle anbefalingene fra den uavhengige revisjonen.

DSA uavhengig revisjonsrapport | Snapchat | august 2024 (PDF)

DSA rapport om revisjonsimplementering | Snapchat | september 2024 (PDF)



EU VSP Retningslinjer for god praksis

Snap er en «leverandør av videodelingsplattformtjeneste» («VSP») i henhold til artikkel 1(1)(aa) i AVMSD. Disse etiske retningslinjene («retningslinjene») er utarbeidet for å beskrive hvordan Snap overholder sine forpliktelser som VSP i henhold til den nederlandske medieloven («DMA») og EU-direktiv 2010/13 (som endret ved direktiv (EU) 2018/1808 («direktivet om audiovisuelle medietjenester» eller «AVMSD»)). Koden gjelder i hele EU og EØS.

EUs VSP-kodeks for oppførsel | Snapchat | Mars 2025 (PDF)

Bulgarsk | Dansk | Estisk | Finsk | Fransk | Gresk | Irsk | Italiensk | Kroatisk | Latvisk | Litauisk | Maltesisk | Nederlandsk | Polsk | Portugisisk | Rumensk | Slovakisk | Slovensk | Spansk | Svensk | Tsjekkisk | Tysk | Ungarsk