Snap Values
Europeiska unionen

Välkommen till vår insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD), Dutch Media Act (DMA) och Terrorist Content Online Regulation (TCO). Observera att den mest uppdaterade versionen av dessa insynsrapporter finns på amerikansk engelska (en-US).

Juridiskt ombud 

Snap Group Limited har utsett Snap B.V. som sitt juridiska ombud för DSA:s ändamål. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, på tco-enquiries [at] snapchat.com för TCO, genom vår supportsida [här], eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna

Brottsbekämpande myndigheter kan följa stegen som beskrivs här.

Kommunicera på engelska eller nederländska när du kontaktar oss.

Tillsynsmyndigheter

För DSA, regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM). För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM). För TCO regleras vi av den nederländska myndigheten för förebyggande av terrorisminnehåll online och material innehållande sexuella övergrepp mot barn (ATKM).

DSA:s insynsrapport

Publicerad: 28 februari 2025

Senast uppdaterad: 23 april 2025 (version 2.0)

Rapporteringscykel: 1 juli 2024 - 31 december 2024

Vi publicerar denna rapport i enlighet med de rapporteringskrav som anges i artiklarna 15, 24 och 42 i Europeiska unionens (EU) Digital Services Act (förordning (EU) 2022/2065) (”DSA”). Om inget annat anges gäller informationen i denna rapport för rapporteringsperioden från 1 juli 2024 till 31 december 2024 (H2 2024). 

1. Genomsnittligt antal aktiva mottagare per månad 
(DSA-artiklarna 24.2 och 42.3)

Per den 1:a oktober 2024 har vi 92,9 miljoner genomsnittliga aktiva mottagare per månad ("AMAR") för vår app Snapchat inom EU. Detta innebär att under 6-månadersperioden som avslutades den 30 september 2024 har i genomsnitt 92,9 miljoner registrerade användare inom EU öppnat appen Snapchat minst en gång under en given månad.

Denna siffra fördelas per medlemsstat enligt följande:

Dessa siffror beräknades för att följa nuvarande DSA-krav och bör bara tillämpas för DSA-ändamål. Vi har ändrat hur vi beräknar denna siffra över tid, inklusive som svar på ändrade interna policyer, vägledning och teknik för tillsynsmyndigheter, och siffror är inte avsedda att jämföras mellan perioder. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.

2. Begäran från medlemsstaters myndighet
(DSA artikel 15.1(a))

a) Tillsägelse att agera mot olagligt innehåll


Under denna rapporteringsperiod (andra halvåret 2024) fick vi noll (0) tillsägelser från EU-medlemsstaternas myndigheter att agera mot specifikt identifierade delar av olagligt innehåll, inklusive de som utfärdats i enlighet med DSA-artikel 9. 

Eftersom detta antal är noll (0) kan vi inte tillhandahålla en uppdelning per typ av olagligt innehåll eller medlemsstat som utfärdar tillsägelsen, eller mediantiden för att bekräfta mottagande eller verkställande av tillsägelserna.

b) Tillsägelse att tillhandahålla information 

Under denna rapporteringsperiod (andra halvåret 2024) tog vi emot följande tillsägelser från EU-medlemsstaternas myndigheter om att avslöja användardata, inklusive dem som utfärdats i enlighet med DSA-artikel 10:

Mediantiden för att informera relevanta myndigheter om mottagande av dessa tillsägelser att tillhandahålla information var 0 minuter – vi tillhandahåller ett automatiserat svar som bekräftar mottagandet. 

Mediantiden för att verkställa dessa tillsägelser att tillhandahålla information var ~12 dagar. Detta mätvärde återspeglar tidsperioden från när Snap tog emot en tillsägelse till när Snap ansåg att frågan var helt löst, vilket i enskilda fall delvis kan bero på med vilken hastighet den relevanta medlemsstatens myndighet svarar på alla förfrågningar om förtydligande från Snap som krävs för att behandla tillsägelsen.

Observera att vi inte tillhandahåller en uppdelning av ovanstående tillsägelser om att tillhandahålla information kategoriserad efter typ av olagligt innehåll eftersom denna information inte är allmänt tillgänglig för oss.

3. Moderering av innehåll 


Allt innehåll på Snapchat måste hålla sig till våra Community-riktlinjer och Tjänstevillkor. Visst innehåll måste också hålla sig till ytterligare riktlinjer och policyer. Exempel: Innehåll som skickats in för algoritmisk rekommendation till en bredare publik på våra offentliga sändningsytor måste uppfylla ytterligare och högre standarder som tillhandahålls i våra Innehållsriktlinjer för berättigande till rekommendationer, medan annonsering måste följa våra Annonsvillkor.

Vi verkställer dessa policyer med hjälp av teknik och mänsklig granskning. Vi tillhandahåller också mekanismer för Snapchattare att rapportera brott, inklusive olagligt innehåll och aktiviteter, direkt i appen eller genom vår webbplats. Vi använder också proaktiv teknik för att upptäcka skador. Proaktiva detekteringsmekanismer och rapporter uppmanar till granskning, som sedan utnyttjar en blandning av automatiserade verktyg och mänskliga moderatorer för att vidta lämpliga åtgärder i enlighet med våra policyer. 

Vi tillhandahåller ytterligare information om vår moderering av innehåll under andra halvåret 2024 nedan.

a) Meddelanden som lämnats in i enlighet med DSA-artikel 16 
(DSA-artikel 15.1(b))

I enlighet med DSA-artikel 16 har Snap infört mekanismer som gör det möjligt för användare och icke-användare att meddela Snap om närvaro på Snapchat av specifika delar av information som de anser vara olagligt innehåll. De kan göra det genom att rapportera specifika delar av innehåll eller konton, antingen direkt i appen Snapchat eller på vår webbplats. 

Vid inlämning av meddelanden i appen eller via vår webbplats kan reportrar välja en specifik anledning för rapportering från en meny med alternativ som återspeglar de kategorier av överträdelser som anges i våra Community-riktlinjer (t.ex. hatretorik, droganvändning eller -försäljning). Våra Community-riktlinjer förbjuder innehåll och aktiviteter som är olagliga inom EU, så vår rapportering återspeglar i stor utsträckning specifika kategorier av olagligt innehåll inom EU. Men i den utsträckning som en rapportör inom EU anser att innehållet eller kontot som de rapporterar är olagligt av skäl som inte specifikt anges i vår rapporteringsmeny, kan de rapportera det för "annat olagligt innehåll" och ges möjlighet att förklara varför de tror att vad de rapporterar är olagligt. 

Under rapporteringsperioden (andra halvåret 2024) tog vi emot följande meddelanden som lämnats in i enlighet med DSA-artikel 16 inom EU:

Nedan tillhandahåller vi en uppdelning som återspeglar hur dessa meddelanden behandlades – dvs. genom en process som inkluderar mänsklig granskning eller endast via automatiserade medel: 

Om vi vid en granskning fastställer att rapporterat innehåll eller konto bryter mot våra Community-riktlinjer (inklusive på grund av olaglighet), kan vi (i) ta bort det kränkande innehållet, (ii) ge en varning till den relevanta kontoinnehavaren och/eller (iii) låsa det relevanta kontot, vilket förklaras ytterligare i vår Förklaring för moderering, verkställande och överklaganden i Snapchat

Under andra halvåret 2024 vidtog vi följande verkställande åtgärder efter mottagande av meddelanden som lämnats in i enlighet DSA-artikel 16 inom EU:

Under andra halvåret 2024 där vi vidtagit åtgärder mot “annat olagligt innehåll” i enlighet med våra Community-riktlinjer eftersom våra Community-riktlinjer förbjöd det aktuella innehållet eller aktiviteten. Vi kategoriserade således dessa verkställanden enligt respektive brottskategori enligt Community-riktlinjen i tabellen ovan.

Utöver ovanstående verkställanden kan vi vidta åtgärder för innehåll som meddelats oss i enlighet med andra tillämpliga Snap-policyer och -riktlinjer: 

  • När det gäller innehåll på våra offentliga sändningsytor kan vi, om vi fastställer att det rapporterade innehållet inte uppfyller våra Innehållsriktlinjer för berättigande till rekommendationer och kriterierna för berättigande till rekommendationer i enlighet med våra Innehållsriktlinjer för berättigande till rekommendationer eller så kan vi begränsa distributionen av innehållet för att utesluta vissa mottagare (om innehållet uppfyller våra behörighetskriterier för rekommendation men på annat sätt är känsligt eller suggestivt).  

Under andra halvåret 2024 vidtog vi följande åtgärder för innehåll på Snapchats offentliga sändningsytor som rapporterats till oss inom EU, i enlighet med våra Innehållsriktlinjer för berättigande till rekommendationer:

  • Om vi fastställer att en rapporterad annonsering bryter mot våra Annonsvillkor kan vi ta bort den vid granskning. 


Under andra halvåret 2024 vidtog vi följande åtgärder för annonser som rapporterats till oss inom EU:


b) Moderering av innehåll som Snap på eget initiativ engagerar sig i 
(artikel 15.1(c))


Utöver att granska meddelanden som lämnats in i enlighet med DSA-artikel 16 engagerar sig Snap också i moderering av innehåll på eget initiativ. Nedan tillhandahåller vi information om moderering av innehåll som Snap på eget initiativ engagerat sig i, inklusive användning av automatiserade verktyg, de åtgärder som vidtagits för att tillhandahålla utbildning och stöd till personer som ansvarar för moderering av innehåll samt antalet och typerna av begränsningar som införts till följd av dessa proaktiva ansträngningar för moderering av innehåll.

  • Användning av automatiserade verktyg vid moderering på eget initiativ av Snap

Vi använder automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, genomdriva brott mot våra villkor och policyer. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Google CSAI Match), Google Content Safety API, modeller för upptäckt av missbruk av språk (som upptäcker och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över missbruk av nyckelord och emojis) och tekniker som utnyttjar artificiell intelligens, maskininlärning och modeller för stora språk. Våra automatiserade verktyg är utformade för att upptäcka brott mot våra Community-riktlinjer för berättigande till rekommendationer och där det är tillämpligt, våra Innehållsriktlinjer för berättigande till rekommendationer och Annonsvillkor. 

Under andra halvåret 2024 genomfördes all vår proaktiva detektering med hjälp av automatiserade verktyg. När våra automatiserade verktyg upptäcker ett potentiellt brott mot våra policyer vidtar de antingen automatiskt åtgärder i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning. Antalet och typerna av begränsningar som införts till följd av denna process beskrivs nedan. 

  • Antal och typer av begränsningar som införts på eget initiativ av Snap

Under andra halvåret 2024 vidtog Snap följande åtgärder för att proaktivt upptäcka brott mot våra Community-riktlinjer (inklusive brott mot olagligt innehåll och aktiviteter enligt EU:s lagar):

Dessutom: beträffande innehåll på våra offentliga sändningsytor, vidtog vi under andra halvåret 2024 följande åtgärder efter att på Snapchat proaktivt ha upptäckt, genom användning av automatiserade verktyg, brott mot våra Innehållsriktlinjer för berättigande till rekommendationer:

* Som anges i våra Innehållsriktlinjer för berättigande till rekommendationer kan konton som upprepade gånger eller grovt bryter mot våra Innehållsriktlinjer för berättigande till rekommendationer tillfälligt eller permanent diskvalificeras från rekommendationer på våra offentliga sändningsytor. Vi tillämpar denna åtgärd i samband med våra proaktiva modereringsinsatser.

Under första halvåret 2024 vidtog vi dessutom följande åtgärder efter att genom användning av automatiserade verktyg proaktivt på Snapchat ha upptäckt brott mot våra Annonsvillkor:

  • Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll

Våra team för moderering av innehåll tillämpar våra policyer för moderering av innehåll för att hjälpa till med att skydda vår Snapchat-community. De lärs upp under en period på flera veckor, där nya teammedlemmar utbildas i policyer, verktyg och eskaleringsprocedurer för Snap. Våra modereringsteam deltar regelbundet i uppdaterande utbildning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall rörande policy-gränser och fall beroende av sammanhang. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps policyer.

Vi ger våra team för moderering av innehåll betydande stöd och resurser, inklusive stöd för hälsa-på-jobbet och lätttillgängliga tjänster för psykisk hälsa. 

c) Klagomål som tagits emot genom interna system hos Snap för hantering av klagomål (dvs. överklaganden). 
(artikel 15.1(d))


Användare vars konton har låsts av våra säkerhetsteam för brott mot Community-riktlinjer (inklusive olagligt innehåll och aktiviteter) kan skicka in ett överklagande om låst konto. Användare kan också överklaga vissa beslut om moderering av innehåll.

Under rapporteringsperioden (första halvåret 2024) hanterade Snap följande överklaganden (inklusive överklaganden både om låsta konton och beslut om moderering av innehåll) som lämnats in via dess interna system för hantering av klagomål inom EU:

d) Användning av automatiserade medel med syftet att moderera innehåll 
(artiklarna 15.1(e) och 42.2(c))

  • Kvalitativ beskrivning och syften

Som förklaras ovan i avsnitt 3(b) utnyttjar vi automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, hantera brott mot våra villkor och policyer på våra ytor med offentligt innehåll. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Google CSAI Match), Google Content Safety API, modeller för upptäckt av missbruk av språk (som upptäcker och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över missbruk av nyckelord och emojis) och tekniker som utnyttjar artificiell intelligens, maskininlärning och modeller för stora språk. Våra automatiserade verktyg är utformade för att detektera brott mot våra Community-riktlinjer (som bland annat förbjuder olagligt innehåll) och, i tillämpliga fall, våra Innehållsriktlinjer för berättigande till rekommendationer samt Annonsvillkor.

När våra automatiserade verktyg upptäcker ett potentiellt brott mot våra policyer vidtar de antingen åtgärder automatiskt i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning. 

  • Indikatorer för noggrannhet och möjlig felfrekvens, uppdelade efter medlemsstat

Vi övervakar indikatorer för noggrannheten och den möjliga felfrekvensen för våra automatiserade modereringsverktyg genom att välja ett slumpmässigt urval av uppgifter som behandlas av våra automatiserade verktyg på våra offentliga ytor och välja ut dem för ny granskning av våra mänskliga modereringsteam. Noggrannhetsgraden är procentandelen av uppgifter från dessa slumpmässiga prov som bekräftas ha korrekta modereringsbeslut vid ny granskning av mänskliga moderatorer. Felfrekvensen är skillnaden mellan 100 % och noggrannheten som beräknas enligt beskrivningen ovan. 

Vi övervakar noggrannheten och eventuell felfrekvens för två breda kategorier av automatiserade modereringsverktyg, nämligen: 

  • Automatiserade verktyg som upptäcker och/eller verkställer mot överträdelser av våra community-riktlinjer och kan leda till verkställighet mot en användares konto (t.ex. varningar som tillämpas mot kontot eller kontot som låsts). Baserat på provtagning var noggrannhetsgraden för dessa automatiserade verktyg cirka 95 % och felfrekvensen var cirka 5 % under H2 2024. 

  • Automatiserade verktyg som upptäcker och/eller vidtar åtgärder avseende innehåll på våra offentliga sändningsytor på grundval av våra Innehållsriktlinjer för berättigad till rekommendationer. Baserat på provtagning var noggrannhetsgraden för dessa automatiserade verktyg cirka 85 % och felfrekvensen var cirka 15 % under H2 2024.

Baserat på provtagning var den kombinerade noggrannheten för de automatiserade verktyg som användes i båda kategorierna som beskrivs ovan cirka 89 % och felfrekvensen var cirka 11 % under H2 2024.  


Vi spårar i allmänhet inte språket för innehåll som vi modererar på Snapchat och kan därför inte tillhandahålla en uppdelning av noggrannhet och felfrekvens för våra automatiserade modereringsverktyg för varje officiellt språk i medlemsstaterna.  Som en ersättning för denna information tillhandahåller vi nedan en uppdelning av vår kombinerade noggrannhet och felfrekvens för automatiskt modererat innehåll (både våra Community-riktlinjer och våra innehållsriktlinjer för berättigad rekommendation) som har sitt ursprung i varje medlemsstat.

  • Skyddsåtgärder

Vi är medvetna om potentiell inverkan som automatiserade modereringsverktyg har på grundläggande rättigheter och vi utnyttjar skyddsåtgärder för att minimera denna inverkan.

Våra automatiserade verktyg för moderering av innehåll testas innan de driftsätts. Modeller testas offline för prestanda och utvecklas via A/B-testning för att säkerställa att de fungerar korrekt innan de fasas in för fullt i produktion. Innan lansering utför vi kvalitetsgranskningar (QA), granskningar vid lansering samt fortgående, precisa QA-kontroller under partiella (fasade) utrullningar. 

Efter lanseringen av våra automatiserade verktyg utvärderar vi kontinuerligt deras prestanda och noggrannhet och gör justeringar behov. Denna process involverar att våra mänskliga moderatorer gör ny granskning av exempel från automatiserade uppgifter för att identifiera modeller som kräver justeringar för att förbättra noggrannheten. Vi övervakar också förekomsten av vissa nackdelar på Snapchat genom daglig, slumpmässig stickprovsundersökning av Public Stories och vi utnyttjar denna information för att identifiera områden för ytterligare förbättringar. 

Våra policyer och system främjar konsekvent och rättvist verkställande, inklusive genom våra automatiserade verktyg, och ger Snapchattare möjlighet att meningsfullt ifrågasätta resultat från verkställande genom meddelande- och överklagandeprocesser som syftar till att skydda vår communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.

Vi strävar efter att kontinuerligt förbättra våra verktyg för automatiserad moderering av innehåll för att förbättra deras noggrannhet och stödja konsekvent och rättvist verkställande av våra policyer.

e) Tvister som lämnats in enligt artikel 21 för tvistlösning av organ utanför domstol
(artikel 24.1(a))

För rapporteringsperioden (H2 2024) tillhandahåller vi följande information om tvister vilka lämnats in mot Snap till de organ för tvistlösning utanför domstol som avses i DSA-artikel 21: 

Tabellen ovan återspeglar statusen den 31 december 2024 för tvister som lämnats in till certifierade organ för tvistlösning utanför domstol enligt DSA-artikel 21 under rapporteringsperioden (andra halvåret 2024). Från och med den 31 december 2024 var 15 av 20 tvister som lämnats in till sådana organ under andra halvåret 2024 anhängiga och 5 hade lösts innan ett beslut utfärdades. 

Observera att vi inte i tabellen ovan tagit med klagomål som lämnats in till ett certifierat artikel 21-organ, men som det berörda organet ansåg vara otillåtliga innan de överfördes till Snap. Vi kan inte bekräfta antalet tvister som faller inom denna kategori eftersom vissa, men inte alla, certifierade organ meddelar Snap om sådana tvister. Vi är dock medvetna om 6 klagomål som faller under denna kategori under andra halvåret 2024.

f) Avstängningar som införts i enlighet med artikel 23
(artikel 24.1(b))
  • Avstängningar i enlighet med artikel 23.1: avstängning av konton som ofta tillhandahåller uppenbart olagligt innehåll 

Som förklaras i vår Förklaring för moderering, verkställande och överklaganden i Snapchat, kommer konton som vi fastställer primärt används för att bryta mot våra Community-riktlinjer (inklusive genom att tillhandahålla uppenbart olagligt innehåll) samt konton som begår allvarlig skada att avaktiveras omedelbart. För alla andra överträdelser av våra Community-riktlinjer tillämpar Snap i allmänhet en tillsynsprocess i tre delar:

  • Steg ett: det kränkande innehållet tas bort.

  • Steg två: Användaren får ett meddelande som anger att de brutit mot våra Community-riktlinjer, att deras innehåll tagits bort och att upprepade överträdelser kommer att leda till ytterligare åtgärder, inklusive att deras konto tas bort.

  • Steg tre: vårt team registrerar en anmärkning på Snapchattarens konto.

Information om antalet tillslag (dvs. varningar) och spärrar som infördes under andra halvåret 2024 på konton inom EU finns ovan, i avsnitt 3(a) och 3(b).

  • Avstängningar i enlighet med artikel 23.2: avstängning av behandling av meddelanden och klagomål från individer, enheter och klagande som ofta skickar in meddelanden eller klagomål som är uppenbart ogrundade

Efter tillämpning av vår interna definition av “uppenbart ogrundade” meddelanden och klagomål, samt våra interna tröskelvärden för vad vi anser vara frekvent inlämning av sådana meddelanden och klagomål, är antalet avstängningar av behandling av meddelanden och klagomål som infördes under första halvåret 2024 i enlighet med DSA-artikel 23.2 följande:

4. Information om våra team för moderering av innehåll 
a) Personalresurser som är avsedda för moderering av innehåll, inklusive efterlevnad av DSA-artiklarna 16, 20 och 22, uppdelade efter medlemsstaternas officiella språk
(artikel 42.2(a))


Våra team för innehållsmoderering arbetar över hela världen, dygnet runt, vilket gör det möjligt för oss att hjälpa till att hålla vårt community säkert. Nedan är uppdelningen av våra mänskliga moderationsresurser efter språkspecialiteter hos moderatorer (observera att vissa moderatorer är specialiserade på flera språk) från och med den 31 december 2024:

Tabellen ovan inkluderar alla mänskliga resurser som är dedikerade till moderering av innehåll som stöder officiella språk inom EU:s medlemsstater från och med 31 december 2024. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.

b) Kvalifikationer och språklig expertis för moderatorer av innehåll; utbildning och stöd som tillhandahålls
(artikel 42.2(b))

Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehåller ett språkkrav (beroende på behovet). Språkkravet anger att kandidaten bör kunna visa flytande skriftlig och muntlig språkfärdighet och, för befattningar på ingångsnivå, måste kandidater ha minst ett års arbetslivserfarenhet. Kandidater måste uppfylla kraven för utbildning och bakgrund för att tas under övervägande. Kandidater måste också visa förståelse för aktuella händelser i det land eller den region för innehållsmoderering som de kommer att stödja. 


Se ovan för information om den utbildning och det stöd som Snap tillhandahåller till innehållsmoderatorer, vilket krävs separat enligt DSA-artikel 15(1)(c) och därmed ingår i avsnitt 3(b), i det sista underavsnittet: “Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll”.

Sexuellt utnyttjande och övergrepp mot barn (CSEA) mediaskanningsrapport

Utgiven: 31 januari 2025

Senast uppdaterad: 31 januari 2025

Denna rapport täcker perioden som börjar den 1 januari 2024 och slutar den 31 december 2024.

Bakgrund

Sexuellt utnyttjande av någon medlem av vårt community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.


De tekniker vi använder inkluderar (a) PhotoDNA robust hash-matchning och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor av CSEA; och (b) Googles Content Safety API för att identifiera nya, "aldrig-före-hashade" CSEA-bilder. Vi rapporterar CSEA-bilder till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC samordnar i sin tur med brottsbekämpande myndigheter i USA och andra länder, efter behov.


Rapportera

Diagrammet nedan inkluderar data om proaktiv detektering och resulterande verkställanden mot EU-användare för CSEA-bilder under 2024. (Observera att vissa verkställanden till följd av nämnda proaktiv skanning under 2024 fortfarande kan överklagas från och med när denna rapport sammanställdes och skulle därför inte återspeglas i överklagandena och återinföringsdata nedan.)

*Denna kategori rapporterar verkställande för brott mot Snaps Community-riktlinjer som förbjuder sexuellt utnyttjande av barn.  Proaktivt identifierat innehåll som åtgärdats för andra brott mot Snaps Community-riktlinjer rapporteras inte här.

**En verkställighet kan upphävas om vi fastställer att den var felaktig baserat på våra policyer som gällde vid tidpunkten för verkställandet, eller om vi fastställer att den ursprungligen verkställdes korrekt, men vår tillämpliga policy har ändrats vid tidpunkten för granskningen av överklagandet.

Skyddsåtgärder för innehållsmoderering

De skyddsåtgärder som tillämpats för CSEA-mediaskanning anges i ovanstående EU DSA:s insynsrapport.

Europeiska unionens insynsrapport om terroristinnehåll online

Publicerad: 28 februari 2025

Senast uppdaterad: 28 februari 2025

Rapporteringscykel: 1 juli 2024 - 31 december 2024

Denna insynsrapport offentliggörs i enlighet med artiklarna 7(2) och 7(3) i förordningen 2021/784 från Europaparlamentet och Europarådet, som behandlar spridning av terroristinnehåll online (förordningen). Den täcker rapporteringsperioden 1 januari - 31 december 2024

Allmän information
  • Artikel 7(3)(a): information om värdtjänsteleverantörens åtgärder i samband med identifiering och avlägsnande av eller avaktivering av tillgång till terroristinnehåll

  • Artikel 7(3)(b): information om värdtjänsteleverantörens åtgärder för att hantera återkomsten av material online som tidigare har tagits bort eller där tillgång har avaktiverats eftersom det ansågs vara terroristinnehåll, i synnerhet där automatiserade verktyg har använts


Snapchat upplever en mycket låg förekomst av terroristinnehåll och fick inte någon order om borttagning enligt förordningen 2024.

Terrorister, terroristorganisationer och våldsamma extremister är förbjudna att använda Snapchat Innehåll som förespråkar, stödjer förhärligar eller främjar terrorism eller andra våldsamma, kriminella handlingar är förbjudna enligt våra Community-riktlinjer. Användare kan rapportera innehåll som bryter mot våra Community-riktlinjer via vår rapporteringsmeny i appen och vår supportsida. Vi använder också proaktiv detektering för att försöka identifiera kränkande innehåll på offentliga ytor som Spotlight och Upptäck. 


Oavsett hur vi får kännedom om innehåll som bryter mot reglerna så granskar våra förtroende- och säkerhetsteam omedelbart identifierat innehåll, genom en kombination av automatisering och mänsklig moderering, och fattar verkställande beslut. Åtgärder kan inkludera att ta bort innehållet, varna eller låsa det kränkande kontot och, om det är motiverat, rapportera kontot till brottsbekämpande myndigheter. För att förhindra återkomst av terroristinnehåll eller annat våldsamt extremistiskt innehåll på Snapchat vidtar vi, utöver att samarbeta med brottsbekämpande myndigheter, åtgärder för att blockera enheten som är associerad med det regelbrytande kontot och förhindra användaren från att skapa ett nytt Snapchat-konto.


Ytterligare information om våra åtgärder för att identifiera och ta bort terroristinnehåll finns i vår Förklaring om hatfullt innehåll, terrorism och våldsam extremism samt i vår Förklaring om moderering, verkställande och överklaganden



Rapporter och verkställanden 
  • Artikel 7(3)(c): antalet poster av terroristinnehåll som avlägsnats eller till vilket åtkomst har avaktiverats efter tillsägelser om avlägsnande eller specifika åtgärder, samt antalet tillsägelser om avlägsnande där innehållet inte har tagits bort eller till vilket tillgång inte har avaktiverats i enlighet med den första underparagrafen i artikel 3(7) samt den första underparagrafen i artikel 3(8), tillsammans med grunderna för detta


Under rapporteringsperioden tog Snap inte emot några tillsägelser om borttagning, inte heller krävdes att vi skulle genomföra några specifika åtgärder i enlighet med artikel 5 i förordningen. Därför krävdes det inte att vi skulle vidta verkställande åtgärder enligt förordningen.

Följande tabell beskriver verkställande åtgärder som vidtagits baserat på användarrapporter och proaktiv detektering av innehåll och konton, både inom EU och på andra ställen i världen, som brutit mot våra Community-riktlinjer rörande terrorism och våldsamt extremistinnehåll

Överklaganden av verkställande
  • Artikel 7(3)(d): antalet och resultatet av klagomål som hanterats av värdtjänsteleverantören i enlighet med artikel 10

  • Artikel 7(3)(g): antalet fall där värdtjänsteleverantören återinförde innehåll eller tillgång till innehållet efter ett klagomål från innehållsleverantören

Eftersom vi inte hade några verkställande åtgärder som krävdes enligt förordningen under rapporteringsperioden som anges ovan, hanterade vi inga klagomål i enlighet med artikel 10 i förordningen och hade inga återinföranden i samband med detta.

Följande tabell innehåller information om överklaganden och återinföranden som verkställts enligt våra Community-riktlinjer., både inom EU och på andra platser i världen, som involverar terroristinnehåll och våldsamt extremistiskt innehåll.

Rättsliga förfaranden och överklaganden
  • Artikel 7(3)(e): antalet och resultatet av administrativa eller rättsliga granskningsförfaranden som inletts av värdtjänsteleverantören

  • Artikel 7(3)(f): antalet fall där värdtjänsteleverantören var skyldig att återinföra innehåll eller tillgång till innehållet till följd av administrativa eller rättsliga granskningsförfaranden

Eftersom vi inte hade några verkställande åtgärder som krävs enligt förordningen under rapporteringsperioden, som noterats ovan, hade vi inga administrativa eller rättsliga granskningsförfaranden i samband med detta och vi var inte skyldiga att återinföra innehåll till följd av några sådana förfaranden.

DSA:s riskbedömning

Denna rapport har förberetts för att uppfylla Snaps skyldigheter enligt artiklarna 34 och 35 i förordning (EU) 2022/2065 och tillhandahåller resultaten av vår bedömning av systemrisker som härrör från designen, funktionen och användningen av Snapchats onlineplattformar, samt den metodik som används för att bedöma dessa risker och de begränsningsåtgärder som införts för att hantera riskerna.


DSA:s rapport om risk- och riskbegränsningsbedömning | Snapchat | Augusti 2023 (PDF)


DSA:s revision och revisionsgenomförande

Dessa rapporter har förberetts för att uppfylla Snaps skyldigheter enligt artikel 37 i  förordning (EU) 2022/2065 och tillhandahåller: (i) resultaten från den oberoende granskningen av Snaps efterlevnad av de skyldigheter som anges i kapitel III i förordning (EU) 2022/2065 och (ii) de åtgärder som vidtagits för att genomföra de konkreta rekommendationerna från den oberoende revisionen.

DSA:s oberoende revisionsrapport | Snapchat | Augusti 2024 (PDF)

DSA:s rapport om revisionsgenomförande | Snapchat | September 2024 (PDF)



EU VSP-uppförandekod

Snap är en leverantör av "videodelningsplattformstjänst"("VSP") i enlighet med artikel 1(1)(aa) AVMSD. Denna uppförandekod (“kod“) har förberetts för att beskriva hur Snap uppfyller sina skyldigheter som en VSP enligt den nederländska medielagen (“DMA”) och direktiv (EU) 2010/13 (som ändrats genom direktiv (EU) 2018/1808 (“Audiovisual Media Services Directive” eller ”AVMSD”)). Koden är tillämplig i hela Europeiska unionen samt i det Europeiska ekonomiska samarbetsområdet.

EU VSP-uppförandekod | Snapchat | Mars 2025 (PDF)

Bulgariska | Kroatiska | Tjeckiska | Danska | Nederländska | Estniska | Finska | Franska | Tyska | Grekiska | Ungerska | Irländska | Italienska | Lettiska | Litauiska | Maltesiska | Polska | Portugisiska | Rumänska | Slovakiska | Slovenska | Spanska | Svenska