Privacy, Safety, and Policy Hub
Europeiska unionen
1 januari 2024 – 30 juni 2024

Publicerad:

25 oktober 2024

Uppdaterad:

17 december 2024

Välkommen till vår insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD), Dutch Media Act (DMA) och Terrorist Content Online Regulation (TCO). Observera att den mest uppdaterade versionen av dessa insynsrapporter finns på amerikansk engelska (en-US).

Juridiskt ombud 

Snap Group Limited har utsett Snap B.V. som sitt juridiska ombud för DSA:s ändamål. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, på tco-enquiries [at] snapchat.com för TCO, genom vår supportsida [här], eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna

Brottsbekämpande myndigheter kan följa stegen som beskrivs här.

Kommunicera på engelska eller nederländska när du kontaktar oss.

Tillsynsmyndigheter

För DSA, regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM). För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM). För TCO regleras vi av den nederländska myndigheten för förebyggande av terrorisminnehåll online och material innehållande sexuella övergrepp mot barn (ATKM).

DSA:s insynsrapport

Senast uppdaterad: 25 oktober 2024

Vi publicerar denna rapport om våra ansträngningar för moderering av innehåll på Snapchat i enlighet med rapporteringskraven för insyn som ges i artiklarna 15, 24 och 42 i Europeiska unionens (EU) Digital Services Act (förordning (EU) 2022/2065) (“DSA“). Om inte annat anges avser informationen i denna rapport rapporteringsperioden från 1 januari 2024 till 30 juni 2024 (första halvåret 2024) och täcker moderering av innehåll för funktioner på Snapchat som regleras av DSA. 

Vi strävar ständigt efter att förbättra vår rapportering. För denna rapporteringsperiod (första halvåret 2024) har vi gjort ändringar i strukturen för vår rapport med nya och mer differentierade tabeller för att ge förbättrad insikt i våra ansträngningar för moderering av innehåll. 

1. Genomsnitt av aktiva mottagare varje månad 
(DSA-artiklarna 24.2 och 42.3)


Per den 1:a oktober 2024 har vi i genomsnitt 92,9 miljoner månatligen aktiva mottagare ("AMAR") för vår app Snapchat inom EU. Detta innebär att under perioden på 6 månader som slutade 30 september 2024 har i genomsnitt 92,9 miljoner registrerade användare inom EU öppnat appen Snapchat minst en gång under en given månad.

Denna siffra fördelas per medlemsstat enligt följande:

Dessa siffror beräknades för att uppfylla nuvarande DSA-regler och bör endast hänvisas till för DSA-ändamål. Vi har ändrat hur vi beräknar denna siffra över tid, inklusive som svar på ändrade interna policyer, vägledning och teknik för tillsynsmyndigheter, och siffror är inte avsedda att jämföras mellan perioder. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.

2. Begäran från medlemsstaters myndighet
(DSA artikel 15.1(a))
a) Tillsägelse att agera mot olagligt innehåll


Under denna rapporteringsperiod (första halvåret 2024) fick vi noll (0) tillsägelser från EU-medlemsstaternas myndigheter att agera mot specifikt identifierade delar av olagligt innehåll, inklusive de som utfärdats i enlighet med DSA-artikel 9. 

Eftersom detta antal är noll (0) kan vi inte tillhandahålla en uppdelning per typ av olagligt innehåll eller medlemsstat som utfärdar tillsägelsen, eller mediantiden för bekräfta mottagande eller verkställande av tillsägelserna.

b) Tillsägelse att tillhandahålla information 


Under denna rapporteringsperiod (första halvåret 2024) tog vi emot följande tillsägelser från EU-medlemsstaternas myndigheter om att avslöja användardata, inklusive de som utfärdats i enlighet med DSA-artikel 10:


Mediantiden för att informera relevanta myndigheter om mottagande av dessa tillsägelser att tillhandahålla information var 0 minuter – vi tillhandahåller ett automatiserat svar som bekräftar mottagandet. 

Mediantiden för att verkställa dessa tillsägelser att tillhandahålla information var ~7 dagar. Detta mätvärde återspeglar tidsperioden från när Snap tog emot en tillsägelse till när Snap ansåg att frågan var helt löst, vilket i enskilda fall delvis kan bero på med vilken hastighet den relevanta medlemsstatens myndighet svarar på alla förfrågningar om förtydligande från Snap som krävs för att behandla tillsägelsen.

Observera att vi inte tillhandahåller en uppdelning av ovanstående tillsägelser om att tillhandahålla information kategoriserad efter typ av olagligt innehåll eftersom denna information inte är allmänt tillgänglig för oss.

Moderering av innehåll 


Allt innehåll på Snapchat måste hålla sig till våra Community-riktlinjer och Tjänstevillkor. Visst innehåll måste också hålla sig till ytterligare riktlinjer och policyer. Till exempel, innehåll som skickats in för algoritmisk rekommendation till en bredare publik på våra offentliga sändningsytor måste uppfylla ytterligare, högre standarder som tillhandahålls i våra Innehållsriktlinjer för berättigande till rekommendationer, medan annonsering måste följa våra Annonsvillkor.

Vi verkställer dessa policyer med hjälp av teknik och mänsklig granskning. Vi tillhandahåller också mekanismer för Snapchattare att rapportera brott, inklusive olagligt innehåll och aktiviteter, direkt i appen eller genom vår webbplats. Proaktiva detekteringsmekanismer och rapporter uppmanar till granskning, som sedan utnyttjar en blandning av automatiserade verktyg och mänskliga moderatorer för att vidta lämpliga åtgärder i enlighet med våra policyer. 

Vi tillhandahåller ytterligare information om vår moderering av innehåll på våra offentliga ytor under första halvåret 2024 nedan.

a) Meddelanden som lämnats in i enlighet med DSA-artikel 16 
(DSA-artikel 15.1(b))

I enlighet med DSA-artikel 16 har Snap infört mekanismer som gör det möjligt för användare och icke-användare att meddela Snap om närvaro på Snapchat av specifika delar av information som de anser vara olagligt innehåll. De kan göra det genom att rapportera specifika delar av innehåll eller konton, antingen direkt i appen Snapchat eller på vår webbplats. 

Under rapporteringsperioden (första halvåret 2024) tog vi emot följande meddelanden som lämnats in i enlighet med DSA-artikel 16 inom EU:


Nedan tillhandahåller vi en uppdelning som återspeglar hur dessa meddelanden behandlades – dvs. genom en process som inkluderar mänsklig granskning eller endast via automatiserade medel: 

Vid inlämning av meddelanden i appen eller via vår webbplats kan reportrar välja en specifik anledning för rapportering från en meny med alternativ som återspeglar de kategorier av överträdelser som anges i våra Community-riktlinjer (t.ex. hatretorik, droganvändning eller -försäljning). Våra Community-riktlinjer förbjuder innehåll och aktiviteter som är olagliga inom EU, så vår rapportering återspeglar i stor utsträckning specifika kategorier av olagligt innehåll inom EU. Men i den utsträckning som en reporter inom EU anser att innehållet eller kontot som de rapporterar är olagligt av skäl som inte specifikt anges i vår rapporteringsmeny, kan de rapportera det för "annat olagligt innehåll" och ges möjlighet att förklara varför de tror att vad de rapporterar är olagligt. 

Om vi vid en granskning fastställer att rapporterat innehåll eller konto bryter mot våra Community-riktlinjer (inklusive på grund av olaglighet), kan vi (i) ta bort det kränkande innehållet, (ii) ge en varning till den relevanta kontoinnehavaren och/eller (iii) låsa det relevanta kontot, vilket förklaras ytterligare i vår Förklaring för moderering, verkställande och överklaganden i Snapchat

Under första halvåret 2024 vidtog vi följande verkställande åtgärder efter mottagande av meddelanden som lämnats in i enlighet DSA-artikel 16 inom EU:

Alla rapporter om “annat olagligt innehåll” under första halvåret 2024 där vi vidtagit åtgärder verkställdes i enlighet med våra Community-riktlinjer eftersom våra Community-riktlinjer förbjöd det relevanta innehållet eller aktiviteten. Vi kategoriserade således dessa verkställanden enligt den relevanta kategorin brott mot Community-riktlinjen i tabellen ovan.

Utöver ovanstående verkställanden kan vi vidta åtgärder för innehåll som meddelats oss i enlighet med andra tillämpliga Snap-policyer och -riktlinjer: 

  • Beträffande innehåll på våra offentliga sändningsytor, om vi fastställer att det rapporterade innehållet inte uppfyller de högre standarderna i våra Innehållsriktlinjer för berättigande till rekommendationer, kan vi avvisa innehållet för algoritmisk rekommendation (om innehållet inte uppfyller våra berättigandekriterier), eller vi kan begränsa distributionen av innehållet för att utesluta känsliga målgrupper (om innehållet uppfyller våra berättigandekriterier för rekommendation men på annat sätt är känsligt eller tvetydigt). 

Under första halvåret 2024 vidtog vi följande åtgärder för innehåll på Snapchats offentliga sändningsytor som rapporterats till oss inom EU, i enlighet med våra Innehållsriktlinjer för berättigande till rekommendationer:

  • Om vi fastställer att en rapporterad annonsering bryter mot våra Annonsvillkor kan vi ta bort den vid granskning. 


Under första halvåret 2024 vidtog vi följande åtgärder om annonsering som rapporterats till oss inom EU:


b) Moderering av innehåll som Snap på eget initiativ engagerar sig i 
(artikel 15.1(c))


Utöver att granska meddelanden som lämnats in i enlighet med DSA-artikel 16, modererar Snap på eget initiativ innehåll på offentliga ytor på Snapchat (t.ex. Spotlight, Upptäck). Nedan tillhandahåller vi information om moderering av innehåll som Snap på eget initiativ engagerat sig i, inklusive användning av automatiserade verktyg, de åtgärder som vidtagits för att tillhandahålla utbildning och stöd till personer som ansvarar moderering av innehåll samt antalet och typerna av begränsningar som införts till följd av dessa proaktiva ansträngningar för moderering av innehåll.


  • Användning av automatiserade verktyg vid moderering på eget initiativ av Snap


Vi utnyttjar automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, hantera brott mot våra villkor och policyer för våra ytor med offentligt innehåll. Detta inkluderar verktyg för hash-matchning (inklusive PhotoDNA och Google CSAI Match), modeller för detektering av smädande språk (som upptäcker och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över smädande nyckelord och emojis) samt teknik för artificiell intelligens/maskininlärning. Våra automatiserade verktyg är utformade för att detektera brott mot våra Community-riktlinjer (som bland annat förbjuder olagligt innehåll) och, i tillämpliga fall, våra Innehållsriktlinjer för berättigande till rekommendationer samt Annonsvillkor. 


Under första halvåret 2024 genomfördes all vår proaktiva detektering med hjälp av automatiserade verktyg. När våra automatiserade verktyg upptäcker ett potentiellt brott mot våra policyer vidtar de antingen automatiskt åtgärder i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning. Antalet och typerna av begränsningar som införts till följd av denna process beskrivs nedan. 


  • Antal och typer av begränsningar som införts på eget initiativ av Snap


Under första halvåret 2024 vidtog Snap följande verkställande åtgärder efter att proaktivt ha detekterat, genom användning av automatiserade verktyg, brott mot våra Community-riktlinjer (inklusive brott som innebär olagligt innehåll och aktiviteter enligt EU:s och medlemsstaternas lagar):

Dessutom, beträffande innehåll på våra offentliga sändningsytor, vidtog vi under första halvåret 2024 följande åtgärder efter att proaktivt ha detekterat på Snapchat, genom användning av automatiserade verktyg, brott mot våra Innehållsriktlinjer för berättigande till rekommendationer:

* Som anges i våra Innehållsriktlinjer för berättigande till rekommendationer kan konton som upprepade gånger eller grovt bryter mot våra Innehållsriktlinjer för berättigande till rekommendationer tillfälligt eller permanent diskvalificeras från rekommendationer på våra offentliga sändningsytor. Vi tillämpar denna åtgärd i samband med våra proaktiva modereringsinsatser.

Under första halvåret 2024 vidtog vi dessutom följande åtgärder efter att genom användning av automatiserade verktyg proaktivt ha detekterat brott på Snapchat mot våra Annonsvillkor:

  • Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll


Våra team för moderering av innehåll tillämpar våra policyer för moderering av innehåll för att hjälpa till med att skydda vår Snapchat-community. De lärs upp under en period på flera veckor, där nya teammedlemmar utbildas i policyer, verktyg och eskaleringsprocedurer för Snap. Våra modereringsteam deltar regelbundet i uppdaterande utbildning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall rörande policy-gränser och fall beroende av sammanhang. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps policyer.


Vi ger våra team för moderering av innehåll betydande stöd och resurser, inklusive stöd för hälsa-på-jobbet och lätt tillgång till tjänster för psykisk hälsa. 

c) Klagomål som tagits emot genom interna system hos Snap för hantering av klagomål (dvs. överklaganden). 
(artikel 15.1(d))


Användare vars konton har låsts av våra säkerhetsteam för brott mot Community-riktlinjer (inklusive olagligt innehåll och aktiviteter) kan skicka in ett överklagande om låst konto. Användare kan också överklaga vissa beslut om moderering av innehåll.

Under rapporteringsperioden (första halvåret 2024) hanterade Snap följande överklaganden (inklusive överklaganden både om låsta konton och beslut om moderering av innehåll) som lämnats in via dess interna system för hantering av klagomål inom EU:

d) Användning av automatiserade medel med syftet att moderera innehåll 
(artiklarna 15.1(e) och 42.2(c))

  • Kvalitativ beskrivning och syften


Som förklaras ovan i avsnitt 3(b) utnyttjar vi automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, hantera brott mot våra villkor och policyer på våra ytor med offentligt innehåll. Detta inkluderar verktyg för hash-matchning (inklusive PhotoDNA och Google CSAI Match), modeller för detektering av smädande språk (som detekterar och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över smädande nyckelord och emojis), samt teknik för artificiell intelligens/maskininlärning. Våra automatiserade verktyg är utformade för att detektera brott mot våra Community-riktlinjer (som bland annat förbjuder olagligt innehåll) och, där det är tillämpligt, våra Innehållsriktlinjer för berättigande till rekommendationer samt Annonsvillkor. 

När våra automatiserade verktyg detekterar ett potentiellt brott mot våra policyer, vidtar de antingen automatiskt åtgärder i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning.

  • Indikatorer för noggrannhet och möjlig felfrekvens, uppdelade efter medlemsstat


Vi övervakar noggrannheten i våra automatiserade verktyg för moderering genom att slumpmässigt välja ut exempel på uppgifter som behandlats av våra automatiserade verktyg på våra offentliga ytor och skicka in dem för ny granskning av våra mänskliga team för moderering. Noggrannheten är procentandelen av uppgifter från dessa slumpmässiga exempel som höll måttet vid ny granskning av våra mänskliga moderatorer. Felfrekvensen är skillnaden mellan 100 % och noggrannheten som beräknas enligt beskrivningen ovan. 

Baserat på stickprovsundersökning under första halvåret 2024 var indikatorerna för noggrannhet och möjlig felfrekvens för de automatiserade hjälpmedel som användes för alla kategorier av brott cirka 93 % och felfrekvensen var cirka 7 %.

Vi spårar i allmänhet inte språket för innehåll som vi modererar på Snapchat och kan därför inte tillhandahålla en uppdelning av noggrannheten och felfrekvensen för våra automatiserade modereringsverktyg för varje officiellt språk i medlemsstaterna.  Istället för denna information tillhandahåller vi nedan en uppdelning av vår noggrannhet och felfrekvens för automatiskt modererat innehåll som härrör från varje medlemsstat.

  • Skyddsåtgärder


Vi är medvetna om potentiell inverkan av automatiserade modereringsverktyg på grundläggande rättigheter och vi utnyttjar skyddsåtgärder för att minimera denna inverkan.

Våra verktyg för automatiserad moderering av innehåll testas innan de utnyttjas på Snapchat. Modeller testas offline för prestanda och utvecklas via A/B-testning för att säkerställa att de fungerar korrekt innan de fasas in för fullt i produktion. Innan lansering utför vi kvalitetsgranskningar (QA), granskningar vid lansering samt fortgående, precisa QA-kontroller under partiella (fasade) utrullningar. 

Efter lanseringen av våra automatiserade verktyg utvärderar vi kontinuerligt deras prestanda och noggrannhet och gör justeringar behov. Denna process involverar att våra mänskliga moderatorer gör ny granskning av exempel från automatiserade uppgifter för att identifiera modeller som kräver justeringar för att förbättra noggrannheten. Vi övervakar också förekomsten av specifika skador på Snapchat genom daglig, slumpmässig stickprovsundersökning av Public Stories och vi utnyttjar denna information för att identifiera områden för ytterligare förbättringar. 

Våra policyer och system främjar konsekvent och rättvist verkställande, inklusive genom våra automatiserade verktyg, och ger Snapchattare möjlighet att meningsfullt ifrågasätta resultat från verkställande genom meddelande- och överklagandeprocesser som syftar till att skydda vår communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.

Vi strävar efter att kontinuerligt förbättra våra verktyg för automatiserad moderering av innehåll för att förbättra deras noggrannhet och stödja konsekvent och rättvist verkställande av våra policyer.

e) Tvister som lämnats in enligt artikel 21 för tvistlösning av organ utanför domstol
(artikel 24.1(a))

För rapporteringsperioden (första halvåret 2024) var antalet tvister som lämnats in till formellt certifierade organ för tvistlösning utanför domstol i enlighet med DSA-artikel 21 lika med noll (0), och vi kan inte tillhandahålla en uppdelning som återspeglar resultat, mediantider för avslut, eller andelen tvister där Snap implementerade beslut från ett organ för tvistlösning utanför domstol. 

Observera att vi under första halvåret 2024 tog emot två (2) meddelanden om tvister som lämnats in till ett organ som söker certifiering som ett organ för tvistlösning utanför domstol enligt DSA-artikel 21. Vi inkluderar inte dessa tvister i den ovanstående sammanräkningen eftersom det organ som överlämnade dessa meddelanden om tvister inte på vår begäran kunde verifiera sin status för certifiering.

f) Avstängningar som införts i enlighet med artikel 23 
(artikel 24.1(b))
  • Avstängningar i enlighet med artikel 23.1: avstängning av konton som ofta tillhandahåller uppenbart olagligt innehåll 

Som förklaras i vår Förklaring för moderering, verkställande och överklaganden i Snapchat, kommer konton som vi fastställer primärt används för att bryta mot våra Community-riktlinjer (inklusive genom att tillhandahålla uppenbart olagligt innehåll) samt konton som begår allvarlig skada att avaktiveras omedelbart. För alla andra överträdelser av våra Community-riktlinjer tillämpar Snap i allmänhet en tillsynsprocess i tre delar:

  • Steg ett: det kränkande innehållet tas bort.

  • Steg två: Snapchattaren får ett meddelande som indikerar att de har brutit mot våra Community-riktlinjer, att deras innehåll har tagits bort och att upprepade överträdelser kommer att resultera i ytterligare tillsynsåtgärder, inklusive att deras konto inaktiveras.

  • Steg tre: vårt team registrerar en anmärkning på Snapchattarens konto.

Information om antalet anmärkningar (dvs. varningar) och spärrar, som infördes under första halvåret 2024 på konton inom EU i samband med innehåll eller aktiviteter på offentliga ytor för Snapchat, finns ovan i avsnitt 3(a) och 3(b).

  • Avstängningar i enlighet med artikel 23.2: avstängning av behandling av meddelanden och klagomål från individer, enheter och klagande som ofta skickar in meddelanden eller klagomål som är uppenbart ogrundade

Efter tillämpning av vår interna definition av “uppenbart ogrundade” meddelanden och klagomål, samt våra interna tröskelvärden för vad vi anser vara frekvent inlämning av sådana meddelanden och klagomål, är antalet avstängningar av behandling av meddelanden och klagomål som infördes under första halvåret 2024 i enlighet med DSA-artikel 23.2 följande:

4. Information om våra team för moderering av innehåll 
a) Personalresurser som är avsedda för moderering av innehåll, inklusive efterlevnad av DSA-artiklarna 16, 20 och 22, uppdelade efter medlemsstaternas officiella språk
(artikel 42.2(a))


Våra team för moderering av innehåll arbetar över hela världen, vilket gör det möjligt för oss att hjälpa till att hålla Snapchattare säkra 24/7. Nedan hittar du uppdelningen av våra personalresurser för moderering efter språkliga specialiteter hos moderatorer (observera att vissa moderatorer är specialiserade på flera språk) från och med 30 juni 2024:

Tabellen ovan inkluderar alla mänskliga resurser som är dedikerade till moderering av innehåll som stöder officiella språk inom EU:s medlemsstater från och med 30 juni 2024. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.

b) Kvalifikationer och språklig expertis för moderatorer av innehåll; utbildning och stöd som tillhandahålls
(artikel 42.2(b))


Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehåller ett språkkrav (beroende på behovet). Språkkravet anger att kandidaten ska kunna visa sig vara flytande i språket skriftligt och muntligt, samt ha minst ett års arbetslivserfarenhet för positioner på grundnivå. Kandidater måste uppfylla kraven för utbildning och bakgrund för att tas under övervägande. Kandidater måste också visa förståelse för aktuella händelser i det land eller den region för innehållsmoderering som de kommer att stödja. 

Se ovan för information om den utbildning och det stöd som Snap tillhandahåller till moderatorer av innehåll, vilket krävs separat enligt DSA-artikel 15(1)(c) och därmed ingår i avsnitt 3(b), i det sista underavsnittet: “Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll”.

Sexuellt utnyttjande och övergrepp mot barn (CSEA) mediaskanningsrapport


Bakgrund

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.


Vi använder PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.


Rapportera

Nedanstående data är baserade på resultatet av proaktiv skanning med PhotoDNA och/eller CSAI Match av medier som laddas upp av en användares kamerarulle till Snapchat.

Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende.  Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär.  Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring.  Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.  

Skyddsåtgärder för innehållsmoderering

De skyddsåtgärder som tillämpas för CSEA-mediaskanning anges i ovanstående avsnitt "Innehållsmodereringsskyddsåtgärder" under vår DSA-rapport.


Europeiska unionens insynsrapport om terroristinnehåll online

Publicerad: 17 juni 2024

Senast uppdaterad: 17 juni 2024

Denna insynsrapport offentliggörs i enlighet med artiklarna 7(2) och 7(3) i förordningen 2021/784 från Europaparlamentet och Europarådet, som behandlar spridning av terroristinnehåll online (förordningen). Den täcker rapporteringsperioden 1 januari – 31 december 2023


Allmän information
  • Artikel 7(3)(a): information om värdtjänsteleverantörens åtgärder i samband med identifiering och avlägsnande av eller avaktivering av tillgång till terroristinnehåll

  • Artikel 7(3)(b): information om värdtjänsteleverantörens åtgärder för att hantera återkomsten av material online som tidigare har tagits bort eller där tillgång har avaktiverats eftersom det ansågs vara terroristinnehåll, i synnerhet där automatiserade verktyg har använts


Terrorister, terroristorganisationer och våldsamma extremister är förbjudna att använda Snapchat Innehåll som förespråkar, stödjer förhärligar eller främjar terrorism eller andra våldsamma, kriminella handlingar är förbjudna enligt våra Community-riktlinjer. Användare kan rapportera innehåll som bryter mot våra Community-riktlinjer via vår rapporteringsmeny i appen och vår supportsida. Vi använder också proaktiv detektering för att försöka identifiera kränkande innehåll på offentliga ytor som Spotlight och Upptäck. 


Oavsett hur vi får kännedom om innehåll som bryter mot reglerna så granskar våra förtroende- och säkerhetsteam omedelbart identifierat innehåll, genom en kombination av automatisering och mänsklig moderering, och fattar verkställande beslut. Åtgärder kan inkludera att ta bort innehållet, varna eller låsa det kränkande kontot och, om det är motiverat, rapportera kontot till brottsbekämpande myndigheter. För att förhindra återkomst av terroristinnehåll eller annat våldsamt extremistiskt innehåll på Snapchat vidtar vi, utöver att samarbeta med brottsbekämpande myndigheter, åtgärder för att blockera enheten som är associerad med det regelbrytande kontot och förhindra användaren från att skapa ett nytt Snapchat-konto.


Ytterligare information om våra åtgärder för att identifiera och ta bort terroristinnehåll finns i vår Förklaring om hatfullt innehåll, terrorism och våldsam extremism samt i vår Förklaring om moderering, verkställande och överklaganden



Rapporter och åtgärder 
  • Artikel 7(3)(c): antalet poster av terroristinnehåll som avlägsnats eller till vilket åtkomst har avaktiverats efter tillsägelser om avlägsnande eller specifika åtgärder, samt antalet tillsägelser om avlägsnande där innehållet inte har tagits bort eller till vilket tillgång inte har avaktiverats i enlighet med den första underparagrafen i artikel 3(7) samt den första underparagrafen i artikel 3(8), tillsammans med grunderna för detta


Under rapporteringsperioden tog Snap inte emot några tillsägelser om borttagning, inte heller krävdes att vi skulle genomföra några specifika åtgärder i enlighet med artikel 5 i förordningen. Därför krävdes det inte att vi skulle vidta verkställande åtgärder enligt förordningen.


Följande tabell beskriver verkställande åtgärder som vidtagits baserat på användarrapporter och proaktiv detektering av innehåll och konton, både inom EU och på andra ställen i världen, som brutit mot våra Community-riktlinjer rörande terrorism och våldsamt extremistinnehåll

Överklaganden av verkställande
  • Artikel 7(3)(d): antalet och resultatet av klagomål som hanterats av värdtjänsteleverantören i enlighet med artikel 10

  • Artikel 7(3)(g): antalet fall där värdtjänsteleverantören återinförde innehåll eller tillgång till innehållet efter ett klagomål från innehållsleverantören


Eftersom vi inte hade några verkställande åtgärder som krävdes enligt förordningen under rapporteringsperioden som anges ovan, hanterade vi inga klagomål i enlighet med artikel 10 i förordningen och hade inga återinföranden i samband med detta.


Följande tabell innehåller information om överklaganden och återinföranden som verkställts enligt våra Community-riktlinjer., både inom EU och på andra platser i världen, som involverar terroristinnehåll och våldsamt extremistiskt innehåll.

Rättsliga förfaranden och överklaganden
  • Artikel 7(3)(e): antalet och resultatet av administrativa eller rättsliga granskningsförfaranden som inletts av värdtjänsteleverantören

  • Artikel 7(3)(f): antalet fall där värdtjänsteleverantören var skyldig att återinföra innehåll eller tillgång till innehållet till följd av administrativa eller rättsliga granskningsförfaranden


Eftersom vi inte hade några verkställande åtgärder som krävs enligt förordningen under rapporteringsperioden, som noterats ovan, hade vi inga administrativa eller rättsliga granskningsförfaranden i samband med detta och vi var inte skyldiga att återinföra innehåll till följd av några sådana förfaranden.

DSA:s riskbedömning

Denna rapport har förberetts för att uppfylla Snaps skyldigheter enligt artiklarna 34 och 35 i förordning (EU) 2022/2065 och tillhandahåller resultaten av vår bedömning av systemrisker som härrör från designen, funktionen och användningen av Snapchats onlineplattformar, samt den metodik som används för att bedöma dessa risker och de begränsningsåtgärder som införts för att hantera riskerna.


DSA:s rapport om risk- och riskbegränsningsbedömning | Snapchat | Augusti 2023 (PDF)


DSA:s revision och revisionsgenomförande

Dessa rapporter har förberetts för att uppfylla Snaps skyldigheter enligt artikel 37 i  förordning (EU) 2022/2065 och tillhandahåller: (i) resultaten från den oberoende granskningen av Snaps efterlevnad av de skyldigheter som anges i kapitel III i förordning (EU) 2022/2065 och (ii) de åtgärder som vidtagits för att genomföra de konkreta rekommendationerna från den oberoende revisionen.

DSA:s oberoende revisionsrapport | Snapchat | Augusti 2024 (PDF)

DSA:s rapport om revisionsgenomförande | Snapchat | September 2024 (PDF)



EU VSP-uppförandekod

Snap är en leverantör av "videodelningsplattformstjänst"("VSP") i enlighet med artikel 1(1)(aa) AVMSD. Denna uppförandekod (“kod“) har förberetts för att beskriva hur Snap uppfyller sina skyldigheter som en VSP enligt den nederländska medielagen (“DMA”) och direktiv (EU) 2010/13 (som ändrats genom direktiv (EU) 2018/1808 (“Audiovisual Media Services Directive” eller ”AVMSD”)). Koden är tillämplig i hela Europeiska unionen samt i det Europeiska ekonomiska samarbetsområdet.

EU VSP-uppförandekod | Snapchat | December 2024 (PDF)