Välkommen till vår insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD), Dutch Media Act (DMA) och Terrorist Content Online Regulation (TCO). Observera att den mest uppdaterade versionen av dessa insynsrapporter finns på amerikansk engelska (en-US).
Snap Group Limited har utsett Snap B.V. som sitt juridiska ombud för DSA:s ändamål. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, på tco-enquiries [at] snapchat.com för TCO, genom vår supportsida [här], eller på:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna
Brottsbekämpande myndigheter kan följa stegen som beskrivs här.
Kommunicera på engelska eller nederländska när du kontaktar oss.
För DSA, regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM). För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM). För TCO regleras vi av den nederländska myndigheten för förebyggande av terrorisminnehåll online och material innehållande sexuella övergrepp mot barn (ATKM).
Publicerad: 28 februari 2025
Senast uppdaterad: 23 april 2025 (version 2.0)
Rapporteringscykel: 1 juli 2024 - 31 december 2024
Vi publicerar denna rapport i enlighet med de rapporteringskrav som anges i artiklarna 15, 24 och 42 i Europeiska unionens (EU) Digital Services Act (förordning (EU) 2022/2065) (”DSA”). Om inget annat anges gäller informationen i denna rapport för rapporteringsperioden från 1 juli 2024 till 31 december 2024 (H2 2024).
Per den 1:a oktober 2024 har vi 92,9 miljoner genomsnittliga aktiva mottagare per månad ("AMAR") för vår app Snapchat inom EU. Detta innebär att under 6-månadersperioden som avslutades den 30 september 2024 har i genomsnitt 92,9 miljoner registrerade användare inom EU öppnat appen Snapchat minst en gång under en given månad.
Denna siffra fördelas per medlemsstat enligt följande:
Dessa siffror beräknades för att följa nuvarande DSA-krav och bör bara tillämpas för DSA-ändamål. Vi har ändrat hur vi beräknar denna siffra över tid, inklusive som svar på ändrade interna policyer, vägledning och teknik för tillsynsmyndigheter, och siffror är inte avsedda att jämföras mellan perioder. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.
Under denna rapporteringsperiod (andra halvåret 2024) fick vi noll (0) tillsägelser från EU-medlemsstaternas myndigheter att agera mot specifikt identifierade delar av olagligt innehåll, inklusive de som utfärdats i enlighet med DSA-artikel 9.
Eftersom detta antal är noll (0) kan vi inte tillhandahålla en uppdelning per typ av olagligt innehåll eller medlemsstat som utfärdar tillsägelsen, eller mediantiden för att bekräfta mottagande eller verkställande av tillsägelserna.
Under denna rapporteringsperiod (andra halvåret 2024) tog vi emot följande tillsägelser från EU-medlemsstaternas myndigheter om att avslöja användardata, inklusive dem som utfärdats i enlighet med DSA-artikel 10:
Mediantiden för att informera relevanta myndigheter om mottagande av dessa tillsägelser att tillhandahålla information var 0 minuter – vi tillhandahåller ett automatiserat svar som bekräftar mottagandet.
Mediantiden för att verkställa dessa tillsägelser att tillhandahålla information var ~12 dagar. Detta mätvärde återspeglar tidsperioden från när Snap tog emot en tillsägelse till när Snap ansåg att frågan var helt löst, vilket i enskilda fall delvis kan bero på med vilken hastighet den relevanta medlemsstatens myndighet svarar på alla förfrågningar om förtydligande från Snap som krävs för att behandla tillsägelsen.
Observera att vi inte tillhandahåller en uppdelning av ovanstående tillsägelser om att tillhandahålla information kategoriserad efter typ av olagligt innehåll eftersom denna information inte är allmänt tillgänglig för oss.
Allt innehåll på Snapchat måste hålla sig till våra Community-riktlinjer och Tjänstevillkor. Visst innehåll måste också hålla sig till ytterligare riktlinjer och policyer. Exempel: Innehåll som skickats in för algoritmisk rekommendation till en bredare publik på våra offentliga sändningsytor måste uppfylla ytterligare och högre standarder som tillhandahålls i våra Innehållsriktlinjer för berättigande till rekommendationer, medan annonsering måste följa våra Annonsvillkor.
Vi verkställer dessa policyer med hjälp av teknik och mänsklig granskning. Vi tillhandahåller också mekanismer för Snapchattare att rapportera brott, inklusive olagligt innehåll och aktiviteter, direkt i appen eller genom vår webbplats. Vi använder också proaktiv teknik för att upptäcka skador. Proaktiva detekteringsmekanismer och rapporter uppmanar till granskning, som sedan utnyttjar en blandning av automatiserade verktyg och mänskliga moderatorer för att vidta lämpliga åtgärder i enlighet med våra policyer.
Vi tillhandahåller ytterligare information om vår moderering av innehåll under andra halvåret 2024 nedan.
I enlighet med DSA-artikel 16 har Snap infört mekanismer som gör det möjligt för användare och icke-användare att meddela Snap om närvaro på Snapchat av specifika delar av information som de anser vara olagligt innehåll. De kan göra det genom att rapportera specifika delar av innehåll eller konton, antingen direkt i appen Snapchat eller på vår webbplats.
Vid inlämning av meddelanden i appen eller via vår webbplats kan reportrar välja en specifik anledning för rapportering från en meny med alternativ som återspeglar de kategorier av överträdelser som anges i våra Community-riktlinjer (t.ex. hatretorik, droganvändning eller -försäljning). Våra Community-riktlinjer förbjuder innehåll och aktiviteter som är olagliga inom EU, så vår rapportering återspeglar i stor utsträckning specifika kategorier av olagligt innehåll inom EU. Men i den utsträckning som en rapportör inom EU anser att innehållet eller kontot som de rapporterar är olagligt av skäl som inte specifikt anges i vår rapporteringsmeny, kan de rapportera det för "annat olagligt innehåll" och ges möjlighet att förklara varför de tror att vad de rapporterar är olagligt.
Under rapporteringsperioden (andra halvåret 2024) tog vi emot följande meddelanden som lämnats in i enlighet med DSA-artikel 16 inom EU:
Nedan tillhandahåller vi en uppdelning som återspeglar hur dessa meddelanden behandlades – dvs. genom en process som inkluderar mänsklig granskning eller endast via automatiserade medel:
Om vi vid en granskning fastställer att rapporterat innehåll eller konto bryter mot våra Community-riktlinjer (inklusive på grund av olaglighet), kan vi (i) ta bort det kränkande innehållet, (ii) ge en varning till den relevanta kontoinnehavaren och/eller (iii) låsa det relevanta kontot, vilket förklaras ytterligare i vår Förklaring för moderering, verkställande och överklaganden i Snapchat .
Under andra halvåret 2024 vidtog vi följande verkställande åtgärder efter mottagande av meddelanden som lämnats in i enlighet DSA-artikel 16 inom EU:
Under andra halvåret 2024 där vi vidtagit åtgärder mot “annat olagligt innehåll” i enlighet med våra Community-riktlinjer eftersom våra Community-riktlinjer förbjöd det aktuella innehållet eller aktiviteten. Vi kategoriserade således dessa verkställanden enligt respektive brottskategori enligt Community-riktlinjen i tabellen ovan.
Utöver ovanstående verkställanden kan vi vidta åtgärder för innehåll som meddelats oss i enlighet med andra tillämpliga Snap-policyer och -riktlinjer:
När det gäller innehåll på våra offentliga sändningsytor kan vi, om vi fastställer att det rapporterade innehållet inte uppfyller våra Innehållsriktlinjer för berättigande till rekommendationer och kriterierna för berättigande till rekommendationer i enlighet med våra Innehållsriktlinjer för berättigande till rekommendationer eller så kan vi begränsa distributionen av innehållet för att utesluta vissa mottagare (om innehållet uppfyller våra behörighetskriterier för rekommendation men på annat sätt är känsligt eller suggestivt).
Under andra halvåret 2024 vidtog vi följande åtgärder för innehåll på Snapchats offentliga sändningsytor som rapporterats till oss inom EU, i enlighet med våra Innehållsriktlinjer för berättigande till rekommendationer:
Om vi fastställer att en rapporterad annonsering bryter mot våra Annonsvillkor kan vi ta bort den vid granskning.
Under andra halvåret 2024 vidtog vi följande åtgärder för annonser som rapporterats till oss inom EU:
Utöver att granska meddelanden som lämnats in i enlighet med DSA-artikel 16 engagerar sig Snap också i moderering av innehåll på eget initiativ. Nedan tillhandahåller vi information om moderering av innehåll som Snap på eget initiativ engagerat sig i, inklusive användning av automatiserade verktyg, de åtgärder som vidtagits för att tillhandahålla utbildning och stöd till personer som ansvarar för moderering av innehåll samt antalet och typerna av begränsningar som införts till följd av dessa proaktiva ansträngningar för moderering av innehåll.
Användning av automatiserade verktyg vid moderering på eget initiativ av Snap
Vi använder automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, genomdriva brott mot våra villkor och policyer. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Google CSAI Match), Google Content Safety API, modeller för upptäckt av missbruk av språk (som upptäcker och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över missbruk av nyckelord och emojis) och tekniker som utnyttjar artificiell intelligens, maskininlärning och modeller för stora språk. Våra automatiserade verktyg är utformade för att upptäcka brott mot våra Community-riktlinjer för berättigande till rekommendationer och där det är tillämpligt, våra Innehållsriktlinjer för berättigande till rekommendationer och Annonsvillkor.
Under andra halvåret 2024 genomfördes all vår proaktiva detektering med hjälp av automatiserade verktyg. När våra automatiserade verktyg upptäcker ett potentiellt brott mot våra policyer vidtar de antingen automatiskt åtgärder i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning. Antalet och typerna av begränsningar som införts till följd av denna process beskrivs nedan.
Antal och typer av begränsningar som införts på eget initiativ av Snap
Under andra halvåret 2024 vidtog Snap följande åtgärder för att proaktivt upptäcka brott mot våra Community-riktlinjer (inklusive brott mot olagligt innehåll och aktiviteter enligt EU:s lagar):
Dessutom: beträffande innehåll på våra offentliga sändningsytor, vidtog vi under andra halvåret 2024 följande åtgärder efter att på Snapchat proaktivt ha upptäckt, genom användning av automatiserade verktyg, brott mot våra Innehållsriktlinjer för berättigande till rekommendationer:
* Som anges i våra Innehållsriktlinjer för berättigande till rekommendationer kan konton som upprepade gånger eller grovt bryter mot våra Innehållsriktlinjer för berättigande till rekommendationer tillfälligt eller permanent diskvalificeras från rekommendationer på våra offentliga sändningsytor. Vi tillämpar denna åtgärd i samband med våra proaktiva modereringsinsatser.
Under första halvåret 2024 vidtog vi dessutom följande åtgärder efter att genom användning av automatiserade verktyg proaktivt på Snapchat ha upptäckt brott mot våra Annonsvillkor:
Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll
Våra team för moderering av innehåll tillämpar våra policyer för moderering av innehåll för att hjälpa till med att skydda vår Snapchat-community. De lärs upp under en period på flera veckor, där nya teammedlemmar utbildas i policyer, verktyg och eskaleringsprocedurer för Snap. Våra modereringsteam deltar regelbundet i uppdaterande utbildning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall rörande policy-gränser och fall beroende av sammanhang. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps policyer.
Vi ger våra team för moderering av innehåll betydande stöd och resurser, inklusive stöd för hälsa-på-jobbet och lätttillgängliga tjänster för psykisk hälsa.
Användare vars konton har låsts av våra säkerhetsteam för brott mot Community-riktlinjer (inklusive olagligt innehåll och aktiviteter) kan skicka in ett överklagande om låst konto. Användare kan också överklaga vissa beslut om moderering av innehåll.
Under rapporteringsperioden (första halvåret 2024) hanterade Snap följande överklaganden (inklusive överklaganden både om låsta konton och beslut om moderering av innehåll) som lämnats in via dess interna system för hantering av klagomål inom EU:
Kvalitativ beskrivning och syften
Som förklaras ovan i avsnitt 3(b) utnyttjar vi automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, hantera brott mot våra villkor och policyer på våra ytor med offentligt innehåll. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Google CSAI Match), Google Content Safety API, modeller för upptäckt av missbruk av språk (som upptäcker och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över missbruk av nyckelord och emojis) och tekniker som utnyttjar artificiell intelligens, maskininlärning och modeller för stora språk. Våra automatiserade verktyg är utformade för att detektera brott mot våra Community-riktlinjer (som bland annat förbjuder olagligt innehåll) och, i tillämpliga fall, våra Innehållsriktlinjer för berättigande till rekommendationer samt Annonsvillkor.
När våra automatiserade verktyg upptäcker ett potentiellt brott mot våra policyer vidtar de antingen åtgärder automatiskt i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning.
Indikatorer för noggrannhet och möjlig felfrekvens, uppdelade efter medlemsstat
Vi övervakar indikatorer för noggrannheten och den möjliga felfrekvensen för våra automatiserade modereringsverktyg genom att välja ett slumpmässigt urval av uppgifter som behandlas av våra automatiserade verktyg på våra offentliga ytor och välja ut dem för ny granskning av våra mänskliga modereringsteam. Noggrannhetsgraden är procentandelen av uppgifter från dessa slumpmässiga prov som bekräftas ha korrekta modereringsbeslut vid ny granskning av mänskliga moderatorer. Felfrekvensen är skillnaden mellan 100 % och noggrannheten som beräknas enligt beskrivningen ovan.
Vi övervakar noggrannheten och eventuell felfrekvens för två breda kategorier av automatiserade modereringsverktyg, nämligen:
Automatiserade verktyg som upptäcker och/eller verkställer mot överträdelser av våra community-riktlinjer och kan leda till verkställighet mot en användares konto (t.ex. varningar som tillämpas mot kontot eller kontot som låsts). Baserat på provtagning var noggrannhetsgraden för dessa automatiserade verktyg cirka 95 % och felfrekvensen var cirka 5 % under H2 2024.
Automatiserade verktyg som upptäcker och/eller vidtar åtgärder avseende innehåll på våra offentliga sändningsytor på grundval av våra Innehållsriktlinjer för berättigad till rekommendationer. Baserat på provtagning var noggrannhetsgraden för dessa automatiserade verktyg cirka 85 % och felfrekvensen var cirka 15 % under H2 2024.
Baserat på provtagning var den kombinerade noggrannheten för de automatiserade verktyg som användes i båda kategorierna som beskrivs ovan cirka 89 % och felfrekvensen var cirka 11 % under H2 2024.
Vi spårar i allmänhet inte språket för innehåll som vi modererar på Snapchat och kan därför inte tillhandahålla en uppdelning av noggrannhet och felfrekvens för våra automatiserade modereringsverktyg för varje officiellt språk i medlemsstaterna. Som en ersättning för denna information tillhandahåller vi nedan en uppdelning av vår kombinerade noggrannhet och felfrekvens för automatiskt modererat innehåll (både våra Community-riktlinjer och våra innehållsriktlinjer för berättigad rekommendation) som har sitt ursprung i varje medlemsstat.
Skyddsåtgärder
Vi är medvetna om potentiell inverkan som automatiserade modereringsverktyg har på grundläggande rättigheter och vi utnyttjar skyddsåtgärder för att minimera denna inverkan.
Våra automatiserade verktyg för moderering av innehåll testas innan de driftsätts. Modeller testas offline för prestanda och utvecklas via A/B-testning för att säkerställa att de fungerar korrekt innan de fasas in för fullt i produktion. Innan lansering utför vi kvalitetsgranskningar (QA), granskningar vid lansering samt fortgående, precisa QA-kontroller under partiella (fasade) utrullningar.
Efter lanseringen av våra automatiserade verktyg utvärderar vi kontinuerligt deras prestanda och noggrannhet och gör justeringar behov. Denna process involverar att våra mänskliga moderatorer gör ny granskning av exempel från automatiserade uppgifter för att identifiera modeller som kräver justeringar för att förbättra noggrannheten. Vi övervakar också förekomsten av vissa nackdelar på Snapchat genom daglig, slumpmässig stickprovsundersökning av Public Stories och vi utnyttjar denna information för att identifiera områden för ytterligare förbättringar.
Våra policyer och system främjar konsekvent och rättvist verkställande, inklusive genom våra automatiserade verktyg, och ger Snapchattare möjlighet att meningsfullt ifrågasätta resultat från verkställande genom meddelande- och överklagandeprocesser som syftar till att skydda vår communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.
Vi strävar efter att kontinuerligt förbättra våra verktyg för automatiserad moderering av innehåll för att förbättra deras noggrannhet och stödja konsekvent och rättvist verkställande av våra policyer.
För rapporteringsperioden (H2 2024) tillhandahåller vi följande information om tvister vilka lämnats in mot Snap till de organ för tvistlösning utanför domstol som avses i DSA-artikel 21:
Tabellen ovan återspeglar statusen den 31 december 2024 för tvister som lämnats in till certifierade organ för tvistlösning utanför domstol enligt DSA-artikel 21 under rapporteringsperioden (andra halvåret 2024). Från och med den 31 december 2024 var 15 av 20 tvister som lämnats in till sådana organ under andra halvåret 2024 anhängiga och 5 hade lösts innan ett beslut utfärdades.
Observera att vi inte i tabellen ovan tagit med klagomål som lämnats in till ett certifierat artikel 21-organ, men som det berörda organet ansåg vara otillåtliga innan de överfördes till Snap. Vi kan inte bekräfta antalet tvister som faller inom denna kategori eftersom vissa, men inte alla, certifierade organ meddelar Snap om sådana tvister. Vi är dock medvetna om 6 klagomål som faller under denna kategori under andra halvåret 2024.
Avstängningar i enlighet med artikel 23.1: avstängning av konton som ofta tillhandahåller uppenbart olagligt innehåll
Som förklaras i vår Förklaring för moderering, verkställande och överklaganden i Snapchat, kommer konton som vi fastställer primärt används för att bryta mot våra Community-riktlinjer (inklusive genom att tillhandahålla uppenbart olagligt innehåll) samt konton som begår allvarlig skada att avaktiveras omedelbart. För alla andra överträdelser av våra Community-riktlinjer tillämpar Snap i allmänhet en tillsynsprocess i tre delar:
Steg ett: det kränkande innehållet tas bort.
Steg två: Användaren får ett meddelande som anger att de brutit mot våra Community-riktlinjer, att deras innehåll tagits bort och att upprepade överträdelser kommer att leda till ytterligare åtgärder, inklusive att deras konto tas bort.
Steg tre: vårt team registrerar en anmärkning på Snapchattarens konto.
Information om antalet tillslag (dvs. varningar) och spärrar som infördes under andra halvåret 2024 på konton inom EU finns ovan, i avsnitt 3(a) och 3(b).
Avstängningar i enlighet med artikel 23.2: avstängning av behandling av meddelanden och klagomål från individer, enheter och klagande som ofta skickar in meddelanden eller klagomål som är uppenbart ogrundade
Efter tillämpning av vår interna definition av “uppenbart ogrundade” meddelanden och klagomål, samt våra interna tröskelvärden för vad vi anser vara frekvent inlämning av sådana meddelanden och klagomål, är antalet avstängningar av behandling av meddelanden och klagomål som infördes under första halvåret 2024 i enlighet med DSA-artikel 23.2 följande:
Våra team för innehållsmoderering arbetar över hela världen, dygnet runt, vilket gör det möjligt för oss att hjälpa till att hålla vårt community säkert. Nedan är uppdelningen av våra mänskliga moderationsresurser efter språkspecialiteter hos moderatorer (observera att vissa moderatorer är specialiserade på flera språk) från och med den 31 december 2024:
Tabellen ovan inkluderar alla mänskliga resurser som är dedikerade till moderering av innehåll som stöder officiella språk inom EU:s medlemsstater från och med 31 december 2024. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.
Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehåller ett språkkrav (beroende på behovet). Språkkravet anger att kandidaten bör kunna visa flytande skriftlig och muntlig språkfärdighet och, för befattningar på ingångsnivå, måste kandidater ha minst ett års arbetslivserfarenhet. Kandidater måste uppfylla kraven för utbildning och bakgrund för att tas under övervägande. Kandidater måste också visa förståelse för aktuella händelser i det land eller den region för innehållsmoderering som de kommer att stödja.
Se ovan för information om den utbildning och det stöd som Snap tillhandahåller till innehållsmoderatorer, vilket krävs separat enligt DSA-artikel 15(1)(c) och därmed ingår i avsnitt 3(b), i det sista underavsnittet: “Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll”.
Utgiven: 31 januari 2025
Senast uppdaterad: 31 januari 2025
Denna rapport täcker perioden som börjar den 1 januari 2024 och slutar den 31 december 2024.
Bakgrund
Sexuellt utnyttjande av någon medlem av vårt community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.
De tekniker vi använder inkluderar (a) PhotoDNA robust hash-matchning och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor av CSEA; och (b) Googles Content Safety API för att identifiera nya, "aldrig-före-hashade" CSEA-bilder. Vi rapporterar CSEA-bilder till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC samordnar i sin tur med brottsbekämpande myndigheter i USA och andra länder, efter behov.
Rapportera
Diagrammet nedan inkluderar data om proaktiv detektering och resulterande verkställanden mot EU-användare för CSEA-bilder under 2024. (Observera att vissa verkställanden till följd av nämnda proaktiv skanning under 2024 fortfarande kan överklagas från och med när denna rapport sammanställdes och skulle därför inte återspeglas i överklagandena och återinföringsdata nedan.)
*Denna kategori rapporterar verkställande för brott mot Snaps Community-riktlinjer som förbjuder sexuellt utnyttjande av barn. Proaktivt identifierat innehåll som åtgärdats för andra brott mot Snaps Community-riktlinjer rapporteras inte här.
**En verkställighet kan upphävas om vi fastställer att den var felaktig baserat på våra policyer som gällde vid tidpunkten för verkställandet, eller om vi fastställer att den ursprungligen verkställdes korrekt, men vår tillämpliga policy har ändrats vid tidpunkten för granskningen av överklagandet.
Skyddsåtgärder för innehållsmoderering
De skyddsåtgärder som tillämpats för CSEA-mediaskanning anges i ovanstående EU DSA:s insynsrapport.
Publicerad: 28 februari 2025
Senast uppdaterad: 28 februari 2025
Rapporteringscykel: 1 juli 2024 - 31 december 2024
Denna insynsrapport offentliggörs i enlighet med artiklarna 7(2) och 7(3) i förordningen 2021/784 från Europaparlamentet och Europarådet, som behandlar spridning av terroristinnehåll online (förordningen). Den täcker rapporteringsperioden 1 januari - 31 december 2024.
Artikel 7(3)(a): information om värdtjänsteleverantörens åtgärder i samband med identifiering och avlägsnande av eller avaktivering av tillgång till terroristinnehåll
Artikel 7(3)(b): information om värdtjänsteleverantörens åtgärder för att hantera återkomsten av material online som tidigare har tagits bort eller där tillgång har avaktiverats eftersom det ansågs vara terroristinnehåll, i synnerhet där automatiserade verktyg har använts
Snapchat upplever en mycket låg förekomst av terroristinnehåll och fick inte någon order om borttagning enligt förordningen 2024.
Terrorister, terroristorganisationer och våldsamma extremister är förbjudna att använda Snapchat Innehåll som förespråkar, stödjer förhärligar eller främjar terrorism eller andra våldsamma, kriminella handlingar är förbjudna enligt våra Community-riktlinjer. Användare kan rapportera innehåll som bryter mot våra Community-riktlinjer via vår rapporteringsmeny i appen och vår supportsida. Vi använder också proaktiv detektering för att försöka identifiera kränkande innehåll på offentliga ytor som Spotlight och Upptäck.
Oavsett hur vi får kännedom om innehåll som bryter mot reglerna så granskar våra förtroende- och säkerhetsteam omedelbart identifierat innehåll, genom en kombination av automatisering och mänsklig moderering, och fattar verkställande beslut. Åtgärder kan inkludera att ta bort innehållet, varna eller låsa det kränkande kontot och, om det är motiverat, rapportera kontot till brottsbekämpande myndigheter. För att förhindra återkomst av terroristinnehåll eller annat våldsamt extremistiskt innehåll på Snapchat vidtar vi, utöver att samarbeta med brottsbekämpande myndigheter, åtgärder för att blockera enheten som är associerad med det regelbrytande kontot och förhindra användaren från att skapa ett nytt Snapchat-konto.
Ytterligare information om våra åtgärder för att identifiera och ta bort terroristinnehåll finns i vår Förklaring om hatfullt innehåll, terrorism och våldsam extremism samt i vår Förklaring om moderering, verkställande och överklaganden.
Artikel 7(3)(c): antalet poster av terroristinnehåll som avlägsnats eller till vilket åtkomst har avaktiverats efter tillsägelser om avlägsnande eller specifika åtgärder, samt antalet tillsägelser om avlägsnande där innehållet inte har tagits bort eller till vilket tillgång inte har avaktiverats i enlighet med den första underparagrafen i artikel 3(7) samt den första underparagrafen i artikel 3(8), tillsammans med grunderna för detta
Under rapporteringsperioden tog Snap inte emot några tillsägelser om borttagning, inte heller krävdes att vi skulle genomföra några specifika åtgärder i enlighet med artikel 5 i förordningen. Därför krävdes det inte att vi skulle vidta verkställande åtgärder enligt förordningen.
Följande tabell beskriver verkställande åtgärder som vidtagits baserat på användarrapporter och proaktiv detektering av innehåll och konton, både inom EU och på andra ställen i världen, som brutit mot våra Community-riktlinjer rörande terrorism och våldsamt extremistinnehåll
Artikel 7(3)(d): antalet och resultatet av klagomål som hanterats av värdtjänsteleverantören i enlighet med artikel 10
Artikel 7(3)(g): antalet fall där värdtjänsteleverantören återinförde innehåll eller tillgång till innehållet efter ett klagomål från innehållsleverantören
Eftersom vi inte hade några verkställande åtgärder som krävdes enligt förordningen under rapporteringsperioden som anges ovan, hanterade vi inga klagomål i enlighet med artikel 10 i förordningen och hade inga återinföranden i samband med detta.
Följande tabell innehåller information om överklaganden och återinföranden som verkställts enligt våra Community-riktlinjer., både inom EU och på andra platser i världen, som involverar terroristinnehåll och våldsamt extremistiskt innehåll.
Artikel 7(3)(e): antalet och resultatet av administrativa eller rättsliga granskningsförfaranden som inletts av värdtjänsteleverantören
Artikel 7(3)(f): antalet fall där värdtjänsteleverantören var skyldig att återinföra innehåll eller tillgång till innehållet till följd av administrativa eller rättsliga granskningsförfaranden
Eftersom vi inte hade några verkställande åtgärder som krävs enligt förordningen under rapporteringsperioden, som noterats ovan, hade vi inga administrativa eller rättsliga granskningsförfaranden i samband med detta och vi var inte skyldiga att återinföra innehåll till följd av några sådana förfaranden.
Denna rapport har förberetts för att uppfylla Snaps skyldigheter enligt artiklarna 34 och 35 i förordning (EU) 2022/2065 och tillhandahåller resultaten av vår bedömning av systemrisker som härrör från designen, funktionen och användningen av Snapchats onlineplattformar, samt den metodik som används för att bedöma dessa risker och de begränsningsåtgärder som införts för att hantera riskerna.
DSA:s rapport om risk- och riskbegränsningsbedömning | Snapchat | Augusti 2023 (PDF)
Dessa rapporter har förberetts för att uppfylla Snaps skyldigheter enligt artikel 37 i förordning (EU) 2022/2065 och tillhandahåller: (i) resultaten från den oberoende granskningen av Snaps efterlevnad av de skyldigheter som anges i kapitel III i förordning (EU) 2022/2065 och (ii) de åtgärder som vidtagits för att genomföra de konkreta rekommendationerna från den oberoende revisionen.
DSA:s oberoende revisionsrapport | Snapchat | Augusti 2024 (PDF)
DSA:s rapport om revisionsgenomförande | Snapchat | September 2024 (PDF)
EU VSP-uppförandekod
Snap är en leverantör av "videodelningsplattformstjänst"("VSP") i enlighet med artikel 1(1)(aa) AVMSD. Denna uppförandekod (“kod“) har förberetts för att beskriva hur Snap uppfyller sina skyldigheter som en VSP enligt den nederländska medielagen (“DMA”) och direktiv (EU) 2010/13 (som ändrats genom direktiv (EU) 2018/1808 (“Audiovisual Media Services Directive” eller ”AVMSD”)). Koden är tillämplig i hela Europeiska unionen samt i det Europeiska ekonomiska samarbetsområdet.
EU VSP-uppförandekod | Snapchat | Mars 2025 (PDF)
Bulgariska | Kroatiska | Tjeckiska | Danska | Nederländska | Estniska | Finska | Franska | Tyska | Grekiska | Ungerska | Irländska | Italienska | Lettiska | Litauiska | Maltesiska | Polska | Portugisiska | Rumänska | Slovakiska | Slovenska | Spanska | Svenska