25 oktober 2024
17 december 2024
Välkommen till vår insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD), Dutch Media Act (DMA) och Terrorist Content Online Regulation (TCO). Observera att den mest uppdaterade versionen av dessa insynsrapporter finns på amerikansk engelska (en-US).
Snap Group Limited har utsett Snap B.V. som sitt juridiska ombud för DSA:s ändamål. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, på tco-enquiries [at] snapchat.com för TCO, genom vår supportsida [här], eller på:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna
Brottsbekämpande myndigheter kan följa stegen som beskrivs här.
Kommunicera på engelska eller nederländska när du kontaktar oss.
För DSA, regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM). För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM). För TCO regleras vi av den nederländska myndigheten för förebyggande av terrorisminnehåll online och material innehållande sexuella övergrepp mot barn (ATKM).
Senast uppdaterad: 25 oktober 2024
Vi publicerar denna rapport om våra ansträngningar för moderering av innehåll på Snapchat i enlighet med rapporteringskraven för insyn som ges i artiklarna 15, 24 och 42 i Europeiska unionens (EU) Digital Services Act (förordning (EU) 2022/2065) (“DSA“). Om inte annat anges avser informationen i denna rapport rapporteringsperioden från 1 januari 2024 till 30 juni 2024 (första halvåret 2024) och täcker moderering av innehåll för funktioner på Snapchat som regleras av DSA.
Vi strävar ständigt efter att förbättra vår rapportering. För denna rapporteringsperiod (första halvåret 2024) har vi gjort ändringar i strukturen för vår rapport med nya och mer differentierade tabeller för att ge förbättrad insikt i våra ansträngningar för moderering av innehåll.
Per den 1:a oktober 2024 har vi i genomsnitt 92,9 miljoner månatligen aktiva mottagare ("AMAR") för vår app Snapchat inom EU. Detta innebär att under perioden på 6 månader som slutade 30 september 2024 har i genomsnitt 92,9 miljoner registrerade användare inom EU öppnat appen Snapchat minst en gång under en given månad.
Denna siffra fördelas per medlemsstat enligt följande:
Dessa siffror beräknades för att uppfylla nuvarande DSA-regler och bör endast hänvisas till för DSA-ändamål. Vi har ändrat hur vi beräknar denna siffra över tid, inklusive som svar på ändrade interna policyer, vägledning och teknik för tillsynsmyndigheter, och siffror är inte avsedda att jämföras mellan perioder. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.
Under denna rapporteringsperiod (första halvåret 2024) fick vi noll (0) tillsägelser från EU-medlemsstaternas myndigheter att agera mot specifikt identifierade delar av olagligt innehåll, inklusive de som utfärdats i enlighet med DSA-artikel 9.
Eftersom detta antal är noll (0) kan vi inte tillhandahålla en uppdelning per typ av olagligt innehåll eller medlemsstat som utfärdar tillsägelsen, eller mediantiden för bekräfta mottagande eller verkställande av tillsägelserna.
Under denna rapporteringsperiod (första halvåret 2024) tog vi emot följande tillsägelser från EU-medlemsstaternas myndigheter om att avslöja användardata, inklusive de som utfärdats i enlighet med DSA-artikel 10:
Mediantiden för att informera relevanta myndigheter om mottagande av dessa tillsägelser att tillhandahålla information var 0 minuter – vi tillhandahåller ett automatiserat svar som bekräftar mottagandet.
Mediantiden för att verkställa dessa tillsägelser att tillhandahålla information var ~7 dagar. Detta mätvärde återspeglar tidsperioden från när Snap tog emot en tillsägelse till när Snap ansåg att frågan var helt löst, vilket i enskilda fall delvis kan bero på med vilken hastighet den relevanta medlemsstatens myndighet svarar på alla förfrågningar om förtydligande från Snap som krävs för att behandla tillsägelsen.
Observera att vi inte tillhandahåller en uppdelning av ovanstående tillsägelser om att tillhandahålla information kategoriserad efter typ av olagligt innehåll eftersom denna information inte är allmänt tillgänglig för oss.
Allt innehåll på Snapchat måste hålla sig till våra Community-riktlinjer och Tjänstevillkor. Visst innehåll måste också hålla sig till ytterligare riktlinjer och policyer. Till exempel, innehåll som skickats in för algoritmisk rekommendation till en bredare publik på våra offentliga sändningsytor måste uppfylla ytterligare, högre standarder som tillhandahålls i våra Innehållsriktlinjer för berättigande till rekommendationer, medan annonsering måste följa våra Annonsvillkor.
Vi verkställer dessa policyer med hjälp av teknik och mänsklig granskning. Vi tillhandahåller också mekanismer för Snapchattare att rapportera brott, inklusive olagligt innehåll och aktiviteter, direkt i appen eller genom vår webbplats. Proaktiva detekteringsmekanismer och rapporter uppmanar till granskning, som sedan utnyttjar en blandning av automatiserade verktyg och mänskliga moderatorer för att vidta lämpliga åtgärder i enlighet med våra policyer.
Vi tillhandahåller ytterligare information om vår moderering av innehåll på våra offentliga ytor under första halvåret 2024 nedan.
I enlighet med DSA-artikel 16 har Snap infört mekanismer som gör det möjligt för användare och icke-användare att meddela Snap om närvaro på Snapchat av specifika delar av information som de anser vara olagligt innehåll. De kan göra det genom att rapportera specifika delar av innehåll eller konton, antingen direkt i appen Snapchat eller på vår webbplats.
Under rapporteringsperioden (första halvåret 2024) tog vi emot följande meddelanden som lämnats in i enlighet med DSA-artikel 16 inom EU:
Nedan tillhandahåller vi en uppdelning som återspeglar hur dessa meddelanden behandlades – dvs. genom en process som inkluderar mänsklig granskning eller endast via automatiserade medel:
Vid inlämning av meddelanden i appen eller via vår webbplats kan reportrar välja en specifik anledning för rapportering från en meny med alternativ som återspeglar de kategorier av överträdelser som anges i våra Community-riktlinjer (t.ex. hatretorik, droganvändning eller -försäljning). Våra Community-riktlinjer förbjuder innehåll och aktiviteter som är olagliga inom EU, så vår rapportering återspeglar i stor utsträckning specifika kategorier av olagligt innehåll inom EU. Men i den utsträckning som en reporter inom EU anser att innehållet eller kontot som de rapporterar är olagligt av skäl som inte specifikt anges i vår rapporteringsmeny, kan de rapportera det för "annat olagligt innehåll" och ges möjlighet att förklara varför de tror att vad de rapporterar är olagligt.
Om vi vid en granskning fastställer att rapporterat innehåll eller konto bryter mot våra Community-riktlinjer (inklusive på grund av olaglighet), kan vi (i) ta bort det kränkande innehållet, (ii) ge en varning till den relevanta kontoinnehavaren och/eller (iii) låsa det relevanta kontot, vilket förklaras ytterligare i vår Förklaring för moderering, verkställande och överklaganden i Snapchat .
Under första halvåret 2024 vidtog vi följande verkställande åtgärder efter mottagande av meddelanden som lämnats in i enlighet DSA-artikel 16 inom EU:
Alla rapporter om “annat olagligt innehåll” under första halvåret 2024 där vi vidtagit åtgärder verkställdes i enlighet med våra Community-riktlinjer eftersom våra Community-riktlinjer förbjöd det relevanta innehållet eller aktiviteten. Vi kategoriserade således dessa verkställanden enligt den relevanta kategorin brott mot Community-riktlinjen i tabellen ovan.
Utöver ovanstående verkställanden kan vi vidta åtgärder för innehåll som meddelats oss i enlighet med andra tillämpliga Snap-policyer och -riktlinjer:
Beträffande innehåll på våra offentliga sändningsytor, om vi fastställer att det rapporterade innehållet inte uppfyller de högre standarderna i våra Innehållsriktlinjer för berättigande till rekommendationer, kan vi avvisa innehållet för algoritmisk rekommendation (om innehållet inte uppfyller våra berättigandekriterier), eller vi kan begränsa distributionen av innehållet för att utesluta känsliga målgrupper (om innehållet uppfyller våra berättigandekriterier för rekommendation men på annat sätt är känsligt eller tvetydigt).
Under första halvåret 2024 vidtog vi följande åtgärder för innehåll på Snapchats offentliga sändningsytor som rapporterats till oss inom EU, i enlighet med våra Innehållsriktlinjer för berättigande till rekommendationer:
Om vi fastställer att en rapporterad annonsering bryter mot våra Annonsvillkor kan vi ta bort den vid granskning.
Under första halvåret 2024 vidtog vi följande åtgärder om annonsering som rapporterats till oss inom EU:
Utöver att granska meddelanden som lämnats in i enlighet med DSA-artikel 16, modererar Snap på eget initiativ innehåll på offentliga ytor på Snapchat (t.ex. Spotlight, Upptäck). Nedan tillhandahåller vi information om moderering av innehåll som Snap på eget initiativ engagerat sig i, inklusive användning av automatiserade verktyg, de åtgärder som vidtagits för att tillhandahålla utbildning och stöd till personer som ansvarar moderering av innehåll samt antalet och typerna av begränsningar som införts till följd av dessa proaktiva ansträngningar för moderering av innehåll.
Användning av automatiserade verktyg vid moderering på eget initiativ av Snap
Vi utnyttjar automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, hantera brott mot våra villkor och policyer för våra ytor med offentligt innehåll. Detta inkluderar verktyg för hash-matchning (inklusive PhotoDNA och Google CSAI Match), modeller för detektering av smädande språk (som upptäcker och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över smädande nyckelord och emojis) samt teknik för artificiell intelligens/maskininlärning. Våra automatiserade verktyg är utformade för att detektera brott mot våra Community-riktlinjer (som bland annat förbjuder olagligt innehåll) och, i tillämpliga fall, våra Innehållsriktlinjer för berättigande till rekommendationer samt Annonsvillkor.
Under första halvåret 2024 genomfördes all vår proaktiva detektering med hjälp av automatiserade verktyg. När våra automatiserade verktyg upptäcker ett potentiellt brott mot våra policyer vidtar de antingen automatiskt åtgärder i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning. Antalet och typerna av begränsningar som införts till följd av denna process beskrivs nedan.
Antal och typer av begränsningar som införts på eget initiativ av Snap
Under första halvåret 2024 vidtog Snap följande verkställande åtgärder efter att proaktivt ha detekterat, genom användning av automatiserade verktyg, brott mot våra Community-riktlinjer (inklusive brott som innebär olagligt innehåll och aktiviteter enligt EU:s och medlemsstaternas lagar):
Dessutom, beträffande innehåll på våra offentliga sändningsytor, vidtog vi under första halvåret 2024 följande åtgärder efter att proaktivt ha detekterat på Snapchat, genom användning av automatiserade verktyg, brott mot våra Innehållsriktlinjer för berättigande till rekommendationer:
* Som anges i våra Innehållsriktlinjer för berättigande till rekommendationer kan konton som upprepade gånger eller grovt bryter mot våra Innehållsriktlinjer för berättigande till rekommendationer tillfälligt eller permanent diskvalificeras från rekommendationer på våra offentliga sändningsytor. Vi tillämpar denna åtgärd i samband med våra proaktiva modereringsinsatser.
Under första halvåret 2024 vidtog vi dessutom följande åtgärder efter att genom användning av automatiserade verktyg proaktivt ha detekterat brott på Snapchat mot våra Annonsvillkor:
Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll
Våra team för moderering av innehåll tillämpar våra policyer för moderering av innehåll för att hjälpa till med att skydda vår Snapchat-community. De lärs upp under en period på flera veckor, där nya teammedlemmar utbildas i policyer, verktyg och eskaleringsprocedurer för Snap. Våra modereringsteam deltar regelbundet i uppdaterande utbildning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall rörande policy-gränser och fall beroende av sammanhang. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps policyer.
Vi ger våra team för moderering av innehåll betydande stöd och resurser, inklusive stöd för hälsa-på-jobbet och lätt tillgång till tjänster för psykisk hälsa.
Användare vars konton har låsts av våra säkerhetsteam för brott mot Community-riktlinjer (inklusive olagligt innehåll och aktiviteter) kan skicka in ett överklagande om låst konto. Användare kan också överklaga vissa beslut om moderering av innehåll.
Under rapporteringsperioden (första halvåret 2024) hanterade Snap följande överklaganden (inklusive överklaganden både om låsta konton och beslut om moderering av innehåll) som lämnats in via dess interna system för hantering av klagomål inom EU:
Kvalitativ beskrivning och syften
Som förklaras ovan i avsnitt 3(b) utnyttjar vi automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, hantera brott mot våra villkor och policyer på våra ytor med offentligt innehåll. Detta inkluderar verktyg för hash-matchning (inklusive PhotoDNA och Google CSAI Match), modeller för detektering av smädande språk (som detekterar och avvisar innehåll baserat på en identifierad och regelbundet uppdaterad lista över smädande nyckelord och emojis), samt teknik för artificiell intelligens/maskininlärning. Våra automatiserade verktyg är utformade för att detektera brott mot våra Community-riktlinjer (som bland annat förbjuder olagligt innehåll) och, där det är tillämpligt, våra Innehållsriktlinjer för berättigande till rekommendationer samt Annonsvillkor.
När våra automatiserade verktyg detekterar ett potentiellt brott mot våra policyer, vidtar de antingen automatiskt åtgärder i enlighet med våra policyer, eller så skapar de en uppgift för mänsklig granskning.
Indikatorer för noggrannhet och möjlig felfrekvens, uppdelade efter medlemsstat
Vi övervakar noggrannheten i våra automatiserade verktyg för moderering genom att slumpmässigt välja ut exempel på uppgifter som behandlats av våra automatiserade verktyg på våra offentliga ytor och skicka in dem för ny granskning av våra mänskliga team för moderering. Noggrannheten är procentandelen av uppgifter från dessa slumpmässiga exempel som höll måttet vid ny granskning av våra mänskliga moderatorer. Felfrekvensen är skillnaden mellan 100 % och noggrannheten som beräknas enligt beskrivningen ovan.
Baserat på stickprovsundersökning under första halvåret 2024 var indikatorerna för noggrannhet och möjlig felfrekvens för de automatiserade hjälpmedel som användes för alla kategorier av brott cirka 93 % och felfrekvensen var cirka 7 %.
Vi spårar i allmänhet inte språket för innehåll som vi modererar på Snapchat och kan därför inte tillhandahålla en uppdelning av noggrannheten och felfrekvensen för våra automatiserade modereringsverktyg för varje officiellt språk i medlemsstaterna. Istället för denna information tillhandahåller vi nedan en uppdelning av vår noggrannhet och felfrekvens för automatiskt modererat innehåll som härrör från varje medlemsstat.
Skyddsåtgärder
Vi är medvetna om potentiell inverkan av automatiserade modereringsverktyg på grundläggande rättigheter och vi utnyttjar skyddsåtgärder för att minimera denna inverkan.
Våra verktyg för automatiserad moderering av innehåll testas innan de utnyttjas på Snapchat. Modeller testas offline för prestanda och utvecklas via A/B-testning för att säkerställa att de fungerar korrekt innan de fasas in för fullt i produktion. Innan lansering utför vi kvalitetsgranskningar (QA), granskningar vid lansering samt fortgående, precisa QA-kontroller under partiella (fasade) utrullningar.
Efter lanseringen av våra automatiserade verktyg utvärderar vi kontinuerligt deras prestanda och noggrannhet och gör justeringar behov. Denna process involverar att våra mänskliga moderatorer gör ny granskning av exempel från automatiserade uppgifter för att identifiera modeller som kräver justeringar för att förbättra noggrannheten. Vi övervakar också förekomsten av specifika skador på Snapchat genom daglig, slumpmässig stickprovsundersökning av Public Stories och vi utnyttjar denna information för att identifiera områden för ytterligare förbättringar.
Våra policyer och system främjar konsekvent och rättvist verkställande, inklusive genom våra automatiserade verktyg, och ger Snapchattare möjlighet att meningsfullt ifrågasätta resultat från verkställande genom meddelande- och överklagandeprocesser som syftar till att skydda vår communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.
Vi strävar efter att kontinuerligt förbättra våra verktyg för automatiserad moderering av innehåll för att förbättra deras noggrannhet och stödja konsekvent och rättvist verkställande av våra policyer.
För rapporteringsperioden (första halvåret 2024) var antalet tvister som lämnats in till formellt certifierade organ för tvistlösning utanför domstol i enlighet med DSA-artikel 21 lika med noll (0), och vi kan inte tillhandahålla en uppdelning som återspeglar resultat, mediantider för avslut, eller andelen tvister där Snap implementerade beslut från ett organ för tvistlösning utanför domstol.
Observera att vi under första halvåret 2024 tog emot två (2) meddelanden om tvister som lämnats in till ett organ som söker certifiering som ett organ för tvistlösning utanför domstol enligt DSA-artikel 21. Vi inkluderar inte dessa tvister i den ovanstående sammanräkningen eftersom det organ som överlämnade dessa meddelanden om tvister inte på vår begäran kunde verifiera sin status för certifiering.
Avstängningar i enlighet med artikel 23.1: avstängning av konton som ofta tillhandahåller uppenbart olagligt innehåll
Som förklaras i vår Förklaring för moderering, verkställande och överklaganden i Snapchat, kommer konton som vi fastställer primärt används för att bryta mot våra Community-riktlinjer (inklusive genom att tillhandahålla uppenbart olagligt innehåll) samt konton som begår allvarlig skada att avaktiveras omedelbart. För alla andra överträdelser av våra Community-riktlinjer tillämpar Snap i allmänhet en tillsynsprocess i tre delar:
Steg ett: det kränkande innehållet tas bort.
Steg två: Snapchattaren får ett meddelande som indikerar att de har brutit mot våra Community-riktlinjer, att deras innehåll har tagits bort och att upprepade överträdelser kommer att resultera i ytterligare tillsynsåtgärder, inklusive att deras konto inaktiveras.
Steg tre: vårt team registrerar en anmärkning på Snapchattarens konto.
Information om antalet anmärkningar (dvs. varningar) och spärrar, som infördes under första halvåret 2024 på konton inom EU i samband med innehåll eller aktiviteter på offentliga ytor för Snapchat, finns ovan i avsnitt 3(a) och 3(b).
Avstängningar i enlighet med artikel 23.2: avstängning av behandling av meddelanden och klagomål från individer, enheter och klagande som ofta skickar in meddelanden eller klagomål som är uppenbart ogrundade
Efter tillämpning av vår interna definition av “uppenbart ogrundade” meddelanden och klagomål, samt våra interna tröskelvärden för vad vi anser vara frekvent inlämning av sådana meddelanden och klagomål, är antalet avstängningar av behandling av meddelanden och klagomål som infördes under första halvåret 2024 i enlighet med DSA-artikel 23.2 följande:
Våra team för moderering av innehåll arbetar över hela världen, vilket gör det möjligt för oss att hjälpa till att hålla Snapchattare säkra 24/7. Nedan hittar du uppdelningen av våra personalresurser för moderering efter språkliga specialiteter hos moderatorer (observera att vissa moderatorer är specialiserade på flera språk) från och med 30 juni 2024:
Tabellen ovan inkluderar alla mänskliga resurser som är dedikerade till moderering av innehåll som stöder officiella språk inom EU:s medlemsstater från och med 30 juni 2024. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.
Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehåller ett språkkrav (beroende på behovet). Språkkravet anger att kandidaten ska kunna visa sig vara flytande i språket skriftligt och muntligt, samt ha minst ett års arbetslivserfarenhet för positioner på grundnivå. Kandidater måste uppfylla kraven för utbildning och bakgrund för att tas under övervägande. Kandidater måste också visa förståelse för aktuella händelser i det land eller den region för innehållsmoderering som de kommer att stödja.
Se ovan för information om den utbildning och det stöd som Snap tillhandahåller till moderatorer av innehåll, vilket krävs separat enligt DSA-artikel 15(1)(c) och därmed ingår i avsnitt 3(b), i det sista underavsnittet: “Åtgärder som vidtagits för att tillhandahålla utbildning och assistans till personer som ansvarar för moderering av innehåll”.
Bakgrund
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.
Vi använder PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.
Rapportera
Nedanstående data är baserade på resultatet av proaktiv skanning med PhotoDNA och/eller CSAI Match av medier som laddas upp av en användares kamerarulle till Snapchat.
Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende. Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär. Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring. Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.
Skyddsåtgärder för innehållsmoderering
De skyddsåtgärder som tillämpas för CSEA-mediaskanning anges i ovanstående avsnitt "Innehållsmodereringsskyddsåtgärder" under vår DSA-rapport.
Publicerad: 17 juni 2024
Senast uppdaterad: 17 juni 2024
Denna insynsrapport offentliggörs i enlighet med artiklarna 7(2) och 7(3) i förordningen 2021/784 från Europaparlamentet och Europarådet, som behandlar spridning av terroristinnehåll online (förordningen). Den täcker rapporteringsperioden 1 januari – 31 december 2023.
Artikel 7(3)(a): information om värdtjänsteleverantörens åtgärder i samband med identifiering och avlägsnande av eller avaktivering av tillgång till terroristinnehåll
Artikel 7(3)(b): information om värdtjänsteleverantörens åtgärder för att hantera återkomsten av material online som tidigare har tagits bort eller där tillgång har avaktiverats eftersom det ansågs vara terroristinnehåll, i synnerhet där automatiserade verktyg har använts
Terrorister, terroristorganisationer och våldsamma extremister är förbjudna att använda Snapchat Innehåll som förespråkar, stödjer förhärligar eller främjar terrorism eller andra våldsamma, kriminella handlingar är förbjudna enligt våra Community-riktlinjer. Användare kan rapportera innehåll som bryter mot våra Community-riktlinjer via vår rapporteringsmeny i appen och vår supportsida. Vi använder också proaktiv detektering för att försöka identifiera kränkande innehåll på offentliga ytor som Spotlight och Upptäck.
Oavsett hur vi får kännedom om innehåll som bryter mot reglerna så granskar våra förtroende- och säkerhetsteam omedelbart identifierat innehåll, genom en kombination av automatisering och mänsklig moderering, och fattar verkställande beslut. Åtgärder kan inkludera att ta bort innehållet, varna eller låsa det kränkande kontot och, om det är motiverat, rapportera kontot till brottsbekämpande myndigheter. För att förhindra återkomst av terroristinnehåll eller annat våldsamt extremistiskt innehåll på Snapchat vidtar vi, utöver att samarbeta med brottsbekämpande myndigheter, åtgärder för att blockera enheten som är associerad med det regelbrytande kontot och förhindra användaren från att skapa ett nytt Snapchat-konto.
Ytterligare information om våra åtgärder för att identifiera och ta bort terroristinnehåll finns i vår Förklaring om hatfullt innehåll, terrorism och våldsam extremism samt i vår Förklaring om moderering, verkställande och överklaganden.
Artikel 7(3)(c): antalet poster av terroristinnehåll som avlägsnats eller till vilket åtkomst har avaktiverats efter tillsägelser om avlägsnande eller specifika åtgärder, samt antalet tillsägelser om avlägsnande där innehållet inte har tagits bort eller till vilket tillgång inte har avaktiverats i enlighet med den första underparagrafen i artikel 3(7) samt den första underparagrafen i artikel 3(8), tillsammans med grunderna för detta
Under rapporteringsperioden tog Snap inte emot några tillsägelser om borttagning, inte heller krävdes att vi skulle genomföra några specifika åtgärder i enlighet med artikel 5 i förordningen. Därför krävdes det inte att vi skulle vidta verkställande åtgärder enligt förordningen.
Följande tabell beskriver verkställande åtgärder som vidtagits baserat på användarrapporter och proaktiv detektering av innehåll och konton, både inom EU och på andra ställen i världen, som brutit mot våra Community-riktlinjer rörande terrorism och våldsamt extremistinnehåll
Artikel 7(3)(d): antalet och resultatet av klagomål som hanterats av värdtjänsteleverantören i enlighet med artikel 10
Artikel 7(3)(g): antalet fall där värdtjänsteleverantören återinförde innehåll eller tillgång till innehållet efter ett klagomål från innehållsleverantören
Eftersom vi inte hade några verkställande åtgärder som krävdes enligt förordningen under rapporteringsperioden som anges ovan, hanterade vi inga klagomål i enlighet med artikel 10 i förordningen och hade inga återinföranden i samband med detta.
Följande tabell innehåller information om överklaganden och återinföranden som verkställts enligt våra Community-riktlinjer., både inom EU och på andra platser i världen, som involverar terroristinnehåll och våldsamt extremistiskt innehåll.
Artikel 7(3)(e): antalet och resultatet av administrativa eller rättsliga granskningsförfaranden som inletts av värdtjänsteleverantören
Artikel 7(3)(f): antalet fall där värdtjänsteleverantören var skyldig att återinföra innehåll eller tillgång till innehållet till följd av administrativa eller rättsliga granskningsförfaranden
Eftersom vi inte hade några verkställande åtgärder som krävs enligt förordningen under rapporteringsperioden, som noterats ovan, hade vi inga administrativa eller rättsliga granskningsförfaranden i samband med detta och vi var inte skyldiga att återinföra innehåll till följd av några sådana förfaranden.
Denna rapport har förberetts för att uppfylla Snaps skyldigheter enligt artiklarna 34 och 35 i förordning (EU) 2022/2065 och tillhandahåller resultaten av vår bedömning av systemrisker som härrör från designen, funktionen och användningen av Snapchats onlineplattformar, samt den metodik som används för att bedöma dessa risker och de begränsningsåtgärder som införts för att hantera riskerna.
DSA:s rapport om risk- och riskbegränsningsbedömning | Snapchat | Augusti 2023 (PDF)
Dessa rapporter har förberetts för att uppfylla Snaps skyldigheter enligt artikel 37 i förordning (EU) 2022/2065 och tillhandahåller: (i) resultaten från den oberoende granskningen av Snaps efterlevnad av de skyldigheter som anges i kapitel III i förordning (EU) 2022/2065 och (ii) de åtgärder som vidtagits för att genomföra de konkreta rekommendationerna från den oberoende revisionen.
DSA:s oberoende revisionsrapport | Snapchat | Augusti 2024 (PDF)
DSA:s rapport om revisionsgenomförande | Snapchat | September 2024 (PDF)
EU VSP-uppförandekod
Snap är en leverantör av "videodelningsplattformstjänst"("VSP") i enlighet med artikel 1(1)(aa) AVMSD. Denna uppförandekod (“kod“) har förberetts för att beskriva hur Snap uppfyller sina skyldigheter som en VSP enligt den nederländska medielagen (“DMA”) och direktiv (EU) 2010/13 (som ändrats genom direktiv (EU) 2018/1808 (“Audiovisual Media Services Directive” eller ”AVMSD”)). Koden är tillämplig i hela Europeiska unionen samt i det Europeiska ekonomiska samarbetsområdet.