25 april 2024
29 augusti 2024
Välkommen till vår insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD), Dutch Media Act (DMA) och Terrorist Content Online Regulation (TCO). Observera att den mest uppdaterade versionen av dessa insynsrapporter finns på amerikansk engelska (en-US).
Snap Group Limited har utsett Snap B.V. som sitt juridiska ombud för DSA:s ändamål. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, på tco-enquiries [at] snapchat.com för TCO, genom vår supportsida [here], eller på:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna
Brottsbekämpande myndigheter kan följa stegen som beskrivs här.
Kommunicera på engelska eller nederländska när du kontaktar oss.
För DSA, regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM). För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM). För TCO regleras vi av den nederländska myndigheten för förebyggande av terrorisminnehåll online och material innehållande sexuella övergrepp mot barn (ATKM).
Snap är skyldiga enligt artiklarna 15, 24 och 42 i DSA att publicera rapporter som innehåller föreskriven information om Snaps innehållsmoderering för Snapchats tjänster som anses vara "online-plattformar", dvs. Spotlight, För dig, Offentliga profiler, Kartor, Linser och Annonsering. Denna rapport måste offentliggöras var sjätte månad, från och med 25 oktober 2023.
Snap publicerar insynsrapporter två gånger om året för att ge insikt i Snaps säkerhetsåtgärder och arten och volymen av innehåll som rapporteras på vår plattform. Vår senaste rapport för H2 2023 (1 juli - 31 december) finns här (med uppdateringar av våra genomsnittliga aktiva mottagare per månad från och med 1 augusti 2024 - se längst ner på denna sida). Mätvärden som är specifika för lagen om digitala tjänster finns på denna sida.
Sedan 31 december 2023 har vi i genomsnitt 90,9 miljoner aktiva användare per månad ("AMAR") av vår Snapchat-app i EU. Detta innebär att i genomsnitt 90,9 miljoner registrerade användare i EU under de sex senaste månaderna har öppnat Snapchat-appen minst en gång under en given månad.
Denna siffra fördelas per medlemsstat enligt följande:
Dessa siffror beräknades för att uppfylla nuvarande DSA-regler och bör endast förlitas på för DSA-ändamål. Vi har ändrat hur vi beräknar denna siffra över tid, inklusive som svar på ändrade interna policyer, vägledning och teknik för tillsynsmyndigheter, och siffror är inte avsedda att jämföras mellan perioder. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.
Förfrågningar om borttagning
Under denna period har vi tagit emot 0 förfrågningar om borttagning från EU:s medlemsstater i enlighet med DSA artikel 9.
Informationsförfrågningar
Under denna period har vi tagit emot följande informationsförfrågningar från EU:s medlemsstater:
Mediantiden för att informera myndigheter om mottagande av informationsförfrågningar är 0 minuter – vi tillhandahåller ett automatiserat svar som bekräftar mottagandet. Mediantiden för att svara på informationsförfrågningar är ~10 dagar. Detta mätvärde återspeglar tidsperioden från när Snap tar emot en IR till när Snap anser att begäran är helt löst. I vissa fall beror längden på denna process delvis på den hastighet med vilken brottsbekämpande myndigheter svarar på alla förfrågningar om förtydligande från Snap som krävs för att behandla deras begäran.
Allt innehåll på Snapchat måste följa våra Community-riktlinjer och Användarvillkor, samt stödjande villkor, riktlinjer och förklaringar. Proaktiva upptäcktsmekanismer och rapporter om olagligt eller kränkande innehåll eller konton föranleder en granskning, och våra verktygssystem behandlar då begäran, samlar in relevanta metadata och dirigerar det relevanta innehållet till vårt modereringsteam via ett strukturerat användargränssnitt som är utformat för att underlätta en effektiv och ändamålsenlig granskning. När våra modereringsteam fastställer, antingen genom mänsklig granskning eller automatiserade medel, att en användare har brutit mot våra Villkor, kan vi ta bort det stötande innehållet eller kontot, avsluta eller begränsa det relevanta kontots synlighet och/eller meddela brottsbekämpande myndigheter enligt vår förklaring om moderering, tillämpning och överklaganden på Snapchat. Användare vars konton är låsta av vårt säkerhetsteam för överträdelser av Community-riktlinjer kan skicka in ett låst kontoöverklagande och användare kan överklaga vissa åtgärder för innehåll.
Innehålls- och kontomeddelanden (DSA artikel 15.1(b))
Snap har infört mekanismer för att tillåta användare och icke-användare att meddela Snap om innehåll och konton som bryter mot våra Community-riktlinjer och Användarvillkor på plattformen, inklusive de som de anser vara olagliga i enlighet med DSA artikel 16. Dessa rapporteringsmekanismer är tillgängliga i själva appen (dvs. direkt från innehållet) och på vår webbplats.
Under den relevanta perioden tog vi emot följande innehålls- och kontomeddelanden i EU:
I H2’23 hanterade vi 664 896 meddelanden enbart via automatiserade medel. Alla dessa verkställdes mot våra Community-riktlinjer eftersom våra Community-riktlinjer kapslar in olagligt innehåll.
Utöver användargenererat innehåll och konton modererar vi annonsering om de bryter mot våra plattformspolicyer. Nedan finns det totala antalet annonser som rapporterades och togs bort i EU.
Meddelanden om betrodda flaggare (artikel 15.1(b))
För perioden för vår senaste insynsrapport (H2 2023) förekom det inga formellt utsedda betrodda flaggare enligt DSA. Som resultat var antalet meddelanden som skickades in av sådana betrodda flaggare noll (0) under denna period.
Proaktivt innehållsmoderering (artikel 15.1(c))
Under den relevanta perioden tillämpade Snap följande innehåll och konton i EU efter att ha engagerat innehållsmoderering på eget initiativ:
Alla Snaps egna initiativ för moderering utnyttjade människor eller automatisering. På våra offentliga innehållsytor går innehåll i allmänhet genom både automatisk moderering och mänsklig granskning innan det är berättigat för distribution till en bred publik. När det gäller automatiserade verktyg inkluderar dessa:
Proaktiv detektering av olagligt och kränkande innehåll med hjälp av maskininlärning;
Hash-matchningsverktyg (till exempel PhotoDNA och Googles CSAI Match);
Missbrukande språkdetektering för att avvisa innehåll baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord, inklusive emojis
Överklaganden (artikel 15.1(d))
Under den relevanta perioden behandlade Snap följande innehålls- och kontoöverklaganden i EU via sina interna klagomålshanteringssystem:
* Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende. Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär. Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring. Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.
Automatiserade medel för innehållsmoderering (Artikel 15.1(e))
På våra offentliga innehållsytor går innehåll i allmänhet genom både automatisk moderering och mänsklig granskning innan det är berättigat för distribution till en bred publik. När det gäller automatiserade verktyg inkluderar dessa:
Proaktiv detektering av olagligt och kränkande innehåll med hjälp av maskininlärning;
Hash-matchningsverktyg (som PhotoDNA och Googles CSAI Match);
Missbrukande språkdetektering för att avvisa innehåll baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord, inklusive emojis.
Noggrannheten i automatiserade modereringstekniker för allt skadligt beteende var cirka 96,61 % och felfrekvensen var cirka 3,39 %.
Vi inser att det finns risker i samband med innehållsmoderering, inklusive risker för yttrandefrihet och mötesfrihet som kan orsakas av automatiserade och mänskliga moderatorers partiskhet och kränkande rapporter, inklusive av regeringar, politiska kongresser eller välorganiserade individer. Snapchat är i allmänhet inte en plats för politiskt eller aktivistiskt innehåll, särskilt i våra offentliga utrymmen.
För att skydda mot dessa risker har Snap testning och utbildning på plats och har robusta, konsekventa rutiner för att hantera rapporter om olagligt eller kränkande innehåll, inklusive från brottsbekämpande och statliga myndigheter. Vi utvärderar och utvecklar kontinuerligt våra algoritmer för innehållsmoderering. Även om potentiell skada på yttrandefriheten är svår att upptäcka, är vi inte medvetna om några betydande problem och vi tillhandahåller möjligheter för våra användare att rapportera misstag om de uppstår.
Våra policyer och system främjar konsekvent och rättvis tillämpning och, som beskrivs ovan, ger Snapchattare möjlighet att meningsfullt tvista om åtgärder genom meddelande- och överklagandeprocesser som syftar till att skydda vårt communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.
Vi strävar ständigt efter att förbättra våra policyer och processer för åtgärder och har gjort stora framsteg i att bekämpa potentiellt skadligt och olagligt innehåll och aktiviteter på Snapchat. Detta återspeglas i en uppåtgående trend i våra rapporterings- och åtgärdssiffror som visas i vår senaste Insynsrapport och sjunkande prevalensnivåer för överträdelser på Snapchat totalt.
För perioden för vår senaste Insynsrapport (H2 2023) förekom det inga formellt utsedda utomrättsliga tvistlösningsorgan enligt DSA. Som ett resultat av detta var antalet tvister som skickades in till sådana organ noll (0) under denna period, och vi kan inte tillhandahålla resultat, medianhandläggningstider för förlikningar och andelen tvister där vi implementerade organets beslut.
Under H2 2023 hade vi inte några kontoavstängningar som infördes i enlighet med Artikel 23. Snaps förtroende- och säkerhetsteam har rutiner på plats för att begränsa möjligheten att användarkonton frekvent skickar in meddelanden eller klagomål som är uppenbart ogrundade. Dessa procedurer inkluderar begränsning av duplicerat skapande av rapporter och användning av e-postfilter för att förhindra användare som frekvent har skickat in uppenbart ogrundade rapporter från att fortsätta att göra det. Snap vidtar dock lämpliga tillämpningsåtgärder mot konton enligt vår förklarare för Snapchat-moderering, verkställighet och överklaganden, och information gällande nivån på Snaps kontoåtgärder finns i vår Insynsrapport (H2 2023). Sådana åtgärder kommer att fortsätta att granskas och upprepas.
Vårt innehållsmodereringsteam arbetar över hela världen, vilket gör det möjligt för oss att hjälpa till att hålla Snapchattare säkra 24/7. Nedan hittar du uppdelningen av våra personalmodereringsresurser efter moderatorers språkspecialiteter (observera att vissa moderatorer är specialiserade på flera språk) från och med 31 december 2023:
Tabellen ovan inkluderar alla moderatorer som stöder språken för EU:s medlemsstater från och med 31 december 2023. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.
Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehåller ett språkkrav (beroende på behovet). Språkkravet anger att kandidaten ska kunna visa sig vara flytande i språket skriftligt och muntligt, samt ha minst ett års arbetslivserfarenhet för positioner på grundnivå. Kandidater måste uppfylla kraven för utbildning och bakgrund för att tas under övervägande. Kandidater måste också visa förståelse för aktuella händelser i det land eller den region för innehållsmoderering som de kommer att stödja.
Vårt modereringsteam tillämpar våra policyer och åtgärder för att skydda vår Snapchat-community. Träning genomförs under en flerveckorsperiod, där nya teammedlemmar utbildas om Snaps policyer, verktyg och eskaleringsprocedurer. Efter träningen måste varje moderator genomgå ett certifieringsprov innan de får granska innehållet. Vårt modereringsteam deltar regelbundet i uppdateringsträning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall som rör policygränser eller är kontextberoende. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps riktlinjer.
Vi tillhandahåller vårt innehållsmodereringsteam – Snaps "digitala första insatsteam" – med betydande support och resurser, inklusive hälsostöd på jobbet och enkel tillgång till tjänster för psykisk hälsa.
Bakgrund
Sexuellt utnyttjande av någon medlem av vårt community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.
Vi använder PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.
Rapportera
Nedanstående data är baserade på resultatet av proaktiv skanning med PhotoDNA och/eller CSAI Match av medier som laddas upp av en användares kamerarulle till Snapchat.
Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende. Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär. Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring. Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.
Skyddsåtgärder för innehållsmoderering
De skyddsåtgärder som tillämpas för CSEA-mediaskanning anges i ovanstående avsnitt "Innehållsmodereringsskyddsåtgärder" under vår DSA-rapport.
Publicerad: 17 juni 2024
Senast uppdaterad: 17 juni 2024
Denna insynsrapport offentliggörs i enlighet med artiklarna 7(2) och 7(3) i förordningen 2021/784 från Europaparlamentet och Europarådet, som behandlar spridning av terroristinnehåll online (förordningen). Den täcker rapporteringsperioden 1 januari – 31 december 2023.
Artikel 7(3)(a): information om värdtjänsteleverantörens åtgärder i samband med identifiering och avlägsnande av eller avaktivering av tillgång till terroristinnehåll
Artikel 7(3)(b): information om värdtjänsteleverantörens åtgärder för att hantera återkomsten av material online som tidigare har tagits bort eller där tillgång har avaktiverats eftersom det ansågs vara terroristinnehåll, i synnerhet där automatiserade verktyg har använts
Terrorister, terroristorganisationer och våldsamma extremister är förbjudna att använda Snapchat Innehåll som förespråkar, stödjer förhärligar eller främjar terrorism eller andra våldsamma, kriminella handlingar är förbjudna enligt våra Community-riktlinjer. Användare kan rapportera innehåll som bryter mot våra Community-riktlinjer via vår rapporteringsmeny i appen och vår supportsida. Vi använder också proaktiv detektering för att försöka identifiera kränkande innehåll på offentliga ytor som Spotlight och Upptäck.
Oavsett hur vi får kännedom om innehåll som bryter mot reglerna så granskar våra förtroende- och säkerhetsteam omedelbart identifierat innehåll, genom en kombination av automatisering och mänsklig moderering, och fattar verkställande beslut. Åtgärder kan inkludera att ta bort innehållet, varna eller låsa det kränkande kontot och, om det är motiverat, rapportera kontot till brottsbekämpande myndigheter. För att förhindra återkomst av terroristinnehåll eller annat våldsamt extremistiskt innehåll på Snapchat vidtar vi, utöver att samarbeta med brottsbekämpande myndigheter, åtgärder för att blockera enheten som är associerad med det regelbrytande kontot och förhindra användaren från att skapa ett nytt Snapchat-konto.
Ytterligare information om våra åtgärder för att identifiera och ta bort terroristinnehåll finns i vår Förklaring om hatfullt innehåll, terrorism och våldsam extremism samt i vår Förklaring om moderering, verkställande och överklaganden.
Artikel 7(3)(c): antalet poster av terroristinnehåll som avlägsnats eller till vilket åtkomst har avaktiverats efter tillsägelser om avlägsnande eller specifika åtgärder, samt antalet tillsägelser om avlägsnande där innehållet inte har tagits bort eller till vilket tillgång inte har avaktiverats i enlighet med den första underparagrafen i artikel 3(7) samt den första underparagrafen i artikel 3(8), tillsammans med grunderna för detta
Under rapporteringsperioden tog Snap inte emot några tillsägelser om borttagning, inte heller krävdes att vi skulle genomföra några specifika åtgärder i enlighet med artikel 5 i förordningen. Därför krävdes det inte att vi skulle vidta verkställande åtgärder enligt förordningen.
Följande tabell beskriver verkställande åtgärder som vidtagits baserat på användarrapporter och proaktiv detektering av innehåll och konton, både inom EU och på andra ställen i världen, som brutit mot våra Community-riktlinjer rörande terrorism och våldsamt extremistinnehåll
Artikel 7(3)(d): antalet och resultatet av klagomål som hanterats av värdtjänsteleverantören i enlighet med artikel 10
Artikel 7(3)(g): antalet fall där värdtjänsteleverantören återinförde innehåll eller tillgång till innehållet efter ett klagomål från innehållsleverantören
Eftersom vi inte hade några verkställande åtgärder som krävdes enligt förordningen under rapporteringsperioden som anges ovan, hanterade vi inga klagomål i enlighet med artikel 10 i förordningen och hade inga återinföranden i samband med detta.
Följande tabell innehåller information om överklaganden och återinföranden som verkställts enligt våra Community-riktlinjer., både inom EU och på andra platser i världen, som involverar terroristinnehåll och våldsamt extremistiskt innehåll.
Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende. Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär. Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring. Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.
Skyddsåtgärder för innehållsmoderering
De skyddsåtgärder som tillämpas för CSEA-mediaskanning anges i ovanstående avsnitt "Innehållsmodereringsskyddsåtgärder" under vår DSA-rapport.
Per den 1:a augusti 2023 har vi i genomsnitt 92,4 miljoner månatligen aktiva mottagare ("AMAR") av vår Snapchat-app i EU. Detta innebär att i genomsnitt 92,4 miljoner registrerade användare i EU under de sex senaste månaderna har öppnat Snapchat-appen minst en gång under en given månad.
Denna siffra fördelas per medlemsstat enligt följande: