Välkommen till vår insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt EU Digital Services Act (DSA), direktivet för audiovisuella medietjänster (AVMSD) och den nederländska medielagen (DMA).
Sedan 1 augusti 2023 har vi i genomsnitt 102 miljoner aktiva användare per månad ("AMAR") av vår Snapchat-app i EU. Detta innebär att i genomsnitt 102 miljoner registrerade användare i EU under de sex senaste månaderna har öppnat Snapchat-appen minst en gång under en given månad.
Denna siffra fördelas per medlemsstat enligt följande:
Dessa siffror beräknades för att uppfylla nuvarande DSA-regler och bör endast förlitas på för DSA-ändamål. Vi kan ändra hur vi beräknar denna siffra över tid, inklusive som svar på ändrade riktlinjer och teknik för regulatorer. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.
Snap Group Limited har utsett Snap B.V. till sitt juridiska ombud. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, genom vår supportsida [här], eller på:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna
Brottsbekämpande myndigheter kan följa stegen som beskrivs här.
För DSA regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM).
För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM).
Snap är skyldiga enligt artiklarna 15, 24 och 42 i DSA att publicera rapporter som innehåller föreskriven information om Snaps innehållsmoderering för Snapchats tjänster som anses vara "online-plattformar", dvs. Spotlight, För dig, Offentliga profiler, Kartor, Linser och Annonsering. Denna rapport måste offentliggöras var sjätte månad, från och med 25 oktober 2023.
Snap publicerar insynsrapporter två gånger om året för att ge insikt i Snaps säkerhetsåtgärder och arten och volymen av innehåll som rapporteras på vår plattform. Vår senaste rapport för H1 2023 (1 januari - 30 juni) finns här. Den rapporten innehåller följande information:
Myndighetsbesluten, som inkluderar förfrågningar om borttagning av information och innehåll;
Innehållsöverträdelser, vilket inkluderar åtgärder som vidtagits i samband med olagligt innehåll och median svarstid;
Överklaganden, som tas emot och hanteras genom vår interna process för klagomålshantering.
Dessa avsnitt är relevanta för den information som krävs enligt artikel 15.1(a), (b) och (d) i DSA. Observera att de ännu inte innehåller en fullständig data-uppsättning eftersom den senaste rapporten täcker H1 2023, som föregår DSA:s ikraftträdande.
Vi tillhandahåller nedan lite ytterligare information om aspekter som inte omfattas av vår insynsrapport för H1 2023:
Innehållsmoderering (artikel 15.1(c) och (e), artikel 42.2)
Allt innehåll på Snapchat måste följa våra Community-riktlinjer och Användarvillkor, samt stödjande villkor, riktlinjer och förklaringar. Proaktiva upptäcktsmekanismer och rapporter om olagligt eller kränkande innehåll eller konton föranleder en granskning, och våra verktygssystem behandlar då begäran, samlar in relevanta metadata och dirigerar det relevanta innehållet till vårt modereringsteam via ett strukturerat användargränssnitt som är utformat för att underlätta en effektiv och ändamålsenlig granskning. När våra modereringsteam fastställer, antingen genom mänsklig granskning eller automatiserade medel, att en användare har brutit mot våra Villkor, kan vi ta bort det stötande innehållet eller kontot, avsluta eller begränsa det relevanta kontots synlighet och/eller meddela brottsbekämpande myndigheter enligt vår förklaring om moderering, tillämpning och överklaganden på Snapchat. Användare vars konton är låsta av vårt säkerhetsteam för överträdelser av Community-riktlinjer kan skicka in ett låst kontoöverklagande och användare kan överklaga vissa åtgärder för innehåll.
Verktyg för automatiserad innehållsmoderering
På våra offentliga innehållsytor går innehåll i allmänhet genom både automatisk moderering och mänsklig granskning innan det är berättigat för distribution till en bred publik. När det gäller automatiserade verktyg inkluderar dessa:
Proaktiv detektering av olagligt och kränkande innehåll med hjälp av maskininlärning;
Hash-matchningsverktyg (som PhotoDNA och Googles CSAI Match);
Missbrukande språkdetektering för att avvisa innehåll baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord, inklusive emojis.
För perioden för vår senaste insynsrapport (H1 2023) förekom det inget krav på att samla formella indikatorer/felfrekvenser för dessa automatiserade system. Vi övervakar dock regelbundet dessa system för problem och våra mänskliga modereringsbeslut är regelbundet utformade för att vara korrekta.
Mänsklig moderering
Vårt innehållsmodereringsteam arbetar över hela världen, vilket gör det möjligt för oss att hjälpa till att hålla Snapchattare säkra 24/7. Nedan hittar du uppdelningen av våra personalmodereringsresurser efter moderatorers språkspecialiteter (observera att vissa moderatorer är specialiserade på flera språk) från och med augusti 2023:
Siffrorna ovan varierar ofta eftersom vi ser inkommande volymtrender eller bidrag efter språk/land. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.
Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehåller ett språkkrav (beroende på behovet). Språkkravet anger att kandidaten ska kunna visa sig vara flytande i språket skriftligt och muntligt, samt ha minst ett års arbetslivserfarenhet för positioner på grundnivå. Kandidater måste också uppfylla utbildnings- och bakgrundskraven för att kunna övervägas. Kandidater måste också visa förståelse för aktuella händelser i det land eller den region för innehållsmoderering som de kommer att stödja.
Vårt modereringsteam tillämpar våra policyer och åtgärder för att skydda vår Snapchat-community. Träning genomförs under en flerveckorsperiod, där nya teammedlemmar utbildas om Snaps policyer, verktyg och eskaleringsprocedurer. Efter träningen måste varje moderator genomgå ett certifieringsprov innan de får granska innehållet. Vårt modereringsteam deltar regelbundet i uppdateringsträning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall som rör policygränser eller är kontextberoende. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps policyer.
Vi tillhandahåller vårt innehållsmodereringsteam – Snaps "digitala första insatsteam" – med betydande support och resurser, inklusive hälsostöd på jobbet och enkel tillgång till tjänster för psykisk hälsa.
Skyddsåtgärder för innehållsmoderering
Vi inser att det finns risker i samband med innehållsmoderering, inklusive risker för yttrandefrihet och mötesfrihet som kan orsakas av automatiserade och mänskliga moderatorers partiskhet och kränkande rapporter, inklusive av regeringar, politiska kongresser eller välorganiserade individer. Snapchat är i allmänhet inte en plats för politiskt eller aktivistiskt innehåll, särskilt i våra offentliga utrymmen.
För att skydda mot dessa risker har Snap testning och utbildning på plats och har robusta, konsekventa rutiner för att hantera rapporter om olagligt eller kränkande innehåll, inklusive från brottsbekämpande och statliga myndigheter. Vi utvärderar och utvecklar kontinuerligt våra algoritmer för innehållsmoderering. Även om potentiell skada på yttrandefriheten är svår att upptäcka, är vi inte medvetna om några betydande problem och vi tillhandahåller möjligheter för våra användare att rapportera misstag om de uppstår.
Våra policyer och system främjar konsekvent och rättvis tillämpning och, som beskrivs ovan, ger Snapchattare möjlighet att meningsfullt tvista om atgärder genom meddelande- och överklagandeprocesser som syftar till att skydda vårt communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.
Vi strävar ständigt efter att förbättra våra policyer och processer för åtgärder och har gjort stora framsteg i att bekämpa potentiellt skadligt och olagligt innehåll och aktiviteter på Snapchat. Detta återspeglas i en uppåtgående trend i våra rapporterings- och åtgärdssiffror som visas i vår senaste insynsrapport och sjunkande prevalensnivåer för överträdelser på Snapchat totalt.
Meddelanden om betrodda flaggare (artikel 15.1(b))
För perioden för vår senaste insynsrapport (H1 2023) förekom det inga formellt utsedda betrodda flaggare enligt DSA. Som resultat var antalet meddelanden som skickades in av sådana betrodda flaggare noll (0) under denna period.
Tvister utanför domstol (artikel 24.1(a))
För perioden för vår senaste insynsrapport (H1 2023) förekom det inga formellt utsedda tvistlösningsorgan utanför domstol enligt DSA. Som resultat var antalet tvister som skickades in till sådana organ noll (0) under denna period.
Avstängningar av konto i enlighet med artikel 23 (artikel 24.1(b))
För perioden för vår senaste insynsrapport (H1 2023) förekom det inget krav på att stänga av konton i enlighet med artikel 23 i DSA för tillhandahållande av uppenbart olagligt innehåll, ogrundade meddelanden eller ogrundade klagomål. Som resultat var antalet sådana upphävanden noll (0). Snap vidtar dock lämpliga tillämpningsåtgärder mot konton enligt vår förklaring om moderering, tillämpning och överklaganden på Snapchat, och information gällande nivån på Snaps kontoåtgärder finns i vår insynsrapport (H1 2023).