Europeiska unionen
1 juli 2023 – 31 december 2023

Publicerad:

25 april 2024

Uppdaterad:

25 april 2024

Välkommen till vår insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt EU Digital Services Act (DSA), direktivet för audiovisuella medietjänster (AVMSD) och den nederländska medielagen (DMA). Observera att den mest uppdaterade versionen av dessa insynsrapporter finns på amerikansk engelska (en-US).

Juridiskt ombud 

Snap Group Limited har utsett Snap B.V. som sitt juridiska ombud för DSA:s ändamål. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, genom vår supportsida [här], eller på:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna

Brottsbekämpande myndigheter kan följa stegen som beskrivs här.

Tillsynsmyndigheter

För DSA, regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM). För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM)

DSA:s insynsrapport

Snap är skyldiga enligt artiklarna 15, 24 och 42 i DSA att publicera rapporter som innehåller föreskriven information om Snaps innehållsmoderering för Snapchats tjänster som anses vara "online-plattformar", dvs. Spotlight, För dig, Offentliga profiler, Kartor, Linser och Annonsering. Denna rapport måste offentliggöras var sjätte månad, från och med 25 oktober 2023.

Snap publicerar insynsrapporter två gånger om året för att ge insikt i Snaps säkerhetsåtgärder och arten och volymen av innehåll som rapporteras på vår plattform. Vår senaste rapport för H2 2023 (1 juli - 31 december) finns här. Mätvärden som är specifika för lagen om digitala tjänster finns på denna sida.

Genomsnittliga aktiva mottagare varje månad 
(DSA-artiklarna 24.2 och 42.3)

Sedan 31 december 2023 har vi i genomsnitt 90,9 miljoner aktiva användare per månad ("AMAR") av vår Snapchat-app i EU. Detta innebär att i genomsnitt 90,9 miljoner registrerade användare i EU under de sex senaste månaderna har öppnat Snapchat-appen minst en gång under en given månad.

Denna siffra fördelas per medlemsstat enligt följande:

Dessa siffror beräknades för att uppfylla nuvarande DSA-regler och bör endast förlitas på för DSA-ändamål. Vi har ändrat hur vi beräknar denna siffra över tid, inklusive som svar på ändrade interna policyer, vägledning och teknik för tillsynsmyndigheter, och siffror är inte avsedda att jämföras mellan perioder. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.


Medlemsstaternas myndighetsförfrågningar
(DSA artikel 15.1(a))

Förfrågningar om borttagning 

Under denna period har vi tagit emot 0 förfrågningar om borttagning från EU:s medlemsstater i enlighet med DSA artikel 9. 

Informationsförfrågningar 

Under denna period har vi tagit emot följande informationsförfrågningar från EU:s medlemsstater i enlighet med DSA artikel 10:

Mediantiden för att informera myndigheter om mottagande av informationsförfrågningar är 0 minuter – vi tillhandahåller ett automatiserat svar som bekräftar mottagandet. Mediantiden för att svara på informationsförfrågningar är ~10 dagar. Detta mätvärde återspeglar tidsperioden från när Snap tar emot en IR till när Snap anser att begäran är helt löst. I vissa fall beror längden på denna process delvis på den hastighet med vilken brottsbekämpande myndigheter svarar på alla förfrågningar om förtydligande från Snap som krävs för att behandla deras begäran.

Innehållsmoderering 


Allt innehåll på Snapchat måste följa våra Community-riktlinjer och Användarvillkor, samt stödjande villkor, riktlinjer och förklaringar. Proaktiva upptäcktsmekanismer och rapporter om olagligt eller kränkande innehåll eller konton föranleder en granskning, och våra verktygssystem behandlar då begäran, samlar in relevanta metadata och dirigerar det relevanta innehållet till vårt modereringsteam via ett strukturerat användargränssnitt som är utformat för att underlätta en effektiv och ändamålsenlig granskning. När våra modereringsteam fastställer, antingen genom mänsklig granskning eller automatiserade medel, att en användare har brutit mot våra Villkor, kan vi ta bort det stötande innehållet eller kontot, avsluta eller begränsa det relevanta kontots synlighet och/eller meddela brottsbekämpande myndigheter enligt vår förklaring om moderering, tillämpning och överklaganden på Snapchat.  Användare vars konton är låsta av vårt säkerhetsteam för överträdelser av Community-riktlinjer kan skicka in ett låst kontoöverklagande och användare kan överklaga vissa åtgärder för innehåll.

Innehålls- och kontomeddelanden (DSA artikel 15.1(b))

Snap har infört mekanismer för att tillåta användare och icke-användare att meddela Snap om innehåll och konton som bryter mot våra Community-riktlinjer och Användarvillkor på plattformen, inklusive de som de anser vara olagliga i enlighet med DSA artikel 16.  Dessa rapporteringsmekanismer är tillgängliga i själva appen (dvs. direkt från innehållet) och på vår webbplats.

Under den relevanta perioden tog vi emot följande innehålls- och kontomeddelanden i EU:

I H2’23 hanterade vi 664 896 meddelanden enbart via automatiserade medel. Alla dessa verkställdes mot våra Community-riktlinjer eftersom våra Community-riktlinjer kapslar in olagligt innehåll. 

Utöver användargenererat innehåll och konton modererar vi annonsering om de bryter mot våra plattformspolicyer. Nedan finns det totala antalet annonser som rapporterades och togs bort i EU. 

Meddelanden om betrodda flaggare (artikel 15.1(b))

För perioden för vår senaste insynsrapport (H2 2023) förekom det inga formellt utsedda betrodda flaggare enligt DSA. Som resultat var antalet meddelanden som skickades in av sådana betrodda flaggare noll (0) under denna period.

Proaktivt innehållsmoderering (artikel 15.1(c))

Under den relevanta perioden tillämpade Snap följande innehåll och konton i EU efter att ha engagerat innehållsmoderering på eget initiativ:

Alla Snaps egna initiativ för moderering utnyttjade människor eller automatisering. På våra offentliga innehållsytor går innehåll i allmänhet genom både automatisk moderering och mänsklig granskning innan det är berättigat för distribution till en bred publik. När det gäller automatiserade verktyg inkluderar dessa:

  • Proaktiv detektering av olagligt och kränkande innehåll med hjälp av maskininlärning;

  • Hash-matchningsverktyg (till exempel PhotoDNA och Googles CSAI Match);

  • Missbrukande språkdetektering för att avvisa innehåll baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord, inklusive emojis


Överklaganden (artikel 15.1(d))

Under den relevanta perioden behandlade Snap följande innehålls- och kontoöverklaganden i EU via sina interna klagomålshanteringssystem:


* Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende.  Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär.  Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring.  Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder. 

Automatiserade medel för innehållsmoderering (artikel 15.1(d))

På våra offentliga innehållsytor går innehåll i allmänhet genom både automatisk moderering och mänsklig granskning innan det är berättigat för distribution till en bred publik. När det gäller automatiserade verktyg inkluderar dessa:

  • Proaktiv detektering av olagligt och kränkande innehåll med hjälp av maskininlärning;

  • Hash-matchningsverktyg (som PhotoDNA och Googles CSAI Match);

  • Missbrukande språkdetektering för att avvisa innehåll baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord, inklusive emojis.


Noggrannheten i automatiserade modereringstekniker för allt skadligt beteende var cirka 96,61 % och felfrekvensen var cirka 3,39 %.


Skyddsåtgärder för innehållsmoderering (artiklarna 15.1(d))

Vi inser att det finns risker i samband med innehållsmoderering, inklusive risker för yttrandefrihet och mötesfrihet som kan orsakas av automatiserade och mänskliga moderatorers partiskhet och kränkande rapporter, inklusive av regeringar, politiska kongresser eller välorganiserade individer. Snapchat är i allmänhet inte en plats för politiskt eller aktivistiskt innehåll, särskilt i våra offentliga utrymmen. 


För att skydda mot dessa risker har Snap testning och utbildning på plats och har robusta, konsekventa rutiner för att hantera rapporter om olagligt eller kränkande innehåll, inklusive från brottsbekämpande och statliga myndigheter. Vi utvärderar och utvecklar kontinuerligt våra algoritmer för innehållsmoderering. Även om potentiell skada på yttrandefriheten är svår att upptäcka, är vi inte medvetna om några betydande problem och vi tillhandahåller möjligheter för våra användare att rapportera misstag om de uppstår. 


Våra policyer och system främjar konsekvent och rättvis tillämpning och, som beskrivs ovan, ger Snapchattare möjlighet att meningsfullt tvista om åtgärder genom meddelande- och överklagandeprocesser som syftar till att skydda vårt communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.

Vi strävar ständigt efter att förbättra våra policyer och processer för åtgärder och har gjort stora framsteg i att bekämpa potentiellt skadligt och olagligt innehåll och aktiviteter på Snapchat. Detta återspeglas i en uppåtgående trend i våra rapporterings- och åtgärdssiffror som visas i vår senaste Insynsrapport och sjunkande prevalensnivåer för överträdelser på Snapchat totalt.


Utomrättsliga förlikningar (Artikel 24.1(a))

För perioden för vår senaste Insynsrapport (H2 2023) förekom det inga formellt utsedda utomrättsliga tvistlösningsorgan enligt DSA. Som ett resultat av detta var antalet tvister som skickades in till sådana organ noll (0) under denna period, och vi kan inte tillhandahålla resultat, medianhandläggningstider för förlikningar och andelen tvister där vi implementerade organets beslut. 



Avstängda konton (Artikel 24.1(a))

Under H2 2023 hade vi inte några kontoavstängningar som infördes i enlighet med Artikel 23. Snaps förtroende- och säkerhetsteam har rutiner på plats för att begränsa möjligheten att användarkonton frekvent skickar in meddelanden eller klagomål som är uppenbart ogrundade. Dessa procedurer inkluderar begränsning av duplicerat skapande av rapporter och användning av e-postfilter för att förhindra användare som frekvent har skickat in uppenbart ogrundade rapporter från att fortsätta att göra det. Snap vidtar dock lämpliga tillämpningsåtgärder mot konton enligt vår förklarare för Snapchat-moderering, verkställighet och överklaganden, och information gällande nivån på Snaps kontoåtgärder finns i vår Insynsrapport (H2 2023). Sådana åtgärder kommer att fortsätta att granskas och upprepas.


Moderatorresurser, expertis och support (Artikel 42.2)

Vårt innehållsmodereringsteam arbetar över hela världen, vilket gör det möjligt för oss att hjälpa till att hålla Snapchattare säkra 24/7. Nedan hittar du uppdelningen av våra personalmodereringsresurser efter moderatorers språkspecialiteter (observera att vissa moderatorer är specialiserade på flera språk) från och med 31 december 2023:

Tabellen ovan inkluderar alla moderatorer som stöder språken för EU:s medlemsstater från och med 31 december 2023. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.

Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehåller ett språkkrav (beroende på behovet). Språkkravet anger att kandidaten ska kunna visa sig vara flytande i språket skriftligt och muntligt, samt ha minst ett års arbetslivserfarenhet för positioner på grundnivå. Kandidater måste uppfylla utbildnings- och bakgrundskraven för att kunna övervägas. Kandidater måste också visa förståelse för aktuella händelser i det land eller den region för innehållsmoderering som de kommer att stödja.

Vårt modereringsteam tillämpar våra policyer och åtgärder för att skydda vår Snapchat-community. Träning genomförs under en flerveckorsperiod, där nya teammedlemmar utbildas om Snaps policyer, verktyg och eskaleringsprocedurer. Efter träningen måste varje moderator genomgå ett certifieringsprov innan de får granska innehållet. Vårt modereringsteam deltar regelbundet i uppdateringsträning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall som rör policygränser eller är kontextberoende. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps policyer.

Vi tillhandahåller vårt innehållsmodereringsteam – Snaps "digitala första insatsteam" – med betydande support och resurser, inklusive hälsostöd på jobbet och enkel tillgång till tjänster för psykisk hälsa. 

Sexuellt utnyttjande och övergrepp mot barn (CSEA) mediaskanningsrapport


Bakgrund

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.


Vi använder PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.


Rapportera

Nedanstående data är baserade på resultatet av proaktiv skanning med PhotoDNA och/eller CSAI Match av medier som laddas upp av en användares kamerarulle till Snapchat.

Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende.  Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär.  Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring.  Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.  

Skyddsåtgärder för innehållsmoderering

De skyddsåtgärder som tillämpas för CSEA-mediaskanning anges i ovanstående avsnitt "Innehållsmodereringsskyddsåtgärder" under vår DSA-rapport.


Sexuellt utnyttjande och övergrepp mot barn (CSEA) mediaskanningsrapport


Bakgrund

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.


Vi använder PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.


Rapportera

Nedanstående data är baserade på resultatet av proaktiv skanning med PhotoDNA och/eller CSAI Match av medier som laddas upp av en användares kamerarulle till Snapchat.

Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende.  Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär.  Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring.  Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.  

Skyddsåtgärder för innehållsmoderering

De skyddsåtgärder som tillämpas för CSEA-mediaskanning anges i ovanstående avsnitt "Innehållsmodereringsskyddsåtgärder" under vår DSA-rapport.


Att stoppa sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser åt detta och har nolltolerans för sådant beteende.  Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär.  Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter, och vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och rigorös kvalitetssäkring.  Vi förväntar oss att nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.  

Skyddsåtgärder för innehållsmoderering

De skyddsåtgärder som tillämpas för CSEA-mediaskanning anges i ovanstående avsnitt "Innehållsmodereringsskyddsåtgärder" under vår DSA-rapport.