Insynsrapport
1 januari 2023 – 30 juni 2023

Publicerad:

25 oktober 2023

Uppdaterad:

13 december 2023

För att ge insyn i Snaps säkerhetsinsatser och den typ och volym av innehåll som rapporteras på vår plattform publicerar vi insynsrapporter två gånger om året. Vi är fast beslutna att fortsätta att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig om vår innehållsmoderering och våra metoder för brottsbekämpning, samt vår communitys välbefinnande.

Denna insynsrapport täcker första halvåret 2023 (1 januari - 30 juni). Precis som med våra tidigare rapporter delar vi med oss av statistik för det globala antalet anmälningar av innehåll och konton som vi har mottagit i appen och vidtagit åtgärder mot, uppdelat i specifika kategorier av överträdelser; hur vi svarat på förfrågningar från brottsbekämpande myndigheter och regeringar; samt våra vidtagna åtgärder uppdelade per land.

Som en del av vårt pågående åtagande att ständigt förbättra våra insynsrapporter introducerar vi några nya element i den här versionen. Vi har lagt till ytterligare datapunkter kring våra annonseringsmetoder och moderering, samt innehåll och kontoöverklaganden. I linje med EU:s Digital Services Act har vi också lagt till ny kontextuell information om vår verksamhet i EU:s medlemsstater, till exempel antalet innehållsmoderatorer och månatliga aktiva användare (MAU) i regionen. Mycket av denna information finns i hela rapporten och på vårt Transparency Centers särskilda sida om Europeiska unionen.

Slutligen har vi uppdaterat vår ordlista med länkar till förklaringar för våra Community-riktlinjer, som ger ytterligare sammanhang kring vår plattformspolicy och våra operativa insatser.

För mer information om våra policys för att bekämpa skada på nätet och planer att fortsätta utveckla våra rapporteringsprinciper, läs vår senaste blogg om säkerhet och konsekvenser angående denna insynsrapport. 

För att hitta ytterligare resurser för säkerhet och integritet på Snapchat se vår flik Om insynsrapportering längst ner på sidan.

Observera att den mest uppdaterade versionen av denna insynsrapport finns på amerikansk engelska (en-US).

Översikt över innehåll och kontobeträdelser

Från 1 januari till 30 juni 2023 vidtog Snap åtgärder mot 6 216 118 delar av innehåll globalt som brutit mot våra policyer.

Under rapporteringsperioden såg vi en visningsfrekvens för överträdelser (VVR) på 0,02 procent, vilket innebär att för varje 10 000 visningar av Snappar och Stories på Snapchat så hade 2 innehåll som bröt mot våra riktlinjer.

*Korrekta och konsekventa åtgärder mot falsk information är en dynamisk process som kräver aktuell kontext och hårt arbete. Då vi strävar mot att kontinuerligt förbättra precisionen i våra ombuds åtgärder i denna kategori har vi, sedan H1 2022, valt att anmäla värden i kategorierna "Innehåll åtgärdat" och "Unika konton åtgärdade" som beräknats baserat på en rigorös kvalitetssäkringskontroll av en statistiskt signifikant del av åtgärder mot falsk information. Vi går igenom en statistiskt signifikant del av åtgärderna mot falsk information i varje land och kvalitetskontrollerar åtgärdsbesluten. Vi använder sedan dessa kvalitetskontrollerade åtgärder för att härleda åtgärdsgrader med ett konfidensintervall på 95 % (+/- 5 % felmarginal), som vi använder för att beräkna de åtgärder mot falsk information som redovisas i insynsrapporten.

Analys av innehålls- och kontoöverträdelser

Våra övergripande rapporterings- och åtgärdsnivåer var ganska lika de tidigare sex månaderna, med några få undantag i nyckelkategorier. Vi såg en ungefärlig sammanlagd minskning på 3 % för innehålls- och kontorapporter samt åtgärder denna cykel.

De kategorier som hade de mest anmärkningsvärda förändringarna var Trakasserier och Mobbning, Skräppost, Vapen samt Falsk information. Trakasserier och Mobbning såg en ökning med ~56 % av det totala antalet rapporter och en efterföljande ökning med ~39 % av unika åtgärder för innehåll och konton. Dessa ökningar i åtgärder kopplades med en minskning på ~46 % i handläggningstid, vilket belyser den operativa effektivitet som vårt team har uppnått för att vidta åtgärder mot denna typ av regelöverträdande innehåll. På samma sätt såg vi en ökning med ~65 % av det totala antalet rapporter för Skräppost, med en ökning med ~110 % i åtgärder av innehåll och en ökning med ~80 % av antalet unika konton som åtgärdades, samtidigt som våra team också minskade handläggningstiden med ~80 %. Vår Vapenkategori såg en minskning med ~13 % i det totala antalet rapporter, och en minskning med ~51 % av åtgärder av innehåll och en minskning med ~53 % av antalet unika konton som åtgärdades. Slutligen såg vår kategori Falsk information en ökning med ~14 % av det totala antalet rapporter, men en minskning med ~78 % av åtgärder av innehåll och en minskning med ~74 % av antalet unika konton som åtgärdades. Detta kan hänföras till den fortsatta kvalitetssäkringsprocessen (QA), och resurserna som vi tillämpar på rapporter om falsk information, för att säkerställa att våra modereringsteam fångar upp och vidtar åtgärder för falsk information på plattformen.

Även om vi generellt såg liknande siffror som under den senaste perioden, anser vi att det är viktigt att fortsätta att förbättra de verktyg vår community använder för att aktivt och korrekt rapportera potentiella överträdelser när de visas på plattformen.

Kampen mot sexuellt utnyttjande och övergrepp mot barn

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, motbjudande och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEAI) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.

Vi använder aktiva verktyg, såsom PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.

Under första halvåret av 2023 upptäckte vi och vidtog åtgärder mot 98 procent av de totala sexuella övergrepp mot barn som rapporterats här – en ökning med 4 procent sedan den tidigare perioden.

**Observera att varje anmälning till NCMEC kan innehålla flera innehåll. De totala antalet innehåll som anmälts till NCMEC är lika med det totala antalet innehåll som föranlett åtgärd.

Terrorism och våldsamt extremistiskt innehåll.

Under rapporteringsperioden 1 januari 2023 – 30 juni 2023 tog vi bort 18 konton för överträdelser av vår policy som förbjuder terrorism och våldsamt extremistiskt innehåll.

På Snap tar vi bort innehåll som förespråkar terrorism och våldsam extremism som rapporteras via flera kanaler. Vi uppmuntrar användare att rapportera innehåll som förespråkar terrorism och extremistiskt våld via vår meny för rapportering i appen och vi har ett nära samarbete med brottsbekämpande myndigheter för att bemöta det innehåll som förespråkar terrorism och extremistiskt våld som kan dyka upp på Snap.

Självskadebeteende och självmord

Vi är mycket måna om Snapchattares psykiska hälsa och välbefinnande, vilket har legat till grund för - och fortsätter att ligga till grund för - våra beslut att bygga Snapchat annorlunda. Som en plattform som är utformad för kommunikation mellan riktiga vänner anser vi att Snapchat kan spela en unik roll för att ge vänner möjlighet att hjälpa varandra genom svåra stunder.

När vårt team för förtroende och säkerhet upptäcker en Snapchattare i nöd har de möjlighet att vidarebefordra resurser för förebyggande av självskadebeteende och stöd, samt att meddela räddningspersonal om nödsituationer där det är lämpligt. De resurser vi delar ut är tillgängliga på vår globala lista över säkerhetsresurser, och dessa är offentligt tillgängliga för alla Snapchattare.

Överklaganden

Från och med denna rapport börjar vi rapportera om antalet överklaganden från användare vars konton var låsta för brott mot våra policyer. Vi återställer endast konton som våra moderatorer anser blivit felaktigt låsta. Under denna period rapporterar vi om överklaganden som rör drogrelaterat innehåll. I vår nästa rapport ser vi fram emot att offentliggöra mer data om överklaganden som härrör från andra överträdelser av våra policyer.

Annonsmoderering

Snap är fast beslutet att säkerställa att alla annonser är helt kompatibla med våra plattformspolicyer. Vi tror på ett ansvarsfullt och respektfullt sätt att annonsera för att skapa en säker och trevlig upplevelse för alla våra användare. Nedan har vi inkluderat insikt i vår annonsmoderering. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du nu hitta Snapchats annonsgalleri i navigeringsfältet i denna insynsrapport. 

Översikt, länder

Detta avsnitt ger en översikt över verkställigheten av våra Community-riktlinjer i ett urval av geografiska regioner. Våra riktlinjer gäller för allt innehåll på Snapchat (och alla Snapchattare) över hela världen, oavsett plats.

Information för enskilda länder är tillgänglig för nedladdning via bifogad CSV-fil:

Regeringsförfrågningar och meddelanden om att ta bort upphovsrättsskyddat material

Om insynsrapportering

Ordlista för insynsrapportering