Privacy and Safety Hub

Vår insynsrapport för första halvåret 2022

29 november 2022

Idag släpper vi vår insynsrapport som täcker första halvåret 2022. 
För Snap är vår gemensamma säkerhet och välbefinnande i vårt community högsta prioritet och våra insynsrapporter som publiceras två gånger om året är ett viktigt verktyg som vi använder för att dela med oss av nyckelinformation och hålla oss ansvariga. 
Sedan vår insynsrapport 2015 har vi haft som mål att göra varje rapport mer informativ, lättsmält och effektiv än den tidigare. I vår senaste rapport har vi gjort olika tillägg och förbättringar för att hjälpa vårt community att bättre förstå vår rapportering och bygga vidare på vårt åtagande att göra dessa rapporter mer omfattande och informativa. 
Vi gör falsk informationsdata tillgänglig på landsnivå
För första gången introducerar vi "Falsk information" som en fristående kategori tillgänglig på landsnivå och bygger vidare på vår tidigare praxis att rapportera falsk information globalt. Vi är en av de enda plattformarna som tillhandahåller denna information per land. Detta halvår har vi genomdrivit totalt 4877 delar av falskt eller vilseledande innehåll som potentiellt skadligt eller uppsåtligt. Vi har alltid tagit ett annat tillvägagångssätt för att förhindra spridning av falsk information på Snapchat med början för utformningen av vår plattform. Över Snapchat tillåter vi inte ogranskat innehåll att gå viralt och när vi hittar innehåll som bryter mot våra Community-riktlinjer är vår policy att ta ner det och omedelbart minska risken för att det delas mer allmänt. Vårt tillvägagångssätt för att stoppa innehåll som innehåller falsk information är på samma sätt enkelt: Vi tar bort det. 
Med det nyligen amerikanska mitterminsvalet och andra val som sker globalt, tror vi att detaljerade, landspecifika data om vårt upprätthållande mot falsk information är värdefull. Du kan läsa mer om hur vi förhindrar spridning av falsk information på Snapchat här. 
Bekämpa sexuellt utnyttjande och kränkning av barn 
Sexuellt utnyttjande av någon medlem i vårt community, särskilt minderåriga, är olagligt, motbjudande och förbjudet enligt våra Community-riktlinjer. Att förhindra, upptäcka och utrota bilder av sexuellt utnyttjande och kränkning av barn (CSEA) är en hög prioritet för oss och vi utvecklar kontinuerligt vår kapacitet för att bekämpa denna typ av övergrepp mot barn på vår plattform. Under första halvåret av 2022 upptäckte vi och vidtog åtgärder mot 94 procent av de totala sexuella övergrepp mot barn i den här rapporten - en ökning med 6 procent sedan vår förra rapport.
Vi tillhandahåller också ett uppdaterat språk och ökad insyn i våra insatser för att bekämpa CSEAI. Vi delar nu det totala antalet CSEAI som vi har tagit bort och det totala antalet CSEAI-rapporter som våra förtroende- och säkerhetsteam gjort till det amerikanska nationella centret för saknade och exploaterade barn (NCMEC).
Vi introducerar en ordlista för policy och data
Vi har lagt till en ordlista för policy och data som ska inkluderas i alla rapporter som framöver. Vårt mål med denna ordlista är att ge ökad insyn kring de villkor och mått vi använder och tydligt beskriver vilka former av kränkande innehåll som ingår och verkställs mot under varje kategori. Till exempel, om läsare inte är säker på exakt vad vi menar med "Hot och våld", "Hets mot folkgrupp", "Andra reglerade varor", eller andra innehållskategorier kan de enkelt hänvisa till ordlistan för en beskrivning.
Proaktivt ta bort kränkande innehåll 
När man tittar på uppgifterna i rapporten är det också viktigt att notera att siffrorna för totala rapporter och verkställighet endast räknar det innehåll som rapporteras till oss. Gällande innehåll som Snap proaktivt upptäckte och åtgärdade innan det rapporterades till oss räknas inte in. Vi tror att de förbättringar vi har gjort i våra proaktiva åtgärder för att upptäcka den här typen av innehåll har spelat en stor roll i minskningen av totala rapporter, åtgärdssiffror och handläggningstid från vår senaste rapport för nyckelkategorier. Eftersom våra förbättrade verktyg för automatiserad upptäckt identifierade och tog bort innehåll innan det hade en chans att nå Snapchattare såg vi en minskning av verkställbart innehåll (dvs, rapporter från Snapchattare). 
Närmare bestämt sedan vår förra rapport såg vi 44 % minskning av hotfullt och våldsamt innehåll i rapporter från Snapchattare, samt 37 % minskning av verkställbart innehåll för läkemedel och 34 % minskning av verkställbart innehåll med hatpropaganda. I genomsnitt har vår medelåtgärdstid för att ta bort kränkande innehåll förbättrats 33% sedan förra halvåret, till drygt en minut.
Snapchat har utvecklats under årens lopp men vårt åtagande för transparens och prioritera säkerheten och välbefinnandet i vårt community förblir oförändrat. Vi kommer att fortsätta att hålla oss ansvariga och kommunicera uppdateringar om våra framsteg.