05 december 2024
05 december 2024
Vi publicerar denna insynsrapport två gånger om året för att ge insikt i Snaps säkerhetsansträngningar. Vi är dedikerade till dessa ansträngningar och vi strävar kontinuerligt efter att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig starkt om vår moderering av innehåll, brottsbekämpande metoder och säkerheten och välbefinnandet för Snapchat-communityn.
Denna insynsrapport täcker första halvåret 2024 (1 januari – 30 juni). Precis som med våra tidigare rapporter delar vi med oss av statistik för det globala antalet anmälningar av innehåll och konton som vi har mottagit i appen och vidtagit åtgärder mot, uppdelat i specifika kategorier av överträdelser; hur vi svarat på förfrågningar från brottsbekämpande myndigheter och regeringar; Och hur vi svarade på meddelanden om upphovsrätts- och varumärkesintrång. Vi tillhandahåller också landsspecifika insikter i de filer som är länkade längst ner på denna sida.
Som en del av vårt pågående åtagande att kontinuerligt förbättra våra insynsrapporter introducerar vi också nya data som belyser våra proaktiva ansträngningar att upptäcka och verkställa mot ett bredare spektrum av överträdelser av våra Community-riktlinjer. Vi har inkluderat dessa data på både global och landsnivå inom denna rapport och kommer att fortsätta att göra det framöver. Vi har också korrigerat ett märkningsfel i våra tidigare rapporter: där vi tidigare hänvisade till "Totalt antal verkställanden av innehåll" hänvisar vi nu till "Totalt antal verkställanden" för att återspegla det faktum att de data som tillhandahålls i de relevanta kolumner inkluderar både verkställanden på innehållsnivå och kontonivå.
För mer information om våra policyer för att bekämpa potentiella onlineskador och planer att fortsätta utveckla våra rapporteringsrutiner, läs vår senaste säkerhets- och påverkansblogg om denna insynsrapport. För att hitta ytterligare säkerhets- och integritetsresurser på Snapchat, se vår Om insynsrapportering längst ner på sidan.
Observera att den mest uppdaterade versionen av denna insynsrapport finns på amerikansk engelska (en-US).
Översikt över våra förtroende- och säkerhetsteams åtgärder för att genomdriva våra Community-riktlinjer.
Våra förtroende- och säkerhetsteam verkställer våra Community-riktlinjer både proaktivt (genom användning av automatiserade verktyg) och reaktivt (som svar på rapporter), som vidare beskrivs i de följande avsnitten i denna rapport. I denna rapporteringscykel (första halvåret 2024) vidtog våra förtroende- och säkerhetsteam följande åtgärder:
Översikt över innehålls- och kontoöverträdelser
Från 1 juli till 31 december 2023 utförde Snap åtgärder mot 5 376 714 delar av innehåll globalt som rapporterades till oss och bröt mot våra Community-riktlinjer.
Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,01 procent, vilket innebär att av varje 10 000 Snappar och Story-visningar på Snapchat innehöll 1 innehåll som bröt mot våra policyer. Mediantiden för att verkställa rapporterat innehåll var ~10 minuter.
Översikt över innehålls- och kontoöverträdelser
Från 1 juli till 31 december 2023 utförde Snap åtgärder mot 5 376 714 delar av innehåll globalt som rapporterades till oss och bröt mot våra Community-riktlinjer.
Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,01 procent, vilket innebär att av varje 10 000 Snappar och Story-visningar på Snapchat innehöll 1 innehåll som bröt mot våra policyer. Mediantiden för att verkställa rapporterat innehåll var ~10 minuter.
Översikt över innehålls- och kontoöverträdelser
Från 1 juli till 31 december 2023 utförde Snap åtgärder mot 5 376 714 delar av innehåll globalt som rapporterades till oss och bröt mot våra Community-riktlinjer.
Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,01 procent, vilket innebär att av varje 10 000 Snappar och Story-visningar på Snapchat innehöll 1 innehåll som bröt mot våra policyer. Mediantiden för att verkställa rapporterat innehåll var ~10 minuter.
Analys av innehålls- och kontoöverträdelser
Våra övergripande rapporterings- och verkställighetsnivåer var ganska lika föregående sex månaderna. Denna cykel såg vi en ungefärlig ökning med 10 % av totala antalet innehålls- och kontorapporteringar.
Israel-Hamas-konflikten började under denna period och som ett resultat såg vi en uppgång i överträdande innehåll. Totalt antal rapporter relaterade till hatretorik ökade med ~61 %, medan det totala antalet åtgärder mot innehåll med hatretorik ökade med ~97 % och unika kontoåtgärder ökade med ~124 %. Rapporter och verkställighet mot terrorism och våldsam extremism har också ökat, även om de utgör <0,1 % av det totala antalet verkställighet av innehåll på vår plattform. Våra förtroende- och säkerhetsteam fortsätter att vara vaksamma när globala konflikter uppstår för att hålla Snapchat säkert. Vi har också utökat vår insynsrapport till att inkludera mer information på global och landsnivå om det totala antalet rapporter, innehåll som verkställts och unika konton som verkställts för överträdelser av vår policy för terrorism och våldsam extremism.
Översikt över innehålls- och kontoöverträdelser
Från 1 juli till 31 december 2023 utförde Snap åtgärder mot 5 376 714 delar av innehåll globalt som rapporterades till oss och bröt mot våra Community-riktlinjer.
Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,01 procent, vilket innebär att av varje 10 000 Snappar och Story-visningar på Snapchat innehöll 1 innehåll som bröt mot våra policyer. Mediantiden för att verkställa rapporterat innehåll var ~10 minuter.
Bekämpning av sexuellt utnyttjande och övergrepp mot barn
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.
Vi använder aktiva verktyg, såsom PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.
Under andra halvåret 2023 upptäckte och agerade vi proaktivt på 59 % av det totala sexuella utnyttjande och övergreppsbrott som rapporterades. Detta återspeglar en total minskning med 39 % från föregående period på grund av förbättringar i Snapchattares rapporteringsalternativ, som ökar vår synlighet för potentiell CSEA som skickas på Snapchat.
*Observera att varje anmälning till NCMEC kan innehålla flera innehåll. De totala antalet individuellt innehåll som anmälts till NCMEC är lika med det totala antalet innehåll som föranlett åtgärd. Vi har också uteslutit återkallade anmälningar till NCMEC från denna siffra.
Självskadebeteende och självmord
Vi är mycket måna om Snapchattares psykiska hälsa och välbefinnande, vilket fortsätter att ligga till grund för våra beslut att bygga Snapchat annorlunda. Som en plattform som är utformad för kommunikation mellan och bland riktiga vänner anser vi att Snapchat kan spela en unik roll för att ge vänner möjlighet att hjälpa varandra i svåra stunder.
När vårt team för förtroende- och säkerhet upptäcker en Snapchattare i nöd har de möjlighet att vidarebefordra resurser för förebyggande av självskadebeteende och stöd, samt meddela räddningspersonal om nödsituationer där det är lämpligt. De resurser vi delar ut är tillgängliga på vår globala lista över säkerhetsresurser, och är publikt tillgängliga för alla Snapchattare.
Överklaganden
I vår tidigare rapport introducerade vi statistik för överklaganden, där vi markerade antalet gånger användare bad oss att åter granska vårt ursprungliga modereringsbeslut mot deras konto. I denna rapport har vi utökat våra överklaganden för att fånga hela utbudet av våra policykategorier för överträdelser på kontonivå.
* Att stoppa spridning av innehåll eller aktivitet relaterad till sexuellt utnyttjande av barn har högsta prioritet. Snap ägnar betydande resurser mot detta mål och har nolltolerans för sådant beteende. Särskild utbildning krävs för att granska CSE-överklaganden och det finns ett begränsat team av agenter som hanterar dessa granskningar på grund av innehållets grafiska karaktär. Under hösten 2023 implementerade Snap policyändringar som påverkade konsekvensen hos vissa CSE-verkställigheter. Vi har åtgärdat dessa inkonsekvenser genom omskolning av agenter och kvalitetssäkring. Vi förväntar oss att Snaps nästa insynsrapport kommer att visa framsteg mot att förbättra svarstider för CSE-överklaganden och förbättra precisionen i ursprungliga verkställighetsåtgärder.
Regional och landsöversikt
Detta avsnitt ger en översikt över våra förtroende- och säkerhetsteams åtgärder för att verkställa våra Community-riktlinjer, både proaktivt och som svar på rapporter om överträdelser i appen, i ett urval av geografiska regioner. Våra Community-riktlinjer gäller för allt innehåll på Snapchat—och alla Snapchattare—över hela världen, oavsett plats.
Information för enskilda länder, inklusive alla EU:s medlemsstater, är tillgänglig för nedladdning via den bifogade CV-filen.
Bekämpning av sexuellt utnyttjande och övergrepp mot barn
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.
Vi använder aktiva verktyg, såsom PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.
Under andra halvåret 2023 upptäckte och agerade vi proaktivt på 59 % av det totala sexuella utnyttjande och övergreppsbrott som rapporterades. Detta återspeglar en total minskning med 39 % från föregående period på grund av förbättringar i Snapchattares rapporteringsalternativ, som ökar vår synlighet för potentiell CSEA som skickas på Snapchat.
Bekämpning av sexuellt utnyttjande och övergrepp mot barn
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.
Vi använder aktiva verktyg, såsom PhotoDNA robust hash-matching och Googles Child Sexual Abuse Imagery (CSAI) Match för att identifiera kända olagliga bilder och videor med sexuella övergrepp mot barn och rapportera dem till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med lagen. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.
Under andra halvåret 2023 upptäckte och agerade vi proaktivt på 59 % av det totala sexuella utnyttjande och övergreppsbrott som rapporterades. Detta återspeglar en total minskning med 39 % från föregående period på grund av förbättringar i Snapchattares rapporteringsalternativ, som ökar vår synlighet för potentiell CSEA som skickas på Snapchat.
Moderering av annonser
Snap är engagerat i att säkerställa att alla annonser är helt kompatibla med våra annonsvillkor. Vi tror på ett ansvarsfullt och respektfullt sätt att annonsera för att skapa en säker och trevlig upplevelse för alla våra användare. Nedan har vi inkluderat insikt i vår moderering för betalda annonser på Snapchat. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du nu hitta Snapchats annonsgalleri i navigeringsfältet i denna insynsrapport.

























