05 december 2024
05 december 2024
Vi publicerar denna insynsrapport två gånger om året för att ge insikt i Snaps säkerhetsansträngningar. Vi är dedikerade till dessa ansträngningar och vi strävar kontinuerligt efter att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig starkt om vår moderering av innehåll, brottsbekämpande metoder och säkerheten och välbefinnandet för Snapchat-communityn.
Denna insynsrapport täcker första halvåret 2024 (1 januari – 30 juni). Precis som med våra tidigare rapporter delar vi med oss av statistik för det globala antalet anmälningar av innehåll och konton som vi har mottagit i appen och vidtagit åtgärder mot, uppdelat i specifika kategorier av överträdelser; hur vi svarat på förfrågningar från brottsbekämpande myndigheter och regeringar; Och hur vi svarade på meddelanden om upphovsrätts- och varumärkesintrång. Vi tillhandahåller också landsspecifika insikter i de filer som är länkade längst ner på denna sida.
Som en del av vårt pågående åtagande att kontinuerligt förbättra våra insynsrapporter introducerar vi också nya data som belyser våra proaktiva ansträngningar att upptäcka och verkställa mot ett bredare spektrum av överträdelser av våra Community-riktlinjer. Vi har inkluderat dessa data på både global och landsnivå inom denna rapport och kommer att fortsätta att göra det framöver. Vi har också korrigerat ett märkningsfel i våra tidigare rapporter: där vi tidigare hänvisade till "Totalt antal verkställanden av innehåll" hänvisar vi nu till "Totalt antal verkställanden" för att återspegla det faktum att de data som tillhandahålls i de relevanta kolumner inkluderar både verkställanden på innehållsnivå och kontonivå.
För mer information om våra policyer för att bekämpa potentiella onlineskador och planer att fortsätta utveckla våra rapporteringsrutiner, läs vår senaste säkerhets- och påverkansblogg om denna insynsrapport. För att hitta ytterligare säkerhets- och integritetsresurser på Snapchat, se vår Om insynsrapportering längst ner på sidan.
Observera att den mest uppdaterade versionen av denna insynsrapport finns på amerikansk engelska (en-US).
Översikt över våra förtroende- och säkerhetsteams åtgärder för att genomdriva våra Community-riktlinjer.
Våra förtroende- och säkerhetsteam verkställer våra Community-riktlinjer både proaktivt (genom användning av automatiserade verktyg) och reaktivt (som svar på rapporter), som vidare beskrivs i de följande avsnitten i denna rapport. I denna rapporteringscykel (första halvåret 2024) vidtog våra förtroende- och säkerhetsteam följande åtgärder:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Nedan finns en uppdelning per typ av brott mot våra Community-riktlinjer, inklusive medianhandläggningstiden mellan den tid vi upptäckte brottet (antingen proaktivt eller efter mottagande av en rapport) och den tid vi vidtog slutliga åtgärder för det relevanta innehållet eller kontot:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,01 procent, vilket innebär att av varje 10 000 Snappar och Story-visningar på Snapchat innehöll 1 innehåll som bröt mot våra policyer.
Brott mot Community-riktlinjer som rapporterats till våra förtroende- och säkerhetsteam
Från 1 januari – 2024 vidtog Snaps förtroende- och säkerhetsteam totalt 6,223,618 verkställande åtgärder globalt, inklusive åtgärder mot 3,842,507 unika konton. Medianhandläggningstiden för våra förtroende- och säkerhetsteam att vidta verkställande åtgärder som svar på dessa rapporter var ~24 minuter. En uppdelning per rapporteringskategori tillhandahålls nedan.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Våra övergripande rapporteringsvolymer var ganska stabila under första halvåret 2024, jämfört med de tidigare sex månaderna. Under denna period såg vi en ökning av det totala antalet åtgärder och det totala antalet unika konton som åtgärdades med cirka 16%.
Under de senaste 12 månaderna introducerade Snap nya rapporteringsmekanismer för användare, som tar hänsyn till ändringar i våra rapporterade och åtgärdade volymer samt för ökningar i handläggningstider under denna rapporteringsperiod (första halvåret 2024). Specifikt:
Gruppchattsrapportering: Vi införde Gruppchattsrapportering den 13 oktober 2023, vilket gör det möjligt för användare att rapportera övergrepp som sker i en chatt med flera personer. Denna förändring påverkade sammansättningen av våra mätvärden i olika rapporteringskategorier (eftersom vissa potentiella skador är mer sannolika att inträffa i en chattkontext) och ökade rapporternas åtgärdsbarhet.
Förbättringar av kontorapportering: Vi har också utvecklat vår funktion för kontorapportering för att ge rapporterande användare en möjlighet att skicka in chattbevis när de rapporterar ett konto som misstänks drivas av en illasinnad aktör. Denna ändring, som ger oss större bevis och sammanhang för att utvärdera kontorapporter, lanserades den 29 februari 2024.
Chattrapporter, och särskilt gruppchattrapporter, är bland de mest komplexa och tidskrävande att granska, vilket drev upp handläggningstider överlag.
Rapportering av misstänkt sexuellt utnyttjande och övergrepp mot barn (CSEA), trakasserier och mobbning samt hatretorik påverkades särskilt av de två ändringar som beskrivs ovan och av förändringar i det bredare ekosystemet. Specifikt:
CSEA: Vi observerade en ökning av CSEA-relaterade rapporter och åtgärder under första halvåret 2024. Specifikt såg vi en 64 procentig ökning av det totala antalet rapporter från användare i appen, en 82 procentig ökning av det totala antalet åtgärder och en 108 procentig ökning av det totala antalet unika konton som åtgärdades. Dessa ökningar drivs till stor del av introduktionen av gruppchatts- och kontorapporteringsfunktioner. Med tanke på den känsliga naturen av denna modereringskö, granskas rapporter om potentiella CSEA-relaterade överträdelser av ett utvalt team av högt utbildade agenter. Tillströmningen av ytterligare rapporter i kombination med att våra team anpassat sig till ny utbildning, har resulterat i längre handläggningstider. Framöver har vi avsevärt ökat storleken på våra globala leverantörsteam för att minska handläggningstiderna och noggrant vidta åtgärder på rapporter om potentiella CSEA. Vi förväntar oss att vår insynsrapport för andra halvåret 2024 kommer att återspegla resultatet av denna ansträngning med väsentligt förbättrade handläggningstider.
Trakasserier och mobbning: Baserat på rapporter har vi observerat att trakasserier och mobbning oproportionerligt ofta förekommer i chattar, och särskilt i gruppchattar. De förbättringar som vi introducerade till gruppchatts- och kontorapportering hjälper oss att vidta mer omfattande åtgärder när vi utvärderar rapporter i denna rapporteringskategori. Från och med denna period kräver vi dessutom att användare matar in en kommentar när de skickar in en rapport om trakasserier och mobbning. Vi granskar denna kommentar för att kontextualisera varje rapport. Tillsammans ledde dessa ändringar till väsentliga ökningar av det totala antalet åtgärder (+91 %), det totala antalet unika konton som åtgärdades (+82 %) och handläggningstiden (+245 minuter) för motsvarande rapporter.
Hets mot folkgrupp: Under första halvåret 2024 observerade vi ökningar av rapporterat innehåll, totalt antal åtgärder och handläggningstid för hets mot folkgrupp. Specifikt såg vi en 61 procentig ökning av rapporter i appen, en 127 procentig ökning av det totala antalet åtgärder och en 125 procentig ökning av det totala antalet unika konton som åtgärdades. Detta berodde delvis på förbättringar i våra rapporteringsmekanismer för chatt (som tidigare diskuterats) och förvärrades ytterligare av den geopolitiska miljön, särskilt fortsättningen av Israel-Hamas-konflikten.
Denna rapporteringsperiod såg vi en minskning med cirka 65 % av det totala antalet åtgärder och en minskning med cirka 60 % av det totala antalet unika konton som åtgärdades som svar på rapporter om misstänkt skräppost och missbruk, vilket återspeglar förbättringar i våra proaktiva identifierings- och åtgärdsverktyg. Vi såg liknande minskningar i det totala antalet åtgärder som svar på rapporter om innehåll som rör självskadebeteende och självmord (cirka 80 % minskning), vilket återspeglar vår uppdaterade offercentrerade tillvägagångssätt. Enligt detta tillvägagångssätt kommer våra förtroende- och säkerhetsteam, i lämpliga fall, att skicka relevanta självhjälpsresurser till användare istället för att vidta åtgärder mot dessa användare. Detta tillvägagångssätt baserades på rekommendationer från medlemmar i vårt säkerhetsråd, inklusive en professor i pediatrik och en läkare som specialiserar sig på interaktiva medier och internetstörningar.
Våra ansträngningar att proaktivt upptäcka och verkställa mot brott mot våra Community-riktlinjer
Vi använder automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, genomdriva överträdelser av våra Community-riktlinjer. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Google Child Sexual Abuse Imagery (CHAI) Match), verktyg för att upptäcka kränkande språk (som identifierar och tillämpar åtgärder baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord och emojis) samt multimodal artificiell intelligens/maskininlärningsteknik.
Under första halvåret 2024 vidtog vi följande åtgärder efter att proaktivt ha identifierat, genom användning av automatiserade verktyg, brott mot våra Community-riktlinjer:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.
Vi använder aktiva teknologiska detekteringsverktyg, såsom PhotoDNA robust hash-matchning och Googles Child Sexual Abuse Imagery (CHAI) Match, för att identifiera kända olagliga bilder och videor av CSEA. Dessutom använder vi i vissa fall beteendemässiga signaler för att verkställa mot andra potentiellt olagliga CSEA aktiviteter. Vi rapporterar CSEA-relaterat innehåll till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.
Under första halvåret 2024 vidtog vi följande åtgärder när vi upptäckte CSEA på Snapchat (antingen proaktivt eller efter att ha fått en rapport):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Våra ansträngningar att tillhandahålla resurser och stöd till Snapchattare i behov av hjälp och stöd
Vi är mycket måna om Snapchattares psykiska hälsa och välbefinnande, vilket fortsätter att ligga till grund för våra beslut att bygga Snapchat annorlunda. Som en plattform som är utformad för kommunikation mellan och bland riktiga vänner anser vi att Snapchat kan spela en unik roll för att ge vänner möjlighet att hjälpa varandra i svåra stunder. Detta är varför vi har utvecklat resurser och stöd för Snapchattare i behov av hjälp och stöd.
Vårt sökverktyg Here For You visar resurser från lokala experter när användare söker efter vissa ämnen som är relaterade till psykisk hälsa, ångest, depression, stress, självmordstankar, sorg och mobbning. Vi har också utvecklat en sida dedikerad till ekonomisk sexuell utpressning och andra sexuella risker och skador, i ett försök att stödja de som är i nöd och behov av hjälp. Vår globala lista med säkerhetsresurser är publikt tillgänlig för alla Snapchattare, i vår Privacy, Safety & Policy Hub.
När vårt team för förtroende- och säkerhet upptäcker en Snapchattare i nöd har de möjlighet att vidarebefordra resurser för förebyggande av självskadebeteende och stöd, samt meddela räddningspersonal om nödsituationer där det är lämpligt. De resurser vi delar ut är tillgängliga på vår globala lista över säkerhetsresurser, och är publikt tillgängliga för alla Snapchattare.
Total Times Suicide Resources Shared
64,094
Överklaganden
Nedan tillhandahåller vi information om överklaganden som vi fått från användare som begär en granskning av vårt beslut att låsa deras konto:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Regional och landsöversikt
Detta avsnitt ger en översikt över våra förtroende- och säkerhetsteams åtgärder för att verkställa våra Community-riktlinjer, både proaktivt och som svar på rapporter om överträdelser i appen, i ett urval av geografiska regioner. Våra Community-riktlinjer gäller för allt innehåll på Snapchat—och alla Snapchattare—över hela världen, oavsett plats.
Information för enskilda länder, inklusive alla EU:s medlemsstater, är tillgänglig för nedladdning via den bifogade CV-filen.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Moderering av annonser
Snap är fast beslutna att säkerställa att alla annonser fullt ut följer våra annonsvillkor. Vi tror på ett ansvarsfullt och respektfullt sätt att annonsera för att skapa en säker och trevlig upplevelse för alla våra användare. Vi går igenom alla annonser och ger dem vårt godkännande. Dessutom förbehåller vi oss rätten att ta bort annonser, inklusive som svar på användarfeedback, som vi tar på allvar.
Nedan har vi inkluderat insyn i vår moderering av betalda annonser, som rapporteras till att de har publicerats på Snapchat. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du nu hitta Snapchats annonsgalleri i navigeringsfältet i denna insynsrapport.
Total Ads Reported
Total Ads Removed
43,098
17,833