Snap Values
Insynsrapport
1 januari 2024 – 30 juni 2024

Publicerad:

05 december 2024

Uppdaterad:

05 december 2024

Vi publicerar denna insynsrapport två gånger om året för att ge insikt i Snaps säkerhetsansträngningar. Vi är dedikerade till dessa ansträngningar och vi strävar kontinuerligt efter att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig starkt om vår moderering av innehåll, brottsbekämpande metoder och säkerheten och välbefinnandet för Snapchat-communityn.

Denna insynsrapport täcker första halvåret 2024 (1 januari – 30 juni). Precis som med våra tidigare rapporter delar vi med oss av statistik för det globala antalet anmälningar av innehåll och konton som vi har mottagit i appen och vidtagit åtgärder mot, uppdelat i specifika kategorier av överträdelser; hur vi svarat på förfrågningar från brottsbekämpande myndigheter och regeringar; Och hur vi svarade på meddelanden om upphovsrätts- och varumärkesintrång. Vi tillhandahåller också landsspecifika insikter i de filer som är länkade längst ner på denna sida.

Som en del av vårt pågående åtagande att kontinuerligt förbättra våra insynsrapporter introducerar vi också nya data som belyser våra proaktiva ansträngningar att upptäcka och verkställa mot ett bredare spektrum av överträdelser av våra Community-riktlinjer. Vi har inkluderat dessa data på både global och landsnivå inom denna rapport och kommer att fortsätta att göra det framöver. Vi har också korrigerat ett märkningsfel i våra tidigare rapporter: där vi tidigare hänvisade till "Totalt antal verkställanden av innehåll" hänvisar vi nu till "Totalt antal verkställanden" för att återspegla det faktum att de data som tillhandahålls i de relevanta kolumner inkluderar både verkställanden på innehållsnivå och kontonivå.

För mer information om våra policyer för att bekämpa potentiella onlineskador och planer att fortsätta utveckla våra rapporteringsrutiner, läs vår senaste säkerhets- och påverkansblogg om denna insynsrapport. För att hitta ytterligare säkerhets- och integritetsresurser på Snapchat, se vår Om insynsrapportering längst ner på sidan.

Observera att den mest uppdaterade versionen av denna insynsrapport finns på amerikansk engelska (en-US).

Översikt över våra förtroende- och säkerhetsteams åtgärder för att genomdriva våra Community-riktlinjer.

Våra förtroende- och säkerhetsteam verkställer våra Community-riktlinjer både proaktivt (genom användning av automatiserade verktyg) och reaktivt (som svar på rapporter), som vidare beskrivs i de följande avsnitten i denna rapport. I denna rapporteringscykel (första halvåret 2024) vidtog våra förtroende- och säkerhetsteam följande åtgärder:

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Nedan finns en uppdelning per typ av brott mot våra Community-riktlinjer, inklusive medianhandläggningstiden mellan den tid vi upptäckte brottet (antingen proaktivt eller efter mottagande av en rapport) och den tid vi vidtog slutliga åtgärder för det relevanta innehållet eller kontot:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,01 procent, vilket innebär att av varje 10 000 Snappar och Story-visningar på Snapchat innehöll 1 innehåll som bröt mot våra policyer.

Brott mot Community-riktlinjer som rapporterats till våra förtroende- och säkerhetsteam

Från 1 januari – 2024 vidtog Snaps förtroende- och säkerhetsteam totalt 6,223,618 verkställande åtgärder globalt, inklusive åtgärder mot 3,842,507 unika konton. Medianhandläggningstiden för våra förtroende- och säkerhetsteam att vidta verkställande åtgärder som svar på dessa rapporter var ~24 minuter. En uppdelning per rapporteringskategori tillhandahålls nedan. 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Våra övergripande rapporteringsvolymer var ganska stabila under första halvåret 2024, jämfört med de tidigare sex månaderna. Under denna period såg vi en ökning av det totala antalet åtgärder och det totala antalet unika konton som åtgärdades med cirka 16%.

Under de senaste 12 månaderna introducerade Snap nya rapporteringsmekanismer för användare, som tar hänsyn till ändringar i våra rapporterade och åtgärdade volymer samt för ökningar i handläggningstider under denna rapporteringsperiod (första halvåret 2024). Specifikt:

  • Gruppchattsrapportering: Vi införde Gruppchattsrapportering den 13 oktober 2023, vilket gör det möjligt för användare att rapportera övergrepp som sker i en chatt med flera personer. Denna förändring påverkade sammansättningen av våra mätvärden i olika rapporteringskategorier (eftersom vissa potentiella skador är mer sannolika att inträffa i en chattkontext) och ökade rapporternas åtgärdsbarhet.

  • Förbättringar av kontorapportering: Vi har också utvecklat vår funktion för kontorapportering för att ge rapporterande användare en möjlighet att skicka in chattbevis när de rapporterar ett konto som misstänks drivas av en illasinnad aktör. Denna ändring, som ger oss större bevis och sammanhang för att utvärdera kontorapporter, lanserades den 29 februari 2024. 


Chattrapporter, och särskilt gruppchattrapporter, är bland de mest komplexa och tidskrävande att granska, vilket drev upp handläggningstider överlag.

Rapportering av misstänkt sexuellt utnyttjande och övergrepp mot barn (CSEA), trakasserier och mobbning samt hatretorik påverkades särskilt av de två ändringar som beskrivs ovan och av förändringar i det bredare ekosystemet. Specifikt:

  • CSEA: Vi observerade en ökning av CSEA-relaterade rapporter och åtgärder under första halvåret 2024. Specifikt såg vi en 64 procentig ökning av det totala antalet rapporter från användare i appen, en 82 procentig ökning av det totala antalet åtgärder och en 108 procentig ökning av det totala antalet unika konton som åtgärdades. Dessa ökningar drivs till stor del av introduktionen av gruppchatts- och kontorapporteringsfunktioner. Med tanke på den känsliga naturen av denna modereringskö, granskas rapporter om potentiella CSEA-relaterade överträdelser av ett utvalt team av högt utbildade agenter. Tillströmningen av ytterligare rapporter i kombination med att våra team anpassat sig till ny utbildning, har resulterat i längre handläggningstider. Framöver har vi avsevärt ökat storleken på våra globala leverantörsteam för att minska handläggningstiderna och noggrant vidta åtgärder på rapporter om potentiella CSEA. Vi förväntar oss att vår insynsrapport för andra halvåret 2024 kommer att återspegla resultatet av denna ansträngning med väsentligt förbättrade handläggningstider.

  • Trakasserier och mobbning: Baserat på rapporter har vi observerat att trakasserier och mobbning oproportionerligt ofta förekommer i chattar, och särskilt i gruppchattar. De förbättringar som vi introducerade till gruppchatts- och kontorapportering hjälper oss att vidta mer omfattande åtgärder när vi utvärderar rapporter i denna rapporteringskategori. Från och med denna period kräver vi dessutom att användare matar in en kommentar när de skickar in en rapport om trakasserier och mobbning. Vi granskar denna kommentar för att kontextualisera varje rapport. Tillsammans ledde dessa ändringar till väsentliga ökningar av det totala antalet åtgärder (+91 %), det totala antalet unika konton som åtgärdades (+82 %) och handläggningstiden (+245 minuter) för motsvarande rapporter. 

  • Hets mot folkgrupp: Under första halvåret 2024 observerade vi ökningar av rapporterat innehåll, totalt antal åtgärder och handläggningstid för hets mot folkgrupp. Specifikt såg vi en 61 procentig ökning av rapporter i appen, en 127 procentig ökning av det totala antalet åtgärder och en 125 procentig ökning av det totala antalet unika konton som åtgärdades. Detta berodde delvis på förbättringar i våra rapporteringsmekanismer för chatt (som tidigare diskuterats) och förvärrades ytterligare av den geopolitiska miljön, särskilt fortsättningen av Israel-Hamas-konflikten.

Denna rapporteringsperiod såg vi en minskning med cirka 65 % av det totala antalet åtgärder och en minskning med cirka 60 % av det totala antalet unika konton som åtgärdades som svar på rapporter om misstänkt skräppost och missbruk, vilket återspeglar förbättringar i våra proaktiva identifierings- och åtgärdsverktyg. Vi såg liknande minskningar i det totala antalet åtgärder som svar på rapporter om innehåll som rör självskadebeteende och självmord (cirka 80 % minskning), vilket återspeglar vår uppdaterade offercentrerade tillvägagångssätt. Enligt detta tillvägagångssätt kommer våra förtroende- och säkerhetsteam, i lämpliga fall, att skicka relevanta självhjälpsresurser till användare istället för att vidta åtgärder mot dessa användare. Detta tillvägagångssätt baserades på rekommendationer från medlemmar i vårt säkerhetsråd, inklusive en professor i pediatrik och en läkare som specialiserar sig på interaktiva medier och internetstörningar.

Våra ansträngningar att proaktivt upptäcka och verkställa mot brott mot våra Community-riktlinjer

Proaktiv identifiering och verkställighet av våra Community-riktlinjer


Vi använder automatiserade verktyg för att proaktivt upptäcka och, i vissa fall, genomdriva överträdelser av våra Community-riktlinjer. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Google Child Sexual Abuse Imagery (CHAI) Match), verktyg för att upptäcka kränkande språk (som identifierar och tillämpar åtgärder baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord och emojis) samt multimodal artificiell intelligens/maskininlärningsteknik.

Under första halvåret 2024 vidtog vi följande åtgärder efter att proaktivt ha identifierat, genom användning av automatiserade verktyg, brott mot våra Community-riktlinjer:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Bekämpning av sexuellt utnyttjande och övergrepp mot barn 

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota bilder på sexuellt utnyttjande och övergrepp mot barn (CSEA) på vår plattform är en av Snaps högsta prioriteringar och vi utvecklar kontinuerligt vår förmåga att bekämpa dessa och andra typer av brott.

Vi använder aktiva teknologiska detekteringsverktyg, såsom PhotoDNA robust hash-matchning och Googles Child Sexual Abuse Imagery (CHAI) Match, för att identifiera kända olagliga bilder och videor av CSEA. Dessutom använder vi i vissa fall beteendemässiga signaler för att verkställa mot andra potentiellt olagliga CSEA aktiviteter. Vi rapporterar CSEA-relaterat innehåll till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsenden efter behov.

Under första halvåret 2024 vidtog vi följande åtgärder när vi upptäckte CSEA på Snapchat (antingen proaktivt eller efter att ha fått en rapport):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Våra ansträngningar att tillhandahålla resurser och stöd till Snapchattare i behov av hjälp och stöd

Vi är mycket måna om Snapchattares psykiska hälsa och välbefinnande, vilket fortsätter att ligga till grund för våra beslut att bygga Snapchat annorlunda. Som en plattform som är utformad för kommunikation mellan och bland riktiga vänner anser vi att Snapchat kan spela en unik roll för att ge vänner möjlighet att hjälpa varandra i svåra stunder. Detta är varför vi har utvecklat resurser och stöd för Snapchattare i behov av hjälp och stöd. 

Vårt sökverktyg Here For You visar resurser från lokala experter när användare söker efter vissa ämnen som är relaterade till psykisk hälsa, ångest, depression, stress, självmordstankar, sorg och mobbning. Vi har också utvecklat en sida dedikerad till ekonomisk sexuell utpressning och andra sexuella risker och skador, i ett försök att stödja de som är i nöd och behov av hjälp. Vår globala lista med säkerhetsresurser är publikt tillgänlig för alla Snapchattare, i vår Privacy, Safety & Policy Hub.

När vårt team för förtroende- och säkerhet upptäcker en Snapchattare i nöd har de möjlighet att vidarebefordra resurser för förebyggande av självskadebeteende och stöd, samt meddela räddningspersonal om nödsituationer där det är lämpligt. De resurser vi delar ut är tillgängliga på vår globala lista över säkerhetsresurser, och är publikt tillgängliga för alla Snapchattare.

Total Times Suicide Resources Shared

64,094

Överklaganden

Nedan tillhandahåller vi information om överklaganden som vi fått från användare som begär en granskning av vårt beslut att låsa deras konto:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Regional och landsöversikt

Detta avsnitt ger en översikt över våra förtroende- och säkerhetsteams åtgärder för att verkställa våra Community-riktlinjer, både proaktivt och som svar på rapporter om överträdelser i appen, i ett urval av geografiska regioner. Våra Community-riktlinjer gäller för allt innehåll på Snapchat—och alla Snapchattare—över hela världen, oavsett plats.

Information för enskilda länder, inklusive alla EU:s medlemsstater, är tillgänglig för nedladdning via den bifogade CV-filen.

Översikt över våra förtroende- och säkerhetsteams åtgärder för att verkställa våra Community-riktlinjer 

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Brott mot Community-riktlinjer som rapporterats till våra förtroende- och säkerhetsteam

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Proaktiv identifiering och tillämpning av våra Community-riktlinjer

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Moderering av annonser

Snap är fast beslutna att säkerställa att alla annonser fullt ut följer våra annonsvillkor. Vi tror på ett ansvarsfullt och respektfullt sätt att annonsera för att skapa en säker och trevlig upplevelse för alla våra användare. Vi går igenom alla annonser och ger dem vårt godkännande. Dessutom förbehåller vi oss rätten att ta bort annonser, inklusive som svar på användarfeedback, som vi tar på allvar. 


Nedan har vi inkluderat insyn i vår moderering av betalda annonser, som rapporteras till att de har publicerats på Snapchat. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du nu hitta Snapchats annonsgalleri i navigeringsfältet i denna insynsrapport.

Total Ads Reported

Total Ads Removed

43,098

17,833

Regeringsförfrågningar och meddelanden om att ta bort upphovsrättsskyddat material

Om insynsrapportering

Ordlista för insynsrapportering