Snap Values
Insynsrapport
1 januari 2025 – 30 juni 2025

Publicerad:

1 december 2025

Uppdaterad:

1 december 2025

Vi publicerar denna transparensrapport två gånger om året för att ge insyn i Snaps säkerhetsarbete. Som en del av vårt engagemang för säkerhet och transparens strävar vi ständigt efter att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig djupt om vår innehålls moderering, vår strategi för brottsbekämpning samt säkerheten och välbefinnandet i Snapchat-communityn.

Denna insynsrapport täcker första halvåret 2025 (1 januari - 30 juni). Vi delar global data om rapporter av användare och proaktiv upptäckt av Snap; verkställigheter av våra säkerhetsteam över specifika kategorier av community-riktlinjer-överträdelser; hur vi svarade på förfrågningar från brottsbekämpning och regeringar och hur vi svarade på meddelanden om upphovsrätt och varumärkesintrång. Vi tillhandahåller också landsspecifika insikter i en serie länkade sidor.

För att hitta ytterligare säkerhets- och integritetsresurser på Snapchat, se vår Om insynsrapportering längst ner på sidan.

Observera att den mest uppdaterade versionen av denna insynsrapport är den engelska versionen.

Översikt över våra förtroende- och säkerhetsteams åtgärder för att genomdriva våra Community-riktlinjer.

Våra säkerhetsteam verkställer våra community-riktlinjer både proaktivt (via användning av automatiserade upptäcktsverktyg) och reaktivt (som svar på rapporter), som närmare beskrivs i följande avsnitt i denna rapport. I denna rapporteringscykel (H1 2025) vidtog våra säkerhetsteam följande antal åtgärder:

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

9 674 414

5 794 201

Nedan finns en uppdelning per typ av brott mot våra Community-riktlinjer, inklusive median-"handläggningstiden" mellan den tid vi upptäckte brottet (antingen proaktivt eller efter mottagande av en rapport) och den tid vi vidtog slutliga åtgärder för det relevanta innehållet eller kontot:

Policyskäl

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd

Sexuellt innehåll

5 461 419

3 233 077

1

Sexuellt utnyttjande & övergrepp på barn

1 095 424

733 106

5

Trakasserier och mobbning

713 448

594 302

3

Hot och våld

187 653

146 564

3

Självskadebeteende och självmord

47 643

41 216

5

Falsk information

2 088

2 004

1

Förfalskning

7 138

6 881

< 1

Spam

267 299

189 344

1

Läkemedel

1 095 765

726 251

7

Vapen

251 243

173 381

1

Andra reglerade varor

183 236

126 952

4

Hets mot folkgrupp

343 051

284 817

6

Terrorism och våldsam extremism

10 970

6 783

2

Uppgifterna om totala tillämpningar inkluderar åtgärder som vidtagits av Snap efter granskning av rapporter i appen som skickats in via Snapchat.  Detta representerar den stora majoriteten av de åtgärder som gjorts av Snaps säkerhetsteam. Denna siffra exkluderar de flesta åtgärder som gjorts som ett resultat av undersökningar baserade på rapporter som gjorts till Snap via vår supportsida eller andra mekanismer (t.ex. via e-post), eller som ett resultat av vissa proaktiva undersökningar som genomförts av våra säkerhetsteam. Dessa exkluderade åtgärder representerade mindre än 0,5 % av verkställighetsvolymen under första halvåret 2025.

Under rapporteringsperioden uppgick andelen överträdelser (VVR) till 0,01 procent, vilket innebär att 1 av 10 000 visningar av Snap och Story på Snapchat innehöll innehåll som stred mot våra community riktlinjer. Bland åtgärder för vad vi anser vara ”Allvarliga skador” såg vi en VVR på 0,003 %. En uppdelning av VVR per policyskäl tillhandahålls i tabellen nedan.

Policyskäl

VVR

Sexuellt innehåll

0,00482 %

Sexuellt utnyttjande & övergrepp på barn

0,00096 %

Trakasserier och mobbning

0,00099 %

Hot och våld

0,00176 %

Självskadebeteende och självmord

0,00009 %

Falsk information

0,00002 %

Förfalskning

0,00009 %

Spam

0,00060 %

Läkemedel

0,00047 %

Vapen

0,00083 %

Andra reglerade varor

0,00104 %

Hets mot folkgrupp

0,00025 %

Terrorism och våldsam extremism

0,00002 %

Brott mot Community-riktlinjer som rapporterats till våra förtroende- och säkerhetsteam

Från 1 januari - 30 juni 2025, som svar på 19 766 324 rapporter i appen om överträdelser av våra community-riktlinjer, vidtog Snaps säkerhetsteam totalt 6 278 446 verkställighetsåtgärder globalt, inklusive verkställighet mot 4 104 624 unika konton.  Denna rapporteringsvolym i appen exkluderar rapporter på supportwebbplatsen och e-post, som utgör mindre än 1 % av den totala rapporteringsvolymen.  Medianvaraktigheten för våra säkerhetsteam att vidta åtgärder som svar på dessa rapporter var cirka 2 minuter. En uppdelning per policyskäl tillhandahålls nedan. (Obs! I tidigare rapporter hänvisade vi ibland till detta som "rapporteringskategorin".  Framöver använder vi termen "policyskäl" vilket vi anser återspeglar uppgifternas natur mer korrekt – eftersom våra säkerhetsteam strävar efter att tillämpa gällande policyskäl, oavsett vilken rapporteringskategori som identifierats av den person som skickar in rapporten.)


Totalt antal innehålls- och kontoanmälningar

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Totalt

19 766 324

6 278 446

4 104 624

Policyskäl

Totalt antal innehålls- och kontoanmälningar

Totalt antal verkställanden

Procent av det totala antalet anmälningar som föranlett åtgärd från Snap

Totalt antal unika konton som föranlett åtgärd

Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd

Sexuellt innehåll

7 315 730

3 778 370

60,2 %

2 463 464

1

Sexuellt utnyttjande & övergrepp på barn

1 627 097

695 679

11,1 %

577 736

10

Trakasserier och mobbning

4 103 797

700 731

11,2 %

584 762

3

Hot och våld

997 346

147 162

2,3 %

120 397

2

Självskadebeteende och självmord

350 775

41 150

0,7 %

36 657

3

Falsk information

606 979

2 027

0,0 %

1 960

1

Förfalskning

745 874

7 086

0,1 %

6 837

< 1

Spam

1 709 559

122 499

2,0 %

94 837

1

Läkemedel

481 830

262 962

4,2 %

176 799

5

Vapen

271 586

39 366

0,6 %

32 316

1

Andra reglerade varor

530 449

143 098

2,3 %

98 023

3

Hets mot folkgrupp

817 262

337 263

5,4 %

280 682

6

Terrorism och våldsam extremism

208 040

1 053

0,0 %

Lens Studio

2

Under första halvåret 2025 fortsatte vi att minska mediantiderna för handläggning för alla policykategorier och minskade dem med i genomsnitt mer än 75 % jämfört med den föregående rapporteringsperioden, till 2 minuter. Denna minskning berodde till stor del på en fortsatt samordnad ansträngning för att förbättra vår prioritering av rapporter för granskning baserat på hur allvarlig skadan kan vara, och automatiserad granskning.

Vi gjorde också flera riktade ändringar av våra säkerhetsinsatser under rapporteringsperioden, vilket hade en inverkan på de data som rapporterades här, inklusive att stärka våra policyer om olaglig aktivitet som involverar vapen. Vi observerade en ökning av rapporter och åtgärder i kategorin sexuellt utnyttjande av barn, vilket främst drevs av en ökning av sexualiserat eller känsligt innehåll som involverar minderåriga som bryter mot våra policyer men inte är olagligt i USA eller föremål för rapportering till U.S. National Center for Missing Exploited Children (NCMEC). Ökningen av volymen relaterad till sexuellt innehåll (och minskningen av volymen relaterad till trakasserier) drevs av vår omklassificering av innehåll associerat med sexuella trakasserier från trakasserier till sexuellt innehåll.

Våra ansträngningar att proaktivt upptäcka och verkställa mot brott mot våra Community-riktlinjer

Proaktiv identifiering och verkställighet av våra Community-riktlinjer


Vi använder automatiserade verktyg för att proaktivt upptäcka och i vissa fall verkställa mot överträdelser av våra community-riktlinjer. Dessa verktyg inkluderar hash-matching teknik (inklusive PhotoDNA och Googles Child Sexual Abuse Imagery (CSAI)), Googles Content Safety API och annan patentskyddad teknik utformad för att upptäcka olaglig och kränkande text och media, och utnyttjar ibland artificiell intelligens och maskininlärning. Våra proaktiva upptäcktssiffror fluktuerar rutinmässigt som ett resultat av ändringar i användarbeteende och förbättringar av våra upptäcktsfunktioner och ändringar av våra policyer.

Under första halvåret 2025 vidtog vi följande åtgärder efter att proaktivt ha upptäckt överträdelser av våra community-riktlinjer med automatiserade upptäcktsverktyg:


Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Totalt

3 395 968

1 709 224

Policyskäl

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd

Sexuellt innehåll

1 683 045

887 059

0

Sexuellt utnyttjande & övergrepp på barn

399 756

162 017

2

Trakasserier och mobbning

12 716

10 412

8

Hot och våld

40 489

27 662

6

Självskadebeteende och självmord

6 493

4 638

7

Falsk information

61

44

20

Förfalskning

52

44

34

Spam

144 800

96 500

0

Läkemedel

832 803

578 738

7

Vapen

211 877

144 455

0

Andra reglerade varor

40 139

31 408

8

Hets mot folkgrupp

5 788

4 518

6

Terrorism och våldsam extremism

9 917

5 899

5

Bekämpning av sexuellt utnyttjande och övergrepp mot barn

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota CSEA på vår plattform är en högsta prioritet för Snap, och vi utvecklar kontinuerligt våra möjligheter att bekämpa dessa och andra brott.

Vi använder aktiva teknikverktyg för att identifiera innehåll. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Googles CSAI-matchning, för att identifiera kända olagliga bilder och videor av CSEA) och Google Content Safety API (för att identifiera nya, "aldrig tidigare hashade" olagliga bilder). Dessutom använder vi i vissa fall beteendesignaler för att verkställa mot annan misstänkt CSEA-aktivitet. Vi rapporterar CSEA-relaterat innehåll till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC samordnar sedan med inhemsk eller internationell brottsbekämpning, efter behov.

Under första halvåret 2025 vidtog vi följande åtgärder efter att ha identifierat CSEA på Snapchat (antingen proaktivt eller efter att ha mottagit en rapport):

Totalt antal innehåll som föranlett åtgärd

Totalt antal konton som inaktiverats

Totalt antal anmälningar till NCMEC*

994 337

187 387

321 587

*Observera att varje anmälning till NCMEC kan innehålla flera stycken av innehåll. De totala antalet individuellt innehåll som anmälts till NCMEC är lika med det totala antalet innehåll som föranlett åtgärd.

Våra insatser för att tillhandahålla resurser och stöd till Snapchatters i behov

Snapchat ger vänner möjlighet att hjälpa varandra i svåra tider genom att tillhandahålla resurser och support för Snapchattare i behov.

Vårt sökverktyg Here For You tillhandahåller resurser från experter när användare söker efter vissa ämnen relaterade till mental hälsa, ångest, depression, stress, självmordstankar, sorg och mobbning. Vi har också utvecklat en sida dedikerad till bekämpning av finansiellt motiverad sexuell utpressning och andra sexuella risker och skador, i ett försök att stödja de som är i nöd.

När våra säkerhetsteam blir medvetna om en Snapchattare i nöd är de utrustade för att tillhandahålla  resurser för förebyggande av självskadebeteende och support, och för att meddela räddningstjänster vid behov. De resurser vi delar är tillgängliga på vår globala lista över säkerhetsresurser, som är offentligt tillgänglig för alla Snapchattare på vår hubb för sekretess, säkerhet och policy.

Totalt antal gånger resurser om självmord delades

36 162

Överklaganden

Nedan tillhandahåller vi information om överklaganden vi fick från användare som begärde en granskning av vårt beslut att låsa sitt konto under första halvåret 2025:

Policyskäl

Totalt antal överklaganden

Totalt antal återinföranden

Totalt antal beslut som upphävts

Mediantid för handläggning (dagar) för att behandla överklaganden

Totalt

437 855

22 142

415 494

1

Sexuellt innehåll

134 358

6 175

128 035

1

Sexuellt utnyttjande & övergrepp på barn*

89 493

4 179

85 314

< 1

Trakasserier och mobbning

42 779

281

42 496

1

Hot och våld

3 987

77

3 909

1

Självskadebeteende och självmord

145

2

143

1

Falsk information

4

0

4

1

Förfalskning

1 063

33

1 030

< 1

Spam

13 730

3 140

10 590

1

Läkemedel

128 222

7 749

120 409

1

Vapen

10 941

314

10 626

1

Andra reglerade varor

9 719

124

9 593

1

Hets mot folkgrupp

3 310

67

3 242

1

Terrorism och våldsam extremism

104

1

103

1

Regional och landsöversikt

Detta avsnitt ger en översikt över våra säkerhetsteams åtgärder för att verkställa våra community-riktlinjer, både proaktivt och som svar på rapporter i appen om överträdelser, i ett urval av geografiska regioner. Våra communityriktlinjer gäller för allt innehåll på Snapchat – och för alla Snapchatters – över hela världen, oavsett plats.

Information för enskilda länder, inklusive alla EU:s medlemsstater, är tillgänglig för nedladdning via den bifogade CV-filen.



Översikt över vårt säkerhetsteams åtgärder för att upprätthålla våra Community-riktlinjer

Region

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Nordamerika

3 468 315

2 046 888

Europa

2 815 474

1 810 223

Övriga världen

3 390 625

1 937 090

Totalt

9 674 414

5 794 201

Brott mot Community-riktlinjer som rapporterats till våra säkerhetsteam

Region

Innehålls- och kontoanmälningar

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Nordamerika

5 762 412

2 125 819

1 359 763

Europa

5 961 962

2 144 828

1 440 907

Övriga världen

8 041 950

2 007 799

1 316 070

Totalt

19 766 324

6 278 446

4 116 740

Proaktiv identifiering och tillämpning av våra Community-riktlinjer

Region

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Nordamerika

1 342 496

785 067

Europa

670 646

422 012

Övriga världen

1 382 826

696 364

Totalt

3 395 968

1 709 224

Moderering av annonser

Snap är fast beslutna att säkerställa att alla annonser fullt ut följer våra annonsvillkor. Vi tror på ett ansvarsfullt tillvägagångssätt för annonsering, att skapa en säker upplevelse för alla Snapchattare. Vi går igenom alla annonser och ger dem vårt godkännande. Dessutom förbehåller vi oss rätten att ta bort annonser, inklusive som svar på användarfeedback, som vi tar på allvar. 


Nedan har vi inkluderat insyn i vår moderering av betalda annonser, som rapporteras till att de har publicerats på Snapchat. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du hitta Snapchats annonsgallerivalues.snap.com under fliken ”Transparens”.

Totalt antal rapporterade annonser

Totalt antal borttagna annonser

67 789

16 410

Regeringsförfrågningar och meddelanden om att ta bort upphovsrättsskyddat material

Om insynsrapportering

Ordlista för insynsrapportering