1 december 2025
1 december 2025
Vi publicerar denna transparensrapport två gånger om året för att ge insyn i Snaps säkerhetsarbete. Som en del av vårt engagemang för säkerhet och transparens strävar vi ständigt efter att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig djupt om vår innehålls moderering, vår strategi för brottsbekämpning samt säkerheten och välbefinnandet i Snapchat-communityn.
Denna insynsrapport täcker första halvåret 2025 (1 januari - 30 juni). Vi delar global data om rapporter av användare och proaktiv upptäckt av Snap; verkställigheter av våra säkerhetsteam över specifika kategorier av community-riktlinjer-överträdelser; hur vi svarade på förfrågningar från brottsbekämpning och regeringar och hur vi svarade på meddelanden om upphovsrätt och varumärkesintrång. Vi tillhandahåller också landsspecifika insikter i en serie länkade sidor.
För att hitta ytterligare säkerhets- och integritetsresurser på Snapchat, se vår Om insynsrapportering längst ner på sidan.
Observera att den mest uppdaterade versionen av denna insynsrapport är den engelska versionen.
Översikt över våra förtroende- och säkerhetsteams åtgärder för att genomdriva våra Community-riktlinjer.
Våra säkerhetsteam verkställer våra community-riktlinjer både proaktivt (via användning av automatiserade upptäcktsverktyg) och reaktivt (som svar på rapporter), som närmare beskrivs i följande avsnitt i denna rapport. I denna rapporteringscykel (H1 2025) vidtog våra säkerhetsteam följande antal åtgärder:
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
9 674 414
5 794 201
Nedan finns en uppdelning per typ av brott mot våra Community-riktlinjer, inklusive median-"handläggningstiden" mellan den tid vi upptäckte brottet (antingen proaktivt eller efter mottagande av en rapport) och den tid vi vidtog slutliga åtgärder för det relevanta innehållet eller kontot:
Policyskäl
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd
Sexuellt innehåll
5 461 419
3 233 077
1
Sexuellt utnyttjande & övergrepp på barn
1 095 424
733 106
5
Trakasserier och mobbning
713 448
594 302
3
Hot och våld
187 653
146 564
3
Självskadebeteende och självmord
47 643
41 216
5
Falsk information
2 088
2 004
1
Förfalskning
7 138
6 881
< 1
Spam
267 299
189 344
1
Läkemedel
1 095 765
726 251
7
Vapen
251 243
173 381
1
Andra reglerade varor
183 236
126 952
4
Hets mot folkgrupp
343 051
284 817
6
Terrorism och våldsam extremism
10 970
6 783
2
Uppgifterna om totala tillämpningar inkluderar åtgärder som vidtagits av Snap efter granskning av rapporter i appen som skickats in via Snapchat. Detta representerar den stora majoriteten av de åtgärder som gjorts av Snaps säkerhetsteam. Denna siffra exkluderar de flesta åtgärder som gjorts som ett resultat av undersökningar baserade på rapporter som gjorts till Snap via vår supportsida eller andra mekanismer (t.ex. via e-post), eller som ett resultat av vissa proaktiva undersökningar som genomförts av våra säkerhetsteam. Dessa exkluderade åtgärder representerade mindre än 0,5 % av verkställighetsvolymen under första halvåret 2025.
Under rapporteringsperioden uppgick andelen överträdelser (VVR) till 0,01 procent, vilket innebär att 1 av 10 000 visningar av Snap och Story på Snapchat innehöll innehåll som stred mot våra community riktlinjer. Bland åtgärder för vad vi anser vara ”Allvarliga skador” såg vi en VVR på 0,003 %. En uppdelning av VVR per policyskäl tillhandahålls i tabellen nedan.
Policyskäl
VVR
Sexuellt innehåll
0,00482 %
Sexuellt utnyttjande & övergrepp på barn
0,00096 %
Trakasserier och mobbning
0,00099 %
Hot och våld
0,00176 %
Självskadebeteende och självmord
0,00009 %
Falsk information
0,00002 %
Förfalskning
0,00009 %
Spam
0,00060 %
Läkemedel
0,00047 %
Vapen
0,00083 %
Andra reglerade varor
0,00104 %
Hets mot folkgrupp
0,00025 %
Terrorism och våldsam extremism
0,00002 %
Brott mot Community-riktlinjer som rapporterats till våra förtroende- och säkerhetsteam
Från 1 januari - 30 juni 2025, som svar på 19 766 324 rapporter i appen om överträdelser av våra community-riktlinjer, vidtog Snaps säkerhetsteam totalt 6 278 446 verkställighetsåtgärder globalt, inklusive verkställighet mot 4 104 624 unika konton. Denna rapporteringsvolym i appen exkluderar rapporter på supportwebbplatsen och e-post, som utgör mindre än 1 % av den totala rapporteringsvolymen. Medianvaraktigheten för våra säkerhetsteam att vidta åtgärder som svar på dessa rapporter var cirka 2 minuter. En uppdelning per policyskäl tillhandahålls nedan. (Obs! I tidigare rapporter hänvisade vi ibland till detta som "rapporteringskategorin". Framöver använder vi termen "policyskäl" vilket vi anser återspeglar uppgifternas natur mer korrekt – eftersom våra säkerhetsteam strävar efter att tillämpa gällande policyskäl, oavsett vilken rapporteringskategori som identifierats av den person som skickar in rapporten.)
Totalt antal innehålls- och kontoanmälningar
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Totalt
19 766 324
6 278 446
4 104 624
Policyskäl
Totalt antal innehålls- och kontoanmälningar
Totalt antal verkställanden
Procent av det totala antalet anmälningar som föranlett åtgärd från Snap
Totalt antal unika konton som föranlett åtgärd
Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd
Sexuellt innehåll
7 315 730
3 778 370
60,2 %
2 463 464
1
Sexuellt utnyttjande & övergrepp på barn
1 627 097
695 679
11,1 %
577 736
10
Trakasserier och mobbning
4 103 797
700 731
11,2 %
584 762
3
Hot och våld
997 346
147 162
2,3 %
120 397
2
Självskadebeteende och självmord
350 775
41 150
0,7 %
36 657
3
Falsk information
606 979
2 027
0,0 %
1 960
1
Förfalskning
745 874
7 086
0,1 %
6 837
< 1
Spam
1 709 559
122 499
2,0 %
94 837
1
Läkemedel
481 830
262 962
4,2 %
176 799
5
Vapen
271 586
39 366
0,6 %
32 316
1
Andra reglerade varor
530 449
143 098
2,3 %
98 023
3
Hets mot folkgrupp
817 262
337 263
5,4 %
280 682
6
Terrorism och våldsam extremism
208 040
1 053
0,0 %
Lens Studio
2
Under första halvåret 2025 fortsatte vi att minska mediantiderna för handläggning för alla policykategorier och minskade dem med i genomsnitt mer än 75 % jämfört med den föregående rapporteringsperioden, till 2 minuter. Denna minskning berodde till stor del på en fortsatt samordnad ansträngning för att förbättra vår prioritering av rapporter för granskning baserat på hur allvarlig skadan kan vara, och automatiserad granskning.
Vi gjorde också flera riktade ändringar av våra säkerhetsinsatser under rapporteringsperioden, vilket hade en inverkan på de data som rapporterades här, inklusive att stärka våra policyer om olaglig aktivitet som involverar vapen. Vi observerade en ökning av rapporter och åtgärder i kategorin sexuellt utnyttjande av barn, vilket främst drevs av en ökning av sexualiserat eller känsligt innehåll som involverar minderåriga som bryter mot våra policyer men inte är olagligt i USA eller föremål för rapportering till U.S. National Center for Missing Exploited Children (NCMEC). Ökningen av volymen relaterad till sexuellt innehåll (och minskningen av volymen relaterad till trakasserier) drevs av vår omklassificering av innehåll associerat med sexuella trakasserier från trakasserier till sexuellt innehåll.
Våra ansträngningar att proaktivt upptäcka och verkställa mot brott mot våra Community-riktlinjer
Vi använder automatiserade verktyg för att proaktivt upptäcka och i vissa fall verkställa mot överträdelser av våra community-riktlinjer. Dessa verktyg inkluderar hash-matching teknik (inklusive PhotoDNA och Googles Child Sexual Abuse Imagery (CSAI)), Googles Content Safety API och annan patentskyddad teknik utformad för att upptäcka olaglig och kränkande text och media, och utnyttjar ibland artificiell intelligens och maskininlärning. Våra proaktiva upptäcktssiffror fluktuerar rutinmässigt som ett resultat av ändringar i användarbeteende och förbättringar av våra upptäcktsfunktioner och ändringar av våra policyer.
Under första halvåret 2025 vidtog vi följande åtgärder efter att proaktivt ha upptäckt överträdelser av våra community-riktlinjer med automatiserade upptäcktsverktyg:
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Totalt
3 395 968
1 709 224
Policyskäl
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd
Sexuellt innehåll
1 683 045
887 059
0
Sexuellt utnyttjande & övergrepp på barn
399 756
162 017
2
Trakasserier och mobbning
12 716
10 412
8
Hot och våld
40 489
27 662
6
Självskadebeteende och självmord
6 493
4 638
7
Falsk information
61
44
20
Förfalskning
52
44
34
Spam
144 800
96 500
0
Läkemedel
832 803
578 738
7
Vapen
211 877
144 455
0
Andra reglerade varor
40 139
31 408
8
Hets mot folkgrupp
5 788
4 518
6
Terrorism och våldsam extremism
9 917
5 899
5
Bekämpning av sexuellt utnyttjande och övergrepp mot barn
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota CSEA på vår plattform är en högsta prioritet för Snap, och vi utvecklar kontinuerligt våra möjligheter att bekämpa dessa och andra brott.
Vi använder aktiva teknikverktyg för att identifiera innehåll. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Googles CSAI-matchning, för att identifiera kända olagliga bilder och videor av CSEA) och Google Content Safety API (för att identifiera nya, "aldrig tidigare hashade" olagliga bilder). Dessutom använder vi i vissa fall beteendesignaler för att verkställa mot annan misstänkt CSEA-aktivitet. Vi rapporterar CSEA-relaterat innehåll till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC samordnar sedan med inhemsk eller internationell brottsbekämpning, efter behov.
Under första halvåret 2025 vidtog vi följande åtgärder efter att ha identifierat CSEA på Snapchat (antingen proaktivt eller efter att ha mottagit en rapport):
Totalt antal innehåll som föranlett åtgärd
Totalt antal konton som inaktiverats
Totalt antal anmälningar till NCMEC*
994 337
187 387
321 587
*Observera att varje anmälning till NCMEC kan innehålla flera stycken av innehåll. De totala antalet individuellt innehåll som anmälts till NCMEC är lika med det totala antalet innehåll som föranlett åtgärd.
Våra insatser för att tillhandahålla resurser och stöd till Snapchatters i behov
Snapchat ger vänner möjlighet att hjälpa varandra i svåra tider genom att tillhandahålla resurser och support för Snapchattare i behov.
Vårt sökverktyg Here For You tillhandahåller resurser från experter när användare söker efter vissa ämnen relaterade till mental hälsa, ångest, depression, stress, självmordstankar, sorg och mobbning. Vi har också utvecklat en sida dedikerad till bekämpning av finansiellt motiverad sexuell utpressning och andra sexuella risker och skador, i ett försök att stödja de som är i nöd.
När våra säkerhetsteam blir medvetna om en Snapchattare i nöd är de utrustade för att tillhandahålla resurser för förebyggande av självskadebeteende och support, och för att meddela räddningstjänster vid behov. De resurser vi delar är tillgängliga på vår globala lista över säkerhetsresurser, som är offentligt tillgänglig för alla Snapchattare på vår hubb för sekretess, säkerhet och policy.
Totalt antal gånger resurser om självmord delades
36 162
Överklaganden
Nedan tillhandahåller vi information om överklaganden vi fick från användare som begärde en granskning av vårt beslut att låsa sitt konto under första halvåret 2025:
Policyskäl
Totalt antal överklaganden
Totalt antal återinföranden
Totalt antal beslut som upphävts
Mediantid för handläggning (dagar) för att behandla överklaganden
Totalt
437 855
22 142
415 494
1
Sexuellt innehåll
134 358
6 175
128 035
1
Sexuellt utnyttjande & övergrepp på barn*
89 493
4 179
85 314
< 1
Trakasserier och mobbning
42 779
281
42 496
1
Hot och våld
3 987
77
3 909
1
Självskadebeteende och självmord
145
2
143
1
Falsk information
4
0
4
1
Förfalskning
1 063
33
1 030
< 1
Spam
13 730
3 140
10 590
1
Läkemedel
128 222
7 749
120 409
1
Vapen
10 941
314
10 626
1
Andra reglerade varor
9 719
124
9 593
1
Hets mot folkgrupp
3 310
67
3 242
1
Terrorism och våldsam extremism
104
1
103
1
Regional och landsöversikt
Detta avsnitt ger en översikt över våra säkerhetsteams åtgärder för att verkställa våra community-riktlinjer, både proaktivt och som svar på rapporter i appen om överträdelser, i ett urval av geografiska regioner. Våra communityriktlinjer gäller för allt innehåll på Snapchat – och för alla Snapchatters – över hela världen, oavsett plats.
Information för enskilda länder, inklusive alla EU:s medlemsstater, är tillgänglig för nedladdning via den bifogade CV-filen.
Region
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Nordamerika
3 468 315
2 046 888
Europa
2 815 474
1 810 223
Övriga världen
3 390 625
1 937 090
Totalt
9 674 414
5 794 201
Region
Innehålls- och kontoanmälningar
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Nordamerika
5 762 412
2 125 819
1 359 763
Europa
5 961 962
2 144 828
1 440 907
Övriga världen
8 041 950
2 007 799
1 316 070
Totalt
19 766 324
6 278 446
4 116 740
Region
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Nordamerika
1 342 496
785 067
Europa
670 646
422 012
Övriga världen
1 382 826
696 364
Totalt
3 395 968
1 709 224
Moderering av annonser
Snap är fast beslutna att säkerställa att alla annonser fullt ut följer våra annonsvillkor. Vi tror på ett ansvarsfullt tillvägagångssätt för annonsering, att skapa en säker upplevelse för alla Snapchattare. Vi går igenom alla annonser och ger dem vårt godkännande. Dessutom förbehåller vi oss rätten att ta bort annonser, inklusive som svar på användarfeedback, som vi tar på allvar.
Nedan har vi inkluderat insyn i vår moderering av betalda annonser, som rapporteras till att de har publicerats på Snapchat. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du hitta Snapchats annonsgalleri på values.snap.com under fliken ”Transparens”.
Totalt antal rapporterade annonser
Totalt antal borttagna annonser
67 789
16 410

























