20 juni 2025
1 juli 2025
Vi publicerar denna transparensrapport två gånger om året för att ge insyn i Snaps säkerhetsarbete. Som en del av vårt engagemang för säkerhet och transparens strävar vi ständigt efter att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig djupt om vår innehålls moderering, våra rutiner för brottsbekämpning samt säkerheten och välbefinnandet i Snapchat-communityn.
Denna transparensrapport omfattar andra halvåret 2024 (1 juli–31 december). Vi delar global data om rapporter av användare och proaktiv upptäckt av Snap; verkställigheter av våra säkerhetsteam över specifika kategorier av community-riktlinjer-överträdelser; hur vi svarade på förfrågningar från brottsbekämpning och regeringar och hur vi svarade på meddelanden om upphovsrätt och varumärkesintrång. Vi tillhandahåller också landsspecifika insikter i en serie länkade sidor.
För att hitta ytterligare säkerhets- och integritetsresurser på Snapchat, se vår Om insynsrapportering längst ner på sidan.
Observera att den mest uppdaterade versionen av denna insynsrapport är den engelska versionen.
Översikt över våra förtroende- och säkerhetsteams åtgärder för att genomdriva våra Community-riktlinjer.
Våra säkerhetsteam verkställer våra community-riktlinjer både proaktivt (via användning av automatiserade upptäcktsverktyg) och reaktivt (som svar på rapporter), som närmare beskrivs i följande avsnitt i denna rapport. I denna rapporteringscykel (H2 2024) tog våra säkerhetsteam följande nummer av verkställigheter:
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
10 032 110
5 698 212
Nedan följer en uppdelning per typ av överträdelser av communityriktlinjerna, inklusive den genomsnittliga ”handläggningstiden” mellan det att vi upptäckte överträdelsen (antingen proaktivt eller efter att ha mottagit en anmälan) och det att vi vidtog slutgiltiga åtgärder mot det aktuella innehållet eller kontot:
Policyskäl
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd
Sexuellt innehåll
3 860 331
2 099 512
2
Sexuellt utnyttjande av barn
961 359
577 682
23
Trakasserier och mobbning
2 716 966
2 019 439
7
Hot och våld
199 920
156 578
8
Självskadebeteende och självmord
15 910
14 445
10
Falsk information
6 539
6 176
1
Förfalskning
8 798
8 575
2
Spam
357 999
248 090
1
Läkemedel
1 113 629
718 952
6
Vapen
211 860
136 953
1
Andra reglerade varor
247 535
177 643
8
Hets mot folkgrupp
324 478
272 025
27
Terrorism och våldsam extremism
6 786
4 010
5
Under rapporteringsperioden uppgick andelen överträdelser (VVR) till 0,01 procent, vilket innebär att 1 av 10 000 visningar av Snap och Story på Snapchat innehöll innehåll som stred mot våra community riktlinjer.
Brott mot Community-riktlinjer som rapporterats till våra förtroende- och säkerhetsteam
Från 1 juli - 31 december 2024, som svar på rapporter i appen om överträdelser av våra community-riktlinjer, vidtog Snaps säkerhetsteam totalt 6 346 508 verkställighetsåtgärder globalt, inklusive verkställigheter mot 4 075 838 unika konton. Medianvaraktigheten för våra säkerhetsteam att vidta åtgärder som svar på dessa rapporter var cirka 6 minuter. En uppdelning per rapporteringskategori finns nedan.
Totalt antal innehålls- och kontoanmälningarTotalt antal innehålls- och kontoanmälningar
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
19 379 848
6 346 508
4 075 838
Policyskäl
Innehålls- och kontoanmälningar
Totalt antal verkställanden
% av det totala antalet anmälningar som föranlett åtgärd från Snap
Totalt antal unika konton som föranlett åtgärd
Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd
Sexuellt innehåll
5 251 375
2 042 044
32,20 %
1 387 749
4
Sexuellt utnyttjande av barn
1 224 502
469 389
7,40 %
393 384
133
Trakasserier och mobbning
6 377 555
2 702 024
42,60 %
2 009 573
7
Hot och våld
1 000 713
156 295
2,50 %
129 077
8
Självskadebeteende och självmord
307 660
15 149
0,20%
13 885
10
Falsk information
536 886
6 454
0,10%
6 095
1
Förfalskning
678 717
8 790
0,10%
8 569
2
Spam
1 770 216
180 849
2,80 %
140 267
1
Läkemedel
418 431
244 451
3,90 %
159 452
23
Vapen
240 767
6 473
0,10%
5 252
1
Andra reglerade varor
606 882
199 255
3,10 %
143 560
8
Hets mot folkgrupp
768 705
314 134
4,90 %
263 923
27
Terrorism och våldsam extremism
197 439
1 201
<0,1%
1 093
4
Jämfört med den föregående rapporteringsperioden minskade vi mediantiderna för alla policykategorier med i genomsnitt 90 %. Denna minskning berodde till stor del på en gemensam kraft att utöka vår recenssionsförmåga samt att bli bättre på hur vi prioriterar rapporter baserat på hur allvarligt skadan kan vara. Vi gjorde också flera riktade ändringar i våra säkerhetsinsatser under rapporteringsperioden, vilket hade en inverkan på de data som rapporteras här, inklusive utvidgningen av våra ansträngningar att verkställa konton för användarnamn och visningsnamn som bryter mot våra community-riktlinjer, införandet av ökad rapportering och skydd för communities på Snapchat och införandet av rapporteringsalternativ för ytterligare typer av media, såsom röstanteckningar, direkt till oss i appen.
Dessa ändringar, samt andra säkerhetsinsatser och externa krafter, påverkade särskilt vissa policyområden jämfört med den föregående rapporteringsperioden. Dessa policykategorier inkluderar: Innehåll relaterat till misstänkt sexuellt utnyttjande och övergrepp mot barn (CSEA), skadlig falsk information och spam. Specifikt:
CSEA: Under andra halvåret 2024 observerade vi en minskning med 12 % i CSEA-relaterade rapporter och minskade vår mediantid för att svara på rapporterad CSEA med 99 %. Dessa trender drivs till stor del av fortsatta framsteg i våra proaktiva upptäcktsansträngningar, som gjorde det möjligt för oss att ta bort CSEA-innehåll innan det kunde rapporteras till oss och förbättringar vi har gjort i våra processer för att granska och vidta åtgärder om rapporter om CSEA mer effektivt. Även med dessa förbättringar är vår CSEA-handläggningstid högre än inom andra policyområden eftersom innehållet är föremål för en specialiserad process som inkluderar dubbelgranskning med ett utvalt team av specialutbildade agenter.
Skadlig falsk information: Vi observerade en ökning med 26 % av den rapporterade volymen rapporter relaterade till skadlig falsk information, främst drivet av politiska händelser, inklusive det amerikanska valet i november 2024.
Spam: Denna rapporteringsperiod såg vi en minskning med ~50 % i totala verkställigheter och en minskning med ~46 % i totala antalet unika konton som verkställdes som svar på rapporter om misstänkt spam, vilket återspeglar förbättringar i våra proaktiva upptäckts- och verkställighetsverktyg. Detta är en fortsättning på våra ansträngningar att rikta in sig på spam via kontosignaler och ta bort spam-aktörer tidigare i sin aktivitet på plattformen. Denna ansträngning var redan på gång under den senaste rapporteringsperioden, under vilken totala verkställigheter och totala unika konton som verkställdes för spam minskade med ~65 % respektive ~60 %.
Våra ansträngningar att proaktivt upptäcka och verkställa mot brott mot våra Community-riktlinjer
Vi använder automatiserade verktyg för att proaktivt upptäcka och i vissa fall verkställa mot överträdelser av våra community-riktlinjer. Dessa verktyg inkluderar hash-matchningsteknik (inklusive PhotoDNA och Googles Child Sexual Abuse Imagery (CSAI) Match), Googles Content Safety API och annan anpassad teknik utformad för att upptäcka missbruk av text och media, ibland utnyttjar artificiell intelligens och maskininlärning.
Under andra halvåret 2024 vidtog vi följande åtgärder efter att proaktivt ha upptäckt överträdelser av våra community-riktlinjer med automatiserade upptäcktsverktyg:
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
3 685 602
1 845 125
Policyskäl
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd
Sexuellt innehåll
1 818 287
828 590
< 1
Sexuellt utnyttjande av barn
491 970
188 877
1
Trakasserier och mobbning
14 942
11 234
8
Hot och våld
43 625
29 599
9
Självskadebeteende och självmord
Snap Legal
624
9
Falsk information
85
81
10
Förfalskning
8
6
19
Spam
177 150
110 551
< 1
Läkemedel
869 178
590 658
5
Vapen
205 387
133 079
< 1
Andra reglerade varor
48 280
37 028
9
Hets mot folkgrupp
10 344
8 683
10
Terrorism och våldsam extremism
5 585
2 951
21
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota CSEA på vår plattform är en högsta prioritet för Snap, och vi utvecklar kontinuerligt våra möjligheter att bekämpa dessa och andra brott.
Vi använder aktiva teknikverktyg för att identifiera innehåll. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Googles CSAI-matchning, för att identifiera kända olagliga bilder och videor av CSEA) och Google Content Safety API (för att identifiera nya, "aldrig tidigare hashade" olagliga bilder). Dessutom använder vi i vissa fall beteendesignaler för att verkställa mot annan misstänkt CSEA-aktivitet. Vi rapporterar CSEA-relaterat innehåll till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC samordnar sedan med inhemsk eller internationell brottsbekämpning, efter behov.
Under andra halvåret 2024 vidtog vi följande åtgärder efter att ha identifierat CSEA på Snapchat (antingen proaktivt eller efter att ha mottagit en rapport):
Totalt antal innehåll som föranlett åtgärd
Totalt antal konton som inaktiverats
Totalt antal anmälningar till NCMEC*
1 228 929
242 306
417 842
*Observera att varje anmälning till NCMEC kan innehålla flera stycken av innehåll. De totala antalet individuellt innehåll som anmälts till NCMEC är lika med det totala antalet innehåll som föranlett åtgärd.
Våra insatser för att tillhandahålla resurser och stöd till Snapchatters i behov
Snapchat ger vänner möjlighet att hjälpa varandra i svåra tider genom att tillhandahålla resurser och support för Snapchattare i behov.
Vårt sökverktyg Here For You tillhandahåller resurser från experter när användare söker efter vissa ämnen relaterade till mental hälsa, ångest, depression, stress, självmordstankar, sorg och mobbning. Vi har också utvecklat en sida dedikerad till ekonomisk sexuell utpressning och andra sexuella risker och skador, i ett försök att stödja de som är i nöd och behov av hjälp. Vår globala lista med säkerhetsresurser är publikt tillgänlig för alla Snapchattare, i vår Privacy, Safety & Policy Hub.
När våra säkerhetsteam blir medvetna om en Snapchattare i nöd är de utrustade för att tillhandahålla förebyggande av självskada och supportresurser och att meddela räddningstjänster efter behov. De resurser vi delar finns tillgängliga i vår globala lista över säkerhetsresurser, som är tillgänglig för alla Snapchattare.
Totalt antal gånger resurser om självmord delades
64 094
Överklaganden
Nedan tillhandahåller vi information om överklaganden vi fick från användare som begärde en granskning av vårt beslut att låsa sitt konto under andra halvåret 2024:
Policyskäl
Totalt antal överklaganden
Totalt antal återinföranden
Totalt antal beslut som upphävts
Mediantid för handläggning (dagar) för att behandla överklaganden
TOTALT
493 782
35 243
458 539
5
Sexuellt innehåll
162 363
6 257
156 106
4
Sexuellt utnyttjande av barn
102 585
15 318
87 267
6
Trakasserier och mobbning
53 200
442
52 758
7
Hot och våld
4 238
83
4 155
5
Självskadebeteende och självmord
31
1
30
5
Falsk information
3
0
3
< 1
Förfalskning
Augmented Reality
33
_Core
7
Spam
19 533
5 090
14 443
9
Läkemedel
133 478
7 598
125 880
4
Vapen
4 678
136
4 542
6
Andra reglerade varor
9 153
168
8 985
6
Hets mot folkgrupp
3 541
Snapchat
3 427
7
Terrorism och våldsam extremism
132
3
129
9
Regional och landsöversikt
Detta avsnitt ger en översikt över våra säkerhetsteams åtgärder för att verkställa våra community-riktlinjer, både proaktivt och som svar på rapporter i appen om överträdelser, i ett urval av geografiska regioner. Våra communityriktlinjer gäller för allt innehåll på Snapchat – och för alla Snapchatters – över hela världen, oavsett plats.
Information för enskilda länder, inklusive alla EU:s medlemsstater, är tillgänglig för nedladdning via den bifogade CV-filen.
Region
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Nordamerika
3 828 389
2 117 048
Europa
2 807 070
1 735 054
Övriga världen
3 396 651
1 846 110
Totalt
10 032 110
5 698 212
Region
Innehålls- och kontoanmälningar
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
Nordamerika
5 916 815
2 229 465
1 391 304
Europa
5 781 317
2 085 109
1 378 883
Övriga världen
7 681 716
2 031 934
1 319 934
Totalt
19 379 848
6 346 508
4 090 121
Totalt antal verkställanden
Totalt antal unika konton som föranlett åtgärd
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Moderering av annonser
Snap är fast beslutna att säkerställa att alla annonser fullt ut följer våra annonsvillkor. Vi tror på ett ansvarsfullt tillvägagångssätt för annonsering, att skapa en säker upplevelse för alla Snapchattare. Vi går igenom alla annonser och ger dem vårt godkännande. Dessutom förbehåller vi oss rätten att ta bort annonser, inklusive som svar på användarfeedback, som vi tar på allvar.
Nedan har vi inkluderat insyn i vår moderering av betalda annonser, som rapporteras till att de har publicerats på Snapchat. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du nu hitta Snapchats annonsgalleri i Snaps transparenshub, tillgängligt direkt via navigeringsfältet.
Totalt antal rapporterade annonser
Totalt antal borttagna annonser
43 098
17 833