Snap Values
Insynsrapport
1 juli 2024 – 31 december 2024

Publicerad:

20 juni 2025

Uppdaterad:

1 juli 2025

Vi publicerar denna transparensrapport två gånger om året för att ge insyn i Snaps säkerhetsarbete. Som en del av vårt engagemang för säkerhet och transparens strävar vi ständigt efter att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig djupt om vår innehålls moderering, våra rutiner för brottsbekämpning samt säkerheten och välbefinnandet i Snapchat-communityn.

Denna transparensrapport omfattar andra halvåret 2024 (1 juli–31 december). Vi delar global data om rapporter av användare och proaktiv upptäckt av Snap; verkställigheter av våra säkerhetsteam över specifika kategorier av community-riktlinjer-överträdelser; hur vi svarade på förfrågningar från brottsbekämpning och regeringar och hur vi svarade på meddelanden om upphovsrätt och varumärkesintrång. Vi tillhandahåller också landsspecifika insikter i en serie länkade sidor.

För att hitta ytterligare säkerhets- och integritetsresurser på Snapchat, se vår Om insynsrapportering längst ner på sidan.

Observera att den mest uppdaterade versionen av denna insynsrapport är den engelska versionen.

Översikt över våra förtroende- och säkerhetsteams åtgärder för att genomdriva våra Community-riktlinjer.

Våra säkerhetsteam verkställer våra community-riktlinjer både proaktivt (via användning av automatiserade upptäcktsverktyg) och reaktivt (som svar på rapporter), som närmare beskrivs i följande avsnitt i denna rapport. I denna rapporteringscykel (H2 2024) tog våra säkerhetsteam följande nummer av verkställigheter:

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

10 032 110

5 698 212

Nedan följer en uppdelning per typ av överträdelser av communityriktlinjerna, inklusive den genomsnittliga ”handläggningstiden” mellan det att vi upptäckte överträdelsen (antingen proaktivt eller efter att ha mottagit en anmälan) och det att vi vidtog slutgiltiga åtgärder mot det aktuella innehållet eller kontot:

Policyskäl

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd

Sexuellt innehåll

3 860 331

2 099 512

2

Sexuellt utnyttjande av barn

961 359

577 682

23

Trakasserier och mobbning

2 716 966

2 019 439

7

Hot och våld

199 920

156 578

8

Självskadebeteende och självmord

15 910

14 445

10

Falsk information

6 539

6 176

1

Förfalskning

8 798

8 575

2

Spam

357 999

248 090

1

Läkemedel

1 113 629

718 952

6

Vapen

211 860

136 953

1

Andra reglerade varor

247 535

177 643

8

Hets mot folkgrupp

324 478

272 025

27

Terrorism och våldsam extremism

6 786

4 010

5

Under rapporteringsperioden uppgick andelen överträdelser (VVR) till 0,01 procent, vilket innebär att 1 av 10 000 visningar av Snap och Story på Snapchat innehöll innehåll som stred mot våra community riktlinjer.

Brott mot Community-riktlinjer som rapporterats till våra förtroende- och säkerhetsteam

Från 1 juli - 31 december 2024, som svar på rapporter i appen om överträdelser av våra community-riktlinjer, vidtog Snaps säkerhetsteam totalt 6 346 508 verkställighetsåtgärder globalt, inklusive verkställigheter mot 4 075 838 unika konton. Medianvaraktigheten för våra säkerhetsteam att vidta åtgärder som svar på dessa rapporter var cirka 6 minuter. En uppdelning per rapporteringskategori finns nedan.

Totalt antal innehålls- och kontoanmälningarTotalt antal innehålls- och kontoanmälningar

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

19 379 848

6 346 508

4 075 838

Policyskäl

Innehålls- och kontoanmälningar

Totalt antal verkställanden

% av det totala antalet anmälningar som föranlett åtgärd från Snap

Totalt antal unika konton som föranlett åtgärd

Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd

Sexuellt innehåll

5 251 375

2 042 044

32,20 %

1 387 749

4

Sexuellt utnyttjande av barn

1 224 502

469 389

7,40 %

393 384

133

Trakasserier och mobbning

6 377 555

2 702 024

42,60 %

2 009 573

7

Hot och våld

1 000 713

156 295

2,50 %

129 077

8

Självskadebeteende och självmord

307 660

15 149

0,20%

13 885

10

Falsk information

536 886

6 454

0,10%

6 095

1

Förfalskning

678 717

8 790

0,10%

8 569

2

Spam

1 770 216

180 849

2,80 %

140 267

1

Läkemedel

418 431

244 451

3,90 %

159 452

23

Vapen

240 767

6 473

0,10%

5 252

1

Andra reglerade varor

606 882

199 255

3,10 %

143 560

8

Hets mot folkgrupp

768 705

314 134

4,90 %

263 923

27

Terrorism och våldsam extremism

197 439

1 201

<0,1%

1 093

4

Jämfört med den föregående rapporteringsperioden minskade vi mediantiderna för alla policykategorier med i genomsnitt 90 %. Denna minskning berodde till stor del på en gemensam kraft att utöka vår recenssionsförmåga samt att bli bättre på hur vi prioriterar rapporter baserat på hur allvarligt skadan kan vara. Vi gjorde också flera riktade ändringar i våra säkerhetsinsatser under rapporteringsperioden, vilket hade en inverkan på de data som rapporteras här, inklusive utvidgningen av våra ansträngningar att verkställa konton för användarnamn och visningsnamn som bryter mot våra community-riktlinjer, införandet av ökad rapportering och skydd för communities på Snapchat och införandet av rapporteringsalternativ för ytterligare typer av media, såsom röstanteckningar, direkt till oss i appen.

Dessa ändringar, samt andra säkerhetsinsatser och externa krafter, påverkade särskilt vissa policyområden jämfört med den föregående rapporteringsperioden. Dessa policykategorier inkluderar: Innehåll relaterat till misstänkt sexuellt utnyttjande och övergrepp mot barn (CSEA), skadlig falsk information och spam. Specifikt:

  • CSEA: Under andra halvåret 2024 observerade vi en minskning med 12 % i CSEA-relaterade rapporter och minskade vår mediantid för att svara på rapporterad CSEA med 99 %. Dessa trender drivs till stor del av fortsatta framsteg i våra proaktiva upptäcktsansträngningar, som gjorde det möjligt för oss att ta bort CSEA-innehåll innan det kunde rapporteras till oss och förbättringar vi har gjort i våra processer för att granska och vidta åtgärder om rapporter om CSEA mer effektivt. Även med dessa förbättringar är vår CSEA-handläggningstid högre än inom andra policyområden eftersom innehållet är föremål för en specialiserad process som inkluderar dubbelgranskning med ett utvalt team av specialutbildade agenter.

  • Skadlig falsk information: Vi observerade en ökning med 26 % av den rapporterade volymen rapporter relaterade till skadlig falsk information, främst drivet av politiska händelser, inklusive det amerikanska valet i november 2024.

  • Spam: Denna rapporteringsperiod såg vi en minskning med ~50 % i totala verkställigheter och en minskning med ~46 % i totala antalet unika konton som verkställdes som svar på rapporter om misstänkt spam, vilket återspeglar förbättringar i våra proaktiva upptäckts- och verkställighetsverktyg. Detta är en fortsättning på våra ansträngningar att rikta in sig på spam via kontosignaler och ta bort spam-aktörer tidigare i sin aktivitet på plattformen. Denna ansträngning var redan på gång under den senaste rapporteringsperioden, under vilken totala verkställigheter och totala unika konton som verkställdes för spam minskade med ~65 % respektive ~60 %.

Våra ansträngningar att proaktivt upptäcka och verkställa mot brott mot våra Community-riktlinjer

Proaktiv identifiering och verkställighet av våra Community-riktlinjer


Vi använder automatiserade verktyg för att proaktivt upptäcka och i vissa fall verkställa mot överträdelser av våra community-riktlinjer. Dessa verktyg inkluderar hash-matchningsteknik (inklusive PhotoDNA och Googles Child Sexual Abuse Imagery (CSAI) Match), Googles Content Safety API och annan anpassad teknik utformad för att upptäcka missbruk av text och media, ibland utnyttjar artificiell intelligens och maskininlärning.

Under andra halvåret 2024 vidtog vi följande åtgärder efter att proaktivt ha upptäckt överträdelser av våra community-riktlinjer med automatiserade upptäcktsverktyg:

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

3 685 602

1 845 125

Policyskäl

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Medianhandläggningstid (minuter) från identifiering till slutlig åtgärd

Sexuellt innehåll

1 818 287

828 590

< 1

Sexuellt utnyttjande av barn

491 970

188 877

1

Trakasserier och mobbning

14 942

11 234

8

Hot och våld

43 625

29 599

9

Självskadebeteende och självmord

Snap Legal

624

9

Falsk information

85

81

10

Förfalskning

8

6

19

Spam

177 150

110 551

< 1

Läkemedel

869 178

590 658

5

Vapen

205 387

133 079

< 1

Andra reglerade varor

48 280

37 028

9

Hets mot folkgrupp

10 344

8 683

10

Terrorism och våldsam extremism

5 585

2 951

21

Bekämpning av sexuellt utnyttjande och övergrepp mot barn 

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, avskyvärt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och utrota CSEA på vår plattform är en högsta prioritet för Snap, och vi utvecklar kontinuerligt våra möjligheter att bekämpa dessa och andra brott.

Vi använder aktiva teknikverktyg för att identifiera innehåll. Dessa verktyg inkluderar hash-matchningsverktyg (inklusive PhotoDNA och Googles CSAI-matchning, för att identifiera kända olagliga bilder och videor av CSEA) och Google Content Safety API (för att identifiera nya, "aldrig tidigare hashade" olagliga bilder). Dessutom använder vi i vissa fall beteendesignaler för att verkställa mot annan misstänkt CSEA-aktivitet. Vi rapporterar CSEA-relaterat innehåll till U.S. National Center for Missing and Exploited Children (NCMEC), i enlighet med vad som krävs enligt lag. NCMEC samordnar sedan med inhemsk eller internationell brottsbekämpning, efter behov.

Under andra halvåret 2024 vidtog vi följande åtgärder efter att ha identifierat CSEA på Snapchat (antingen proaktivt eller efter att ha mottagit en rapport):


Totalt antal innehåll som föranlett åtgärd

Totalt antal konton som inaktiverats

Totalt antal anmälningar till NCMEC*

1 228 929

242 306

417 842

*Observera att varje anmälning till NCMEC kan innehålla flera stycken av innehåll. De totala antalet individuellt innehåll som anmälts till NCMEC är lika med det totala antalet innehåll som föranlett åtgärd.

Våra insatser för att tillhandahålla resurser och stöd till Snapchatters i behov

Snapchat ger vänner möjlighet att hjälpa varandra i svåra tider genom att tillhandahålla resurser och support för Snapchattare i behov.

Vårt sökverktyg Here For You tillhandahåller  resurser från experter när användare söker efter vissa ämnen relaterade till mental hälsa, ångest, depression, stress, självmordstankar, sorg och mobbning. Vi har också utvecklat en sida dedikerad till ekonomisk sexuell utpressning och andra sexuella risker och skador, i ett försök att stödja de som är i nöd och behov av hjälp. Vår globala lista med säkerhetsresurser är publikt tillgänlig för alla Snapchattare, i vår Privacy, Safety & Policy Hub.
När våra säkerhetsteam blir medvetna om en Snapchattare i nöd är de utrustade för att tillhandahålla  förebyggande av självskada och supportresurser och att meddela räddningstjänster efter behov. De resurser vi delar finns tillgängliga i vår globala lista över säkerhetsresurser, som är tillgänglig för alla Snapchattare.

Totalt antal gånger resurser om självmord delades

64 094

Överklaganden

Nedan tillhandahåller vi information om överklaganden vi fick från användare som begärde en granskning av vårt beslut att låsa sitt konto under andra halvåret 2024:

Policyskäl

Totalt antal överklaganden

Totalt antal återinföranden

Totalt antal beslut som upphävts

Mediantid för handläggning (dagar) för att behandla överklaganden

TOTALT

493 782

35 243

458 539

5

Sexuellt innehåll

162 363

6 257

156 106

4

Sexuellt utnyttjande av barn

102 585

15 318

87 267

6

Trakasserier och mobbning

53 200

442

52 758

7

Hot och våld

4 238

83

4 155

5

Självskadebeteende och självmord

31

1

30

5

Falsk information

3

0

3

< 1

Förfalskning

Augmented Reality

33

_Core

7

Spam

19 533

5 090

14 443

9

Läkemedel

133 478

7 598

125 880

4

Vapen

4 678

136

4 542

6

Andra reglerade varor

9 153

168

8 985

6

Hets mot folkgrupp

3 541

Snapchat

3 427

7

Terrorism och våldsam extremism

132

3

129

9

Regional och landsöversikt

Detta avsnitt ger en översikt över våra säkerhetsteams åtgärder för att verkställa våra community-riktlinjer, både proaktivt och som svar på rapporter i appen om överträdelser, i ett urval av geografiska regioner. Våra communityriktlinjer gäller för allt innehåll på Snapchat – och för alla Snapchatters – över hela världen, oavsett plats.

Information för enskilda länder, inklusive alla EU:s medlemsstater, är tillgänglig för nedladdning via den bifogade CV-filen.


Översikt över våra säkerhetsteams åtgärder för att verkställa våra Community-riktlinjer 

Region

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Nordamerika

3 828 389

2 117 048

Europa

2 807 070

1 735 054

Övriga världen

3 396 651

1 846 110

Totalt

10 032 110

5 698 212

Överträdelser av communityriktlinjer som rapporterats till våra säkerhetsteam

Region

Innehålls- och kontoanmälningar

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

Nordamerika

5 916 815

2 229 465

1 391 304

Europa

5 781 317

2 085 109

1 378 883

Övriga världen

7 681 716

2 031 934

1 319 934

Totalt

19 379 848

6 346 508

4 090 121

Proaktiv identifiering och tillämpning av våra Community-riktlinjer

Totalt antal verkställanden

Totalt antal unika konton som föranlett åtgärd

1 598 924

837 012

721 961

417 218

1 364 717

613 969

3 685 602

1 868 199

Moderering av annonser

Snap är fast beslutna att säkerställa att alla annonser fullt ut följer våra annonsvillkor. Vi tror på ett ansvarsfullt tillvägagångssätt för annonsering, att skapa en säker upplevelse för alla Snapchattare. Vi går igenom alla annonser och ger dem vårt godkännande. Dessutom förbehåller vi oss rätten att ta bort annonser, inklusive som svar på användarfeedback, som vi tar på allvar. 


Nedan har vi inkluderat insyn i vår moderering av betalda annonser, som rapporteras till att de har publicerats på Snapchat. Observera att annonser på Snapchat kan tas bort av en mängd olika skäl som beskrivs i Snaps annonsvillkor, inklusive bedrägligt innehåll, vuxeninnehåll, våldsamt eller störande innehåll, hatretorik och intrång i immateriella rättigheter. Dessutom kan du nu hitta Snapchats annonsgalleri i Snaps transparenshub, tillgängligt direkt via navigeringsfältet.

Totalt antal rapporterade annonser

Totalt antal borttagna annonser

43 098

17 833

Regeringsförfrågningar och meddelanden om att ta bort upphovsrättsskyddat material

Om insynsrapportering

Ordlista för insynsrapportering