Snap Values
Gennemsigtighedsrapport
1. juli 2024 - 31. december 2024

Udgivet:

20. juni 2025

Opdateret:

1. juli 2025

Vi udgiver denne gennemsigtighedsrapport to gange om året for at give indsigt i Snaps sikkerhedsindsats. Som en del af vores engagement i sikkerhed og gennemsigtighed bestræber vi os hele tiden på at gøre disse rapporter mere omfattende og informative for de mange interessenter, der bekymrer sig meget om vores indholdsmoderation, retshåndhævelsespraksis og Snapchat-fællesskabets sikkerhed og trivsel. 

Denne gennemsigtighedsrapport dækker anden halvdel af 2024 (1. juli - 31. december). Vi deler globale data om rapporter fra brugere og proaktiv opdagelse af Snap; håndhævelse af vores sikkerhedsteams på tværs af specifikke kategorier af overtrædelser af Retningslinjer for fællesskabet; hvordan vi reagerede på anmodninger fra retshåndhævende myndigheder og regeringer; og hvordan vi reagerede på meddelelser om krænkelse af ophavsret og varemærker. Vi giver også landespecifikke indsigter i en række linkede sider.

Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.

Bemærk venligst, at den mest opdaterede version af denne gennemsigtighedsrapport er den engelske version.

Oversigt over vores tillids- og sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet

Vores sikkerhedsteams håndhæver vores Retningslinjer for fællesskabet både proaktivt (ved hjælp af automatiserede opdagelsesværktøjer) og reaktivt (som svar på rapporter), som beskrevet nærmere i de følgende afsnit i denne rapport. I denne rapporteringscyklus (2. halvår 2024) gennemførte vores sikkerhedsteams følgende antal håndhævelser:

Samlet antal håndhævelser

Samlede unikke konti håndhævet

10.032.110

5.698.212

Nedenfor er en oversigt over de forskellige typer af overtrædelser af Retningslinjer for fællesskabet, herunder den gennemsnitlige "behandlingstid" mellem det tidspunkt, hvor vi opdagede overtrædelsen (enten proaktivt eller ved modtagelse af en rapport), og det tidspunkt, hvor vi traf endegyldige foranstaltninger med hensyn til det relevante indhold eller den relevante konto:

Årsag til politik

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling

Seksuelt indhold

3.860.331

2.099.512

2

Seksuel udnyttelse af børn

961.359

577.682

23

Chikane og mobning

2.716.966

2.019.439

7

Trusler og vold

199.920

156.578

8

Selvskade og selvmord

15.910

14.445

10

Falske oplysninger

6.539

6.176

1

Falsk identitet

8.798

8.575

2

Spam

357.999

248.090

1

Stoffer

1.113.629

718.952

6

Våben

211.860

136.953

1

Andre lovregulerede produkter

247.535

177.643

8

Hadtale

324.478

272.025

27

Terrorisme og voldelig ekstremisme

6.786

4.010

5

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Historie visninger på Snapchat indeholdt 1 indhold, der var i strid med vores Retningslinjer for fællesskabet.

Overtrædelser af Retningslinjerne for fællesskabet rapporteret til vores tillids- og sikkerhedsteams

Fra 1. juli til 31. december 2024 foretog Snaps sikkerhedsteams i alt 6.346.508 håndhævelsesaktioner globalt som svar på rapporter i appen om overtrædelser af vores Retningslinjer for fællesskabet, herunder håndhævelser mod 4.075.838 unikke konti. Mediantiden for vores sikkerhedsteams til at træffe håndhævelsesforanstaltninger som svar på disse rapporter var ca. 6 minutter. En udspecificering pr. anmeldelseskategori fremgår nedenfor.

Samlede indholds- og kontorapporteringer

Samlet antal håndhævelser

Samlede unikke konti håndhævet

19.379.848

6.346.508

4.075.838

Årsag til politik

Indholds- og kontorapporteringer

Samlet antal håndhævelser

% af det samlede antal rapporter håndhævet af Snap

Samlede unikke konti håndhævet

Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling

Seksuelt indhold

5.251.375

2.042.044

32,20 %

1.387.749

4

Seksuel udnyttelse af børn

1.224.502

469.389

7,40 %

393.384

133

Chikane og mobning

6.377.555

2.702.024

42,60 %

2.009.573

7

Trusler og vold

1.000.713

156.295

2,50 %

129.077

8

Selvskade og selvmord

307.660

15.149

0,20 %

13.885

10

Falske oplysninger

536.886

6.454

0,10 %

6.095

1

Falsk identitet

678.717

8.790

0,10 %

8.569

2

Spam

1.770.216

180.849

2,80 %

140.267

1

Stoffer

418.431

244.451

3,90 %

159.452

23

Våben

240.767

6.473

0,10 %

5.252

1

Andre lovregulerede produkter

606.882

199.255

3,10 %

143.560

8

Hadtale

768.705

314.134

4,90 %

263.923

27

Terrorisme og voldelig ekstremisme

197.439

1.201

<0,1 %

1.093

4

Sammenlignet med den foregående rapporteringsperiode reducerede vi den gennemsnitlige ekspeditionstid på tværs af alle politikkategorier med 90 %. Denne reduktion skyldtes i høj grad en fælles indsats for at udvide vores gennemgangskapacitet og for at forbedre vores prioritering af rapporter baseret på skadens alvor. Vi foretog også flere målrettede ændringer af vores sikkerhedsindsats i rapporteringsperioden, som havde indflydelse på de data, der rapporteres her, herunder udvidelsen af vores indsats for at håndhæve konti for brugernavne og visningsnavne, der overtræder vores Retningslinjer for fællesskabet, indførelsen af øget rapportering og beskyttelse af fællesskaber på Snapchat og indførelsen af rapporteringsmuligheder for yderligere typer medier, såsom voicenotes, direkte til os i appen. 

Disse ændringer samt andre sikkerhedsindsatser og eksterne kræfter påvirkede især visse politikområder sammenlignet med den foregående rapporteringsperiode. Disse politik-kategorier omfatter: Indhold relateret til mistanke om seksuel udnyttelse og misbrug af børn (CSEA), skadelig falsk information og spam. Specifikt:

  • CSEA: I anden halvdel af 2024 observerede vi et fald på 12 % i CSEA-relaterede rapporter og reducerede vores mediantid for at reagere på rapporteret CSEA med 99 %. Disse tendenser er i høj grad drevet af fortsatte fremskridt i vores proaktive opsporingsindsats, som gjorde det muligt for os at fjerne CSEA-indhold, før det kunne rapporteres til os, og forbedringer, vi har foretaget i vores processer for at gennemgå og handle på rapporter om CSEA mere effektivt. Selv med disse forbedringer er vores CSEA-behandlingstid højere end på andre politikområder, fordi indholdet er underlagt en specialiseret proces, der omfatter dobbelt gennemgang med et udvalgt team af specialuddannede agenter.

  • Skadelig falsk information: Vi observerede en stigning på 26 % i den rapporterede mængde af rapporter relateret til skadelig falsk information, primært drevet af politiske begivenheder, herunder det amerikanske valg i november 2024.

  • Spam: I denne rapporteringsperiode oplevede vi et fald på ca. 50 % i det samlede antal håndhævelser og et fald på ca. 46 % i det samlede antal unikke konti, der blev håndhævet som reaktion på rapporter om mistænkt spam, hvilket afspejler forbedringer i vores proaktive opdagelses- og håndhævelsesværktøjer. Dette er en fortsættelse af vores bestræbelser på at målrette spam gennem kontosignaler og fjerne spamaktører tidligere i deres aktivitet på platformen. Denne indsats var allerede i gang i den sidste rapporteringsperiode, hvor det samlede antal håndhævelser og det samlede antal unikke konti, der blev håndhævet for spam, faldt med henholdsvis ~65 % og ~60 %.

Vores indsats for proaktivt at registrere og håndhæve reglerne i forbindelse med overtrædelser af vores Retningslinjer for fællesskabet

Proaktiv registrering og håndhævdelse af vores Retningslinjer for fællesskabet


Vi bruger automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores Retningslinjer for fællesskabet. Disse værktøjer omfatter hash-matching-teknologi (herunder PhotoDNA og Googles Child Sexual Abuse Imagery (CSAI) Match), Googles Content Safety API og anden tilpasset teknologi, der er designet til at opdage krænkende tekst og medier, nogle gange ved hjælp af kunstig intelligens og maskinlæring.

I anden halvdel af 2024 foretog vi følgende håndhævelsesforanstaltninger efter proaktivt at have opdaget overtrædelser af vores retningslinjer for brugerne ved hjælp af automatiserede opdagelsesværktøjer:

Samlet antal håndhævelser

Samlede unikke konti håndhævet

3.685.602

1.845.125

Årsag til politik

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling

Seksuelt indhold

1.818.287

828.590

<1

Seksuel udnyttelse af børn

491.970

188.877

1

Chikane og mobning

14.942

11.234

8

Trusler og vold

43.625

29.599

9

Selvskade og selvmord

Snap Legal

624

9

Falske oplysninger

85

81

10

Falsk identitet

8

6

19

Spam

177.150

110.551

<1

Stoffer

869.178

590.658

5

Våben

205.387

133.079

<1

Andre lovregulerede produkter

48.280

37.028

9

Hadtale

10.344

8.683

10

Terrorisme og voldelig ekstremisme

5.585

2.951

21

Bekæmpelse af seksuel udnyttelse og misbrug af børn 

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for fællesskabet. At forebygge, opdage og udrydde CSEA på vores platform er en topprioritet for Snap, og vi udvikler løbende vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi bruger aktive teknologiske detektionsværktøjer til at hjælpe med at identificere CSEA-relateret indhold. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Googles CSAI Match til at identificere kendte ulovlige billeder og videoer af henholdsvis CSEA) og Google Content Safety API (til at identificere nye, "aldrig før-hashede" ulovlige billeder). Derudover bruger vi i nogle tilfælde adfærdssignaler til at håndhæve mod andre mistænkte CSEA-aktiviteter. Vi rapporterer CSEA-relateret indhold til det amerikanske National Center for Missing and Exploited Children (NCMEC) som krævet af loven. NCMEC koordinerer derefter med national eller international retshåndhævelse, hvis det er nødvendigt.

I anden halvdel af 2024 foretog vi følgende handlinger, da vi identificerede CSEA på Snapchat (enten proaktivt eller efter at have modtaget en rapport):


Samlet indhold håndhævet

Samlet antal konti deaktiveret

Samlet antal indsendelser til NCMEC*

1.228.929

242.306

417.842

*Bemærk, at hver indsendelse til NCMEC kan indeholde flere dele af indholdet. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er håndhævet.

Vores indsats for at give ressourcer og støtte til Snapchattere i nød

Snapchat giver venner mulighed for at hjælpe hinanden i svære tider ved at stille ressourcer og støtte til rådighed for Snapchattere i nød. 

Vores Her for dig søgeværktøj giver ressourcer fra eksperter, når brugerne søger efter bestemte emner relateret til mental sundhed, angst, depression, stress, selvmordstanker, sorg og mobning. Vi har også udviklet en side dedikeret til økonomisk sexafpresning og andre seksuelle risici og skader i et forsøg på at støtte dem, der er i nød. Vores globale liste over sikkerhedsressourcer er offentligt tilgængelig for alle Snapchattere i vores Hub for privatliv, sikkerhed og politik. 
Når vores sikkerhedsteams bliver opmærksomme på en Snapchatter i nød, er de udrustet til at levere ressourcer til forebyggelse af selvskade og støtte og til at underrette alarmtjenesterne, hvis det er nødvendigt. De ressourcer, vi deler, er tilgængelige på vores globale liste over sikkerhedsressourcer, som er tilgængelig for alle Snapchattere.

Samlet antal gange ressourcer om selvmord delt

64.094

Klager

Nedenfor giver vi oplysninger om de klager, vi har modtaget fra brugere, der har anmodet om en gennemgang af vores beslutning om at låse deres konto i anden halvdel af 2024:

Årsag til politik

Samlet antal klager

Genindsættelser i alt

Samlet antal fastholdte beslutninger

Median-behandlingstiden (dage) til behandling af klager

I ALT

493.782

35.243

458.539

5

Seksuelt indhold

162.363

6.257

156.106

4

Seksuel udnyttelse af børn

102.585

15.318

87.267

6

Chikane og mobning

53.200

442

52.758

7

Trusler og vold

4.238

83

4.155

5

Selvskade og selvmord

31

1

30

5

Falske oplysninger

3

0

3

<1

Falsk identitet

Augmented Reality

33

_Core

7

Spam

19.533

5.090

14.443

9

Stoffer

133.478

7.598

125.880

4

Våben

4.678

136

4.542

6

Andre lovregulerede produkter

9.153

168

8.985

6

Hadtale

3.541

Snapchat

3.427

7

Terrorisme og voldelig ekstremisme

132

3

129

9

Oversigt over regioner og lande

Dette afsnit giver et overblik over vores sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet, både proaktivt og som reaktion på rapporter om overtrædelser i appen, i et udvalg af geografiske regioner. Vores Retningslinjer for fællesskabet gælder for alt indhold på Snapchat - og for alle Snapchattere - over hele verden, uanset hvor de befinder sig.

Oplysninger om individuelle lande, herunder alle EU-medlemsstater, er tilgængelige til download via den vedhæftede CSV-fil.


Oversigt over vores sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet 

Region

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Nordamerika

3.828.389

2.117.048

Europa

2.807.070

1.735.054

Resten af verden

3.396.651

1.846.110

I alt

10.032.110

5.698.212

Overtrædelser af Retningslinjer for fællesskabet rapporteret til vores sikkerhedsteam

Region

Indholds- og kontorapporteringer

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Nordamerika

5.916.815

2.229.465

1.391.304

Europa

5.781.317

2.085.109

1.378.883

Resten af verden

7.681.716

2.031.934

1.319.934

I alt

19.379.848

6.346.508

4.090.121

Proaktiv registrering og håndhævelse af vores Retningslinjer for fællesskabet

Samlet antal håndhævelser

Samlede unikke konti håndhævet

1.598.924

837.012

721.961

417.218

1.364.717

613.969

3.685.602

1.868.199

Moderation af annoncer

Snap er forpligtet til at sikre, at alle annoncer er fuldt ud i overensstemmelse med vores Annoncepolitik. Vi tror på en ansvarlig tilgang til annoncering og på at skabe en sikker oplevelse for alle Snapchattere. Alle annoncer er underlagt gennemgang og godkendelse. Derudover forbeholder vi os retten til at fjerne annoncer, herunder som reaktion på brugerfeedback, som vi tager alvorligt. 


Nedenfor har vi inkluderet indsigt i vores moderation i forbindelse med betalte reklamer, der anmeldes til os efter deres offentliggørelse på Snapchat. Bemærk, at annoncer på Snapchat kan fjernes af en række årsager som beskrevet i Snaps Annoncepolitik, herunder vildledende indhold, voksenindhold, voldeligt eller foruroligende indhold, hadetale og krænkelse af intellektuel ejendom Derudover kan du nu finde Snapchats annoncegalleri i Snaps gennemsigtigheds-hub, der er tilgængelig direkte via navigationslinjen.

Samlet antal annoncer, som blev rapporteret

Samlet antal annoncer, som blev fjernet

43.098

17.833

Statslige anmodninger om sletning samt anmodninger om sletning vedrørende intellektuel ejendom

Om gennemsigtighedsrapportering

Ordliste til gennemsigtighedsrapporten