20. juni 2025
1. juli 2025
Vi udgiver denne gennemsigtighedsrapport to gange om året for at give indsigt i Snaps sikkerhedsindsats. Som en del af vores engagement i sikkerhed og gennemsigtighed bestræber vi os hele tiden på at gøre disse rapporter mere omfattende og informative for de mange interessenter, der bekymrer sig meget om vores indholdsmoderation, retshåndhævelsespraksis og Snapchat-fællesskabets sikkerhed og trivsel.
Denne gennemsigtighedsrapport dækker anden halvdel af 2024 (1. juli - 31. december). Vi deler globale data om rapporter fra brugere og proaktiv opdagelse af Snap; håndhævelse af vores sikkerhedsteams på tværs af specifikke kategorier af overtrædelser af Retningslinjer for fællesskabet; hvordan vi reagerede på anmodninger fra retshåndhævende myndigheder og regeringer; og hvordan vi reagerede på meddelelser om krænkelse af ophavsret og varemærker. Vi giver også landespecifikke indsigter i en række linkede sider.
Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.
Bemærk venligst, at den mest opdaterede version af denne gennemsigtighedsrapport er den engelske version.
Oversigt over vores tillids- og sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet
Vores sikkerhedsteams håndhæver vores Retningslinjer for fællesskabet både proaktivt (ved hjælp af automatiserede opdagelsesværktøjer) og reaktivt (som svar på rapporter), som beskrevet nærmere i de følgende afsnit i denne rapport. I denne rapporteringscyklus (2. halvår 2024) gennemførte vores sikkerhedsteams følgende antal håndhævelser:
Samlet antal håndhævelser
Samlede unikke konti håndhævet
10.032.110
5.698.212
Nedenfor er en oversigt over de forskellige typer af overtrædelser af Retningslinjer for fællesskabet, herunder den gennemsnitlige "behandlingstid" mellem det tidspunkt, hvor vi opdagede overtrædelsen (enten proaktivt eller ved modtagelse af en rapport), og det tidspunkt, hvor vi traf endegyldige foranstaltninger med hensyn til det relevante indhold eller den relevante konto:
Årsag til politik
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling
Seksuelt indhold
3.860.331
2.099.512
2
Seksuel udnyttelse af børn
961.359
577.682
23
Chikane og mobning
2.716.966
2.019.439
7
Trusler og vold
199.920
156.578
8
Selvskade og selvmord
15.910
14.445
10
Falske oplysninger
6.539
6.176
1
Falsk identitet
8.798
8.575
2
Spam
357.999
248.090
1
Stoffer
1.113.629
718.952
6
Våben
211.860
136.953
1
Andre lovregulerede produkter
247.535
177.643
8
Hadtale
324.478
272.025
27
Terrorisme og voldelig ekstremisme
6.786
4.010
5
I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Historie visninger på Snapchat indeholdt 1 indhold, der var i strid med vores Retningslinjer for fællesskabet.
Overtrædelser af Retningslinjerne for fællesskabet rapporteret til vores tillids- og sikkerhedsteams
Fra 1. juli til 31. december 2024 foretog Snaps sikkerhedsteams i alt 6.346.508 håndhævelsesaktioner globalt som svar på rapporter i appen om overtrædelser af vores Retningslinjer for fællesskabet, herunder håndhævelser mod 4.075.838 unikke konti. Mediantiden for vores sikkerhedsteams til at træffe håndhævelsesforanstaltninger som svar på disse rapporter var ca. 6 minutter. En udspecificering pr. anmeldelseskategori fremgår nedenfor.
Samlede indholds- og kontorapporteringer
Samlet antal håndhævelser
Samlede unikke konti håndhævet
19.379.848
6.346.508
4.075.838
Årsag til politik
Indholds- og kontorapporteringer
Samlet antal håndhævelser
% af det samlede antal rapporter håndhævet af Snap
Samlede unikke konti håndhævet
Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling
Seksuelt indhold
5.251.375
2.042.044
32,20 %
1.387.749
4
Seksuel udnyttelse af børn
1.224.502
469.389
7,40 %
393.384
133
Chikane og mobning
6.377.555
2.702.024
42,60 %
2.009.573
7
Trusler og vold
1.000.713
156.295
2,50 %
129.077
8
Selvskade og selvmord
307.660
15.149
0,20 %
13.885
10
Falske oplysninger
536.886
6.454
0,10 %
6.095
1
Falsk identitet
678.717
8.790
0,10 %
8.569
2
Spam
1.770.216
180.849
2,80 %
140.267
1
Stoffer
418.431
244.451
3,90 %
159.452
23
Våben
240.767
6.473
0,10 %
5.252
1
Andre lovregulerede produkter
606.882
199.255
3,10 %
143.560
8
Hadtale
768.705
314.134
4,90 %
263.923
27
Terrorisme og voldelig ekstremisme
197.439
1.201
<0,1 %
1.093
4
Sammenlignet med den foregående rapporteringsperiode reducerede vi den gennemsnitlige ekspeditionstid på tværs af alle politikkategorier med 90 %. Denne reduktion skyldtes i høj grad en fælles indsats for at udvide vores gennemgangskapacitet og for at forbedre vores prioritering af rapporter baseret på skadens alvor. Vi foretog også flere målrettede ændringer af vores sikkerhedsindsats i rapporteringsperioden, som havde indflydelse på de data, der rapporteres her, herunder udvidelsen af vores indsats for at håndhæve konti for brugernavne og visningsnavne, der overtræder vores Retningslinjer for fællesskabet, indførelsen af øget rapportering og beskyttelse af fællesskaber på Snapchat og indførelsen af rapporteringsmuligheder for yderligere typer medier, såsom voicenotes, direkte til os i appen.
Disse ændringer samt andre sikkerhedsindsatser og eksterne kræfter påvirkede især visse politikområder sammenlignet med den foregående rapporteringsperiode. Disse politik-kategorier omfatter: Indhold relateret til mistanke om seksuel udnyttelse og misbrug af børn (CSEA), skadelig falsk information og spam. Specifikt:
CSEA: I anden halvdel af 2024 observerede vi et fald på 12 % i CSEA-relaterede rapporter og reducerede vores mediantid for at reagere på rapporteret CSEA med 99 %. Disse tendenser er i høj grad drevet af fortsatte fremskridt i vores proaktive opsporingsindsats, som gjorde det muligt for os at fjerne CSEA-indhold, før det kunne rapporteres til os, og forbedringer, vi har foretaget i vores processer for at gennemgå og handle på rapporter om CSEA mere effektivt. Selv med disse forbedringer er vores CSEA-behandlingstid højere end på andre politikområder, fordi indholdet er underlagt en specialiseret proces, der omfatter dobbelt gennemgang med et udvalgt team af specialuddannede agenter.
Skadelig falsk information: Vi observerede en stigning på 26 % i den rapporterede mængde af rapporter relateret til skadelig falsk information, primært drevet af politiske begivenheder, herunder det amerikanske valg i november 2024.
Spam: I denne rapporteringsperiode oplevede vi et fald på ca. 50 % i det samlede antal håndhævelser og et fald på ca. 46 % i det samlede antal unikke konti, der blev håndhævet som reaktion på rapporter om mistænkt spam, hvilket afspejler forbedringer i vores proaktive opdagelses- og håndhævelsesværktøjer. Dette er en fortsættelse af vores bestræbelser på at målrette spam gennem kontosignaler og fjerne spamaktører tidligere i deres aktivitet på platformen. Denne indsats var allerede i gang i den sidste rapporteringsperiode, hvor det samlede antal håndhævelser og det samlede antal unikke konti, der blev håndhævet for spam, faldt med henholdsvis ~65 % og ~60 %.
Vores indsats for proaktivt at registrere og håndhæve reglerne i forbindelse med overtrædelser af vores Retningslinjer for fællesskabet
Vi bruger automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores Retningslinjer for fællesskabet. Disse værktøjer omfatter hash-matching-teknologi (herunder PhotoDNA og Googles Child Sexual Abuse Imagery (CSAI) Match), Googles Content Safety API og anden tilpasset teknologi, der er designet til at opdage krænkende tekst og medier, nogle gange ved hjælp af kunstig intelligens og maskinlæring.
I anden halvdel af 2024 foretog vi følgende håndhævelsesforanstaltninger efter proaktivt at have opdaget overtrædelser af vores retningslinjer for brugerne ved hjælp af automatiserede opdagelsesværktøjer:
Samlet antal håndhævelser
Samlede unikke konti håndhævet
3.685.602
1.845.125
Årsag til politik
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling
Seksuelt indhold
1.818.287
828.590
<1
Seksuel udnyttelse af børn
491.970
188.877
1
Chikane og mobning
14.942
11.234
8
Trusler og vold
43.625
29.599
9
Selvskade og selvmord
Snap Legal
624
9
Falske oplysninger
85
81
10
Falsk identitet
8
6
19
Spam
177.150
110.551
<1
Stoffer
869.178
590.658
5
Våben
205.387
133.079
<1
Andre lovregulerede produkter
48.280
37.028
9
Hadtale
10.344
8.683
10
Terrorisme og voldelig ekstremisme
5.585
2.951
21
Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for fællesskabet. At forebygge, opdage og udrydde CSEA på vores platform er en topprioritet for Snap, og vi udvikler løbende vores muligheder for at bekæmpe disse og andre forbrydelser.
Vi bruger aktive teknologiske detektionsværktøjer til at hjælpe med at identificere CSEA-relateret indhold. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Googles CSAI Match til at identificere kendte ulovlige billeder og videoer af henholdsvis CSEA) og Google Content Safety API (til at identificere nye, "aldrig før-hashede" ulovlige billeder). Derudover bruger vi i nogle tilfælde adfærdssignaler til at håndhæve mod andre mistænkte CSEA-aktiviteter. Vi rapporterer CSEA-relateret indhold til det amerikanske National Center for Missing and Exploited Children (NCMEC) som krævet af loven. NCMEC koordinerer derefter med national eller international retshåndhævelse, hvis det er nødvendigt.
I anden halvdel af 2024 foretog vi følgende handlinger, da vi identificerede CSEA på Snapchat (enten proaktivt eller efter at have modtaget en rapport):
Samlet indhold håndhævet
Samlet antal konti deaktiveret
Samlet antal indsendelser til NCMEC*
1.228.929
242.306
417.842
*Bemærk, at hver indsendelse til NCMEC kan indeholde flere dele af indholdet. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er håndhævet.
Vores indsats for at give ressourcer og støtte til Snapchattere i nød
Snapchat giver venner mulighed for at hjælpe hinanden i svære tider ved at stille ressourcer og støtte til rådighed for Snapchattere i nød.
Vores Her for dig søgeværktøj giver ressourcer fra eksperter, når brugerne søger efter bestemte emner relateret til mental sundhed, angst, depression, stress, selvmordstanker, sorg og mobning. Vi har også udviklet en side dedikeret til økonomisk sexafpresning og andre seksuelle risici og skader i et forsøg på at støtte dem, der er i nød. Vores globale liste over sikkerhedsressourcer er offentligt tilgængelig for alle Snapchattere i vores Hub for privatliv, sikkerhed og politik.
Når vores sikkerhedsteams bliver opmærksomme på en Snapchatter i nød, er de udrustet til at levere ressourcer til forebyggelse af selvskade og støtte og til at underrette alarmtjenesterne, hvis det er nødvendigt. De ressourcer, vi deler, er tilgængelige på vores globale liste over sikkerhedsressourcer, som er tilgængelig for alle Snapchattere.
Samlet antal gange ressourcer om selvmord delt
64.094
Klager
Nedenfor giver vi oplysninger om de klager, vi har modtaget fra brugere, der har anmodet om en gennemgang af vores beslutning om at låse deres konto i anden halvdel af 2024:
Årsag til politik
Samlet antal klager
Genindsættelser i alt
Samlet antal fastholdte beslutninger
Median-behandlingstiden (dage) til behandling af klager
I ALT
493.782
35.243
458.539
5
Seksuelt indhold
162.363
6.257
156.106
4
Seksuel udnyttelse af børn
102.585
15.318
87.267
6
Chikane og mobning
53.200
442
52.758
7
Trusler og vold
4.238
83
4.155
5
Selvskade og selvmord
31
1
30
5
Falske oplysninger
3
0
3
<1
Falsk identitet
Augmented Reality
33
_Core
7
Spam
19.533
5.090
14.443
9
Stoffer
133.478
7.598
125.880
4
Våben
4.678
136
4.542
6
Andre lovregulerede produkter
9.153
168
8.985
6
Hadtale
3.541
Snapchat
3.427
7
Terrorisme og voldelig ekstremisme
132
3
129
9
Oversigt over regioner og lande
Dette afsnit giver et overblik over vores sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet, både proaktivt og som reaktion på rapporter om overtrædelser i appen, i et udvalg af geografiske regioner. Vores Retningslinjer for fællesskabet gælder for alt indhold på Snapchat - og for alle Snapchattere - over hele verden, uanset hvor de befinder sig.
Oplysninger om individuelle lande, herunder alle EU-medlemsstater, er tilgængelige til download via den vedhæftede CSV-fil.
Region
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Nordamerika
3.828.389
2.117.048
Europa
2.807.070
1.735.054
Resten af verden
3.396.651
1.846.110
I alt
10.032.110
5.698.212
Region
Indholds- og kontorapporteringer
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Nordamerika
5.916.815
2.229.465
1.391.304
Europa
5.781.317
2.085.109
1.378.883
Resten af verden
7.681.716
2.031.934
1.319.934
I alt
19.379.848
6.346.508
4.090.121
Samlet antal håndhævelser
Samlede unikke konti håndhævet
1.598.924
837.012
721.961
417.218
1.364.717
613.969
3.685.602
1.868.199
Moderation af annoncer
Snap er forpligtet til at sikre, at alle annoncer er fuldt ud i overensstemmelse med vores Annoncepolitik. Vi tror på en ansvarlig tilgang til annoncering og på at skabe en sikker oplevelse for alle Snapchattere. Alle annoncer er underlagt gennemgang og godkendelse. Derudover forbeholder vi os retten til at fjerne annoncer, herunder som reaktion på brugerfeedback, som vi tager alvorligt.
Nedenfor har vi inkluderet indsigt i vores moderation i forbindelse med betalte reklamer, der anmeldes til os efter deres offentliggørelse på Snapchat. Bemærk, at annoncer på Snapchat kan fjernes af en række årsager som beskrevet i Snaps Annoncepolitik, herunder vildledende indhold, voksenindhold, voldeligt eller foruroligende indhold, hadetale og krænkelse af intellektuel ejendom Derudover kan du nu finde Snapchats annoncegalleri i Snaps gennemsigtigheds-hub, der er tilgængelig direkte via navigationslinjen.
Samlet antal annoncer, som blev rapporteret
Samlet antal annoncer, som blev fjernet
43.098
17.833