5. desember 2024
5. desember 2024
Vi publiserer denne åpenhetsrapporten to ganger i året for å gi innsikt i Snap sin innsats innen sikkerhet. Vi er forpliktet til dette arbeidet og streber kontinuerlig etter å gjøre disse rapportene mer omfattende og informative for de mange interessentene som er svært opptatt av vår innholdsmoderering, rettshåndhevelse og Snapchat-fellesskapets sikkerhet og velvære.
Denne åpenhetsrapporten omfatter 1. halvdel av 2024 (1. januar til 30. juni). Som med våre tidligere rapporter, deler vi også data om det globale volumet rapporteringer tillits- og sikkerhetsteamene har mottatt i appen og i sammenheng med ulike kontoer. Det inkluderer antallet rapporteringer som har blitt håndhevet på tvers av spesifikke kategorier av brudd på samfunnsretningslinjer; hvordan vi svarte på forespørsler fra politimyndigheter og myndigheter; og hvordan vi svarte på merknader verdørende brudd på åndsverksrettigheter og opphavsrett. Vi gir også landspesifikk innsikt i filene som er lenket nederst på denne siden.
Som en del av vår pågående forpliktelse til å kontinuerlig forbedre åpenhetsrapportene våre, introduserer vi også nye data som fremhever den proaktive innsatsen vår for å oppdage og håndheve et bredere spekter av brudd på samfunnsretningslinjene våre. Vi har inkludert disse dataene både på globale og landsspesifikke nivåer i denne rapporten og vi vil fortsette å gjøre det videre. Vi har også rettet en feil i våre tidligere rapporter: der vi tidligere refererte til «Totalt innhold håndhevet», refererer vi nå til «Totale håndhevelser» for å gjenspeile det faktum at dataene i de relevante kolonnene inkluderer både håndhevelser på innholds- og kontonivå.
For mer informasjon om retningslinjene våre for bekjempelse av potensielle farer på nettet og planer om å fortsette å utvikle vår rapporteringspraksis, les vår siste sikkerhet og innvirkningsblogg om denne åpenhetsrapporten. For å finne flere ressurser om sikkerhet og personvern på Snapchat, kan du se fanen Om åpenhetsrapportering nederst på siden.
Vær oppmerksom på at den mest oppdaterte versjonen av denne åpenhetsrapporten finnes i EN-US-versjonen.
Oversikt over våre tillits- og sikkerhetsteams tiltak for å håndheve våre samfunnsretningslinjer
Våre tillits- og sikkerhetsteam håndhever våre samfunnsretningslinjer både proaktivt (ved bruk av automatiserte verktøy) og reaktivt (som svar på rapporteringer) slik som ytterligere detaljert i de følgende delene av denne rapporten. I denne rapporteringssyklusen (1. halvår 2024), tok våre tillits- og sikkerhetsteam følgende tiltak:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Nedenfor er en oversikt over hver type brudd på samfunnsretningslinjene, inkludert gjennomsnittlig behandlingstid mellom tidspunktet vi oppdaget bruddet (enten proaktivt eller ved mottak av en rapportering) og tidspunktet da vi tok endelige handlinger på det relevante innholdet eller kontoen:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Under rapporteringsperioden så vi en bruddvisningsrate (VVR) på 0,01 prosent, noe som betyr at av 10 000 visninger av Snap- og Story-innhold på Snapchat hadde ett innhold som brøt med sammfunnsretningslinjene våre.
Brudd på samfunnsretningslinjer rapportert til våre tillits- og sikkerhetsteam
Fra 1. januar til 30. juni 2024, som svar på rapporteringer i appen om brudd på samfunnsretningslinjene våre, iverksatte Snaps tillits- og sikkerhetsteam totalt 6 223 618 håndhevelser globalt, inkludert håndhevelser rettet mot 3 842 507 unike kontoer. Gjennomsnittlig behandlingstid for våre tillits- og sikkerhetsteam å iverksette tiltak som svar på disse rapporteringene var ca. 24 timer. En oversikt for hver rapporteringskategori er gitt nedenfor.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Våre samlede rapporteringsvolumer forble ganske stabile i 1. halvår 2024, sammenlignet med de siste seks siste månedene. Denne syklusen så vi en økning i totale håndhevelser og totale unike kontoer som ble håndhevet med ca 16 %.
I løpet av de siste 12 månedene har Snap introdusert nye rapporteringsmekanismer for brukere, som tar hensyn til endringer i våre rapporterte og håndhevede volumer og for økninger i behandlingstider i denne rapporteringsperioden (1. halvår 2024). Spesielt:
Gruppechatrapportering: Vi introduserte gruppechatrapportering 13. oktober 2023, som gjør det mulig for brukere å rapportere misbruk som skjer i en chat med flere personer. Denne endringen påvirket sammensetningen av våre beregninger på tvers av rapporteringskategorier (da noen potensielle skader har mer sannsynlighet for å oppstå i chatsammenheng) og økte rapporteringsprosenten.
Forbedringer ved kontorapportering: Vi har også utviklet kontorapporteringsfunksjonen vår for å gi rapporterende brukere en mulighet til å sende inn chatbevis når de rapporterer en konto som mistenkes for å være drevet av en uredelig aktør. Denne endringen, som gir oss kraftigere vitnesbyrd og kontekst for å vurdere kontorapporteringer, ble lansert 29. februar 2024.
Chat-rapporteringer, og spesielt gruppechat-rapporteringer, er blant de mest komplekse og tidkrevende å gjennomgå, noe som økte behandlingstidene over hele linja.
Rapportering for mistenkt seksuell utnyttelse og overgrep mot barn (CSEA), trakassering og mobbing og hatytringer ble spesielt påvirket av de to endringene beskrevet ovenfor, og av endringer i det bredere økosystemet. Spesielt:
CSEA: Vi observerte en økning i CSEA-relaterte rapporteringer og håndhevelser i 1. halv år 2024. Spesifikt så vi en økning på 64 % i det totale antallet rapporteringer i appen fra brukere, en 82 % økning i det totale antallet håndhevelser og en økning på 108 % i det totale antallet unike kontoer som ble håndhevet. Disse økningene er i stor grad drevet av introduksjonen av rapporteringsfunksjonene for gruppechat og konto. Gitt den sensitive arten til denne modereringskøen, er et utvalgt team av høyt kvalifiserte agenter utvalgt for å gjennomgå rapporteringer om potensielle CSEA-relaterte brudd. Tilstrømningen av ytterligere rapporteringer kombinert med at teamene våre har tilpasset seg ny opplæring har resultert i økte behandlingstider. Fremover har vi økt størrelsen på våre globale leverandørteam betraktelig for å redusere behandlingstider og nøyaktig håndheve rapporteringer om potensiell CSEA. Vi forventer at vår åpenhetsrapport for 2. halvår 2024 vil bære fruktene til denne innsatsen med en vesentlig forbedret behandlingstid.
Trakassering og mobbing: Basert på rapporteringer har vi observert at trakassering og mobbing uforholdsmessig oppstår i chatter og spesielt i gruppechatter. Forbedringene vi introduserte for gruppechatrapportering og kontorapportering hjelper oss å ta mer omfattende handlinger når vi vurderer rapporteringer i denne rapporteringskategorien. I tillegg krever vi fra og med denne perioden at brukere legger inn en kommentar når de sender inn en rapportering om trakassering og mobbing. Vi gjennomgår denne kommentaren for å kontekstualisere hver rapportering. Til sammen førte disse endringene til vesentlige økninger i total håndhevelse (+91 %), totalt antall håndhevede unike kontoer (+82 %) og behandlingstid (+245 minutter) for tilsvarende rapporteringer.
Hatefulle ytringer: I 1. halvår 2024 observerte vi økninger i rapportert innhold, totalt antall håndhevelse og behandlingstid for hatefulle ytringer. Nærmere bestemt så vi en økning på 61 % i rapporteringer i appen, en økning på 127 % i totalt antall håndhevelser og en økning på 125 % i det totale antallet unike kontoer som ble håndhevet. Dette skyldtes delvis forbedringer i våre rapporteringsmekanismer for chat (som tidligere diskutert), og det geopolitiske miljøet, spesielt fortsettelsen av konflikten mellom Israel og Hamas.
I denne rapporteringsperioden så vi en nedgang på ca. 65 % i det totale antallet håndhevelser og en nedgang på ca. 60 % i det totale antallet unike kontoer som ble håndhevet som svar på rapporteringer om mistenkt spam og misbruk, noe som gjenspeiler forbedringer i våre proaktive deteksjons- og håndhevingsverktøy. Vi så lignende nedganger i totalt antall håndhevelser som svar på rapporteringer om innhold relatert til selvskading og selvmord (ca. 80 % reduksjon), noe som gjenspeiler vår oppdaterte offersentrerte tilnærming. Våre tillits- og sikkerhetsteam vil, i egnede tilfeller, derfor sende relevante brukere selvhjelpsressurser, i stedet for å iverksette tiltak mot disse brukerne. Denne tilnærmingen ble fremmet av medlemmer av vårt sikkerhetsråd, inkludert en pediatrisk professor og lege som spesialiserer seg på interaktive medier og internettforstyrrelser.
Vår innsats for å proaktivt oppdage og håndheve brudd på våre samfunnsretningslinjer
Vi benytter oss av automatiserte verktøy for å proaktivt oppdage og, i noen tilfeller håndheve brudd på våre samfunnsretningslinjer. Dette inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google Child Sexual Abuse Imagery (CSAI) Match), deteksjonsverktøy for upassende språk (som oppdager og håndhever basert på en identifisert og regelmessig oppdatert liste over upassende nøkkelord og emojis), og multimodal kunstig intelligens/maskinlæringsteknologi.
I 1. halvår 2024 iverksatte vi følgende håndhevelser etter å ha proaktivt oppdaget brudd på våre samfunnsretningslinjer ved bruk av automatiserte verktøy:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Seksuell utnyttelse av ethvert medlem av fellesskapet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse av barn (CSEA) på plattformen vår er en førsteprioritet for oss, og vi utvikler kontinuerlig kompetansen vår for å bekjempe disse og andre typer forbrytelser.
Vi bruker aktive teknologiske deteksjonsverktøy, som PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere velkjente ulovlige bilder og videoer av henholdsvis CSEA. I tillegg bruker vi i noen tilfeller atferdssignaler for å håndheve annen potensielt ulovlig CSEA-aktivitet. Vi rapporterer brudd på slik CSEA-relatert innhold til USAs nasjonale senter for savnede og utnyttede barn (NCMEC), slik loven påkrever. NCMEC koordinerer deretter med nasjonal eller internasjonal rettshåndhevelse, etter behov.
I første halvdel av 2024 iverksatte vi følgende handlinger da vi oppdaget CSEA på Snapchat (enten proaktivt eller ved mottak av en rapportering):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Vår innsats for å tilby ressurser og støtte til Snapchattere som trenger hjelp
Vi bryr oss om den mentale helsen og velværet til Snapchattere, som fortsetter å informere beslutningene våre om å bygge opp Snapchat annerledes. Gjennom å være en plattform som er designet for kommunikasjon mellom og blant ekte venner, mener vi at Snapchat kan spille en unik rolle ved å gi venner mulighet til å hjelpe hverandre gjennom vanskelige tider. Det er derfor vi har utviklet ressurser og støtte for Snapchattere som trenger hjelp.
Here For You er søkeverktøyet vårt som viser ressurser fra lokale eksperter når brukere søker etter visse emner knyttet til mental helse, angst, depresjon, stress, selvmordstanker, sorg og mobbing. Vi har også utviklet en side som er dedikert til finansiell seksuell utpressing og andre seksuelle farer og skader, i et forsøk på å støtte personer i nød. Vår globale liste over ressurser knyttet til sikkerhet er offentlig tilgjengelig for alle Snapchattere, i vår hub for personvern, sikkerhet og policy.
Når våre tillits- og sikkerhetsteam blir oppmerksom på en Snapchatter i nød, kan de videresende selvskadingsforebygging og støtteressurser, og varsle beredskapspersonell når det er hensiktsmessig. Ressursene vi deler er tilgjengelig på vår globale liste over sikkerhetsressurser, og disse er offentlig tilgjengelig for alle Snapchattere.
Total Times Suicide Resources Shared
64,094
Klager
Nedenfor finner du informasjon om klagene vi mottok fra brukere som ba om en gjennomgang av beslutningen vår om å låse kontoen deres:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Region- og landsoversikt
Denne delen gir en oversikt over tillits- og sikkerhetsteamenes tiltak for å håndheve våre samfunnsretningslinjer, både proaktivt og som svar på rapporteringer om brudd i appen, i tilfeldige utvalgte geografiske regioner. Våre samfunnsretningslinjer gjelder alt innhold på Snapchat, og alle Snapchattere, over hele kloden, uansett sted.
Informasjon for individuelle land, inkludert alle EU-medlemsstater, er tilgjengelig for nedlasting via den vedlagte CSV-filen.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Moderering av annonser
Snap er forpliktet til å sikre at alle annonser overholder våre annonsevilkår. Vi tror på en ansvarlig og respektfull tilnærming til annonsering som skaper en trygg og hyggelig opplevelse for alle brukerne våre. Alle annonser skal gjennomgås og godkjennes av oss. I tillegg forbeholder vi oss retten til å fjerne annonser, inkludert som svar på brukertilbakemelding, som vi tar på alvor.
Nedenfor har vi inkludert innsikt i vår moderasjon for betalte annonser som er rapportert til oss etter at de ble publisert på Snapchat. Merk at annonser på Snapchat kan fjernes på grunnlag av en rekke årsaker som skissert i Snaps annonsevilkår, inkludert misvisende innhold, pornografisk innhold, voldelig eller forstyrrende innhold, hatefulle ytringer og brudd på åndsverkrettigheter. I tillegg kan du nå også finne Snapchat sitt annonsegalleri i navigasjonsfeltet på denne åpenhetsrapporten.
Total Ads Reported
Total Ads Removed
43,098
17,833


