Snap Values
Åpenhetsrapport
1. januar 2024 til 30. juni 2024

Utgitt:

5. desember 2024

Oppdatert:

5. desember 2024

Vi publiserer denne åpenhetsrapporten to ganger i året for å gi innsikt i Snap sin innsats innen sikkerhet. Vi er forpliktet til dette arbeidet og streber kontinuerlig etter å gjøre disse rapportene mer omfattende og informative for de mange interessentene som er svært opptatt av vår innholdsmoderering, rettshåndhevelse og Snapchat-fellesskapets sikkerhet og velvære. 

Denne åpenhetsrapporten omfatter 1. halvdel av 2024 (1. januar til 30. juni). Som med våre tidligere rapporter, deler vi også data om det globale volumet rapporteringer tillits- og sikkerhetsteamene har mottatt i appen og i sammenheng med ulike kontoer. Det inkluderer antallet rapporteringer som har blitt håndhevet på tvers av spesifikke kategorier av brudd på samfunnsretningslinjer; hvordan vi svarte på forespørsler fra politimyndigheter og myndigheter; og hvordan vi svarte på merknader verdørende brudd på åndsverksrettigheter og opphavsrett. Vi gir også landspesifikk innsikt i filene som er lenket nederst på denne siden.

Som en del av vår pågående forpliktelse til å kontinuerlig forbedre åpenhetsrapportene våre, introduserer vi også nye data som fremhever den proaktive innsatsen vår for å oppdage og håndheve et bredere spekter av brudd på samfunnsretningslinjene våre. Vi har inkludert disse dataene både på globale og landsspesifikke nivåer i denne rapporten og vi vil fortsette å gjøre det videre. Vi har også rettet en feil i våre tidligere rapporter: der vi tidligere refererte til «Totalt innhold håndhevet», refererer vi nå til «Totale håndhevelser» for å gjenspeile det faktum at dataene i de relevante kolonnene inkluderer både håndhevelser på innholds- og kontonivå.

For mer informasjon om retningslinjene våre for bekjempelse av potensielle farer på nettet og planer om å fortsette å utvikle vår rapporteringspraksis, les vår siste sikkerhet og innvirkningsblogg om denne åpenhetsrapporten. For å finne flere ressurser om sikkerhet og personvern på Snapchat, kan du se fanen Om åpenhetsrapportering nederst på siden.

Vær oppmerksom på at den mest oppdaterte versjonen av denne åpenhetsrapporten finnes i EN-US-versjonen.

Oversikt over våre tillits- og sikkerhetsteams tiltak for å håndheve våre samfunnsretningslinjer

Våre tillits- og sikkerhetsteam håndhever våre samfunnsretningslinjer både proaktivt (ved bruk av automatiserte verktøy) og reaktivt (som svar på rapporteringer) slik som ytterligere detaljert i de følgende delene av denne rapporten. I denne rapporteringssyklusen (1. halvår 2024), tok våre tillits- og sikkerhetsteam følgende tiltak: 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Nedenfor er en oversikt over hver type brudd på samfunnsretningslinjene, inkludert gjennomsnittlig behandlingstid mellom tidspunktet vi oppdaget bruddet (enten proaktivt eller ved mottak av en rapportering) og tidspunktet da vi tok endelige handlinger på det relevante innholdet eller kontoen:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Under rapporteringsperioden så vi en bruddvisningsrate (VVR) på 0,01 prosent, noe som betyr at av 10 000 visninger av Snap- og Story-innhold på Snapchat hadde ett innhold som brøt med sammfunnsretningslinjene våre.

Brudd på samfunnsretningslinjer rapportert til våre tillits- og sikkerhetsteam

Fra 1. januar til 30. juni 2024, som svar på rapporteringer i appen om brudd på samfunnsretningslinjene våre, iverksatte Snaps tillits- og sikkerhetsteam totalt 6 223 618 håndhevelser globalt, inkludert håndhevelser rettet mot 3 842 507 unike kontoer. Gjennomsnittlig behandlingstid for våre tillits- og sikkerhetsteam å iverksette tiltak som svar på disse rapporteringene var ca. 24 timer. En oversikt for hver rapporteringskategori er gitt nedenfor. 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Våre samlede rapporteringsvolumer forble ganske stabile i 1. halvår 2024, sammenlignet med de siste seks siste månedene. Denne syklusen så vi en økning i totale håndhevelser og totale unike kontoer som ble håndhevet med ca 16 %.

I løpet av de siste 12 månedene har Snap introdusert nye rapporteringsmekanismer for brukere, som tar hensyn til endringer i våre rapporterte og håndhevede volumer og for økninger i behandlingstider i denne rapporteringsperioden (1. halvår 2024). Spesielt:

  • Gruppechatrapportering: Vi introduserte gruppechatrapportering 13. oktober 2023, som gjør det mulig for brukere å rapportere misbruk som skjer i en chat med flere personer. Denne endringen påvirket sammensetningen av våre beregninger på tvers av rapporteringskategorier (da noen potensielle skader har mer sannsynlighet for å oppstå i chatsammenheng) og økte rapporteringsprosenten. 

  • Forbedringer ved kontorapportering: Vi har også utviklet kontorapporteringsfunksjonen vår for å gi rapporterende brukere en mulighet til å sende inn chatbevis når de rapporterer en konto som mistenkes for å være drevet av en uredelig aktør. Denne endringen, som gir oss kraftigere vitnesbyrd og kontekst for å vurdere kontorapporteringer, ble lansert 29. februar 2024. 


Chat-rapporteringer, og spesielt gruppechat-rapporteringer, er blant de mest komplekse og tidkrevende å gjennomgå, noe som økte behandlingstidene over hele linja. 

Rapportering for mistenkt seksuell utnyttelse og overgrep mot barn (CSEA), trakassering og mobbing og hatytringer ble spesielt påvirket av de to endringene beskrevet ovenfor, og av endringer i det bredere økosystemet. Spesielt:

  • CSEA: Vi observerte en økning i CSEA-relaterte rapporteringer og håndhevelser i 1. halv år 2024. Spesifikt så vi en økning på 64 % i det totale antallet rapporteringer i appen fra brukere, en 82 % økning i det totale antallet håndhevelser og en økning på 108 % i det totale antallet unike kontoer som ble håndhevet. Disse økningene er i stor grad drevet av introduksjonen av rapporteringsfunksjonene for gruppechat og konto. Gitt den sensitive arten til denne modereringskøen, er et utvalgt team av høyt kvalifiserte agenter utvalgt for å gjennomgå rapporteringer om potensielle CSEA-relaterte brudd. Tilstrømningen av ytterligere rapporteringer kombinert med at teamene våre har tilpasset seg ny opplæring har resultert i økte behandlingstider. Fremover har vi økt størrelsen på våre globale leverandørteam betraktelig for å redusere behandlingstider og nøyaktig håndheve rapporteringer om potensiell CSEA. Vi forventer at vår åpenhetsrapport for 2. halvår 2024 vil bære fruktene til denne innsatsen med en vesentlig forbedret behandlingstid. 

  • Trakassering og mobbing: Basert på rapporteringer har vi observert at trakassering og mobbing uforholdsmessig oppstår i chatter og spesielt i gruppechatter. Forbedringene vi introduserte for gruppechatrapportering og kontorapportering hjelper oss å ta mer omfattende handlinger når vi vurderer rapporteringer i denne rapporteringskategorien. I tillegg krever vi fra og med denne perioden at brukere legger inn en kommentar når de sender inn en rapportering om trakassering og mobbing. Vi gjennomgår denne kommentaren for å kontekstualisere hver rapportering. Til sammen førte disse endringene til vesentlige økninger i total håndhevelse (+91 %), totalt antall håndhevede unike kontoer (+82 %) og behandlingstid (+245 minutter) for tilsvarende rapporteringer. 

  • Hatefulle ytringer: I 1. halvår 2024 observerte vi økninger i rapportert innhold, totalt antall håndhevelse og behandlingstid for hatefulle ytringer. Nærmere bestemt så vi en økning på 61 % i rapporteringer i appen, en økning på 127 % i totalt antall håndhevelser og en økning på 125 % i det totale antallet unike kontoer som ble håndhevet. Dette skyldtes delvis forbedringer i våre rapporteringsmekanismer for chat (som tidligere diskutert), og det geopolitiske miljøet, spesielt fortsettelsen av konflikten mellom Israel og Hamas. 

I denne rapporteringsperioden så vi en nedgang på ca. 65 % i det totale antallet håndhevelser og en nedgang på ca. 60 % i det totale antallet unike kontoer som ble håndhevet som svar på rapporteringer om mistenkt spam og misbruk, noe som gjenspeiler forbedringer i våre proaktive deteksjons- og håndhevingsverktøy. Vi så lignende nedganger i totalt antall håndhevelser som svar på rapporteringer om innhold relatert til selvskading og selvmord (ca. 80 % reduksjon), noe som gjenspeiler vår oppdaterte offersentrerte tilnærming. Våre tillits- og sikkerhetsteam vil, i egnede tilfeller, derfor sende relevante brukere selvhjelpsressurser, i stedet for å iverksette tiltak mot disse brukerne. Denne tilnærmingen ble fremmet av medlemmer av vårt sikkerhetsråd, inkludert en pediatrisk professor og lege som spesialiserer seg på interaktive medier og internettforstyrrelser.

Vår innsats for å proaktivt oppdage og håndheve brudd på våre samfunnsretningslinjer

Proaktiv oppdagelse og håndheving av våre samfunnsretningslinjer


Vi benytter oss av automatiserte verktøy for å proaktivt oppdage og, i noen tilfeller håndheve brudd på våre samfunnsretningslinjer. Dette inkluderer hash-matching-verktøy (inkludert PhotoDNA og Google Child Sexual Abuse Imagery (CSAI) Match), deteksjonsverktøy for upassende språk (som oppdager og håndhever basert på en identifisert og regelmessig oppdatert liste over upassende nøkkelord og emojis), og multimodal kunstig intelligens/maskinlæringsteknologi. 

I 1. halvår 2024 iverksatte vi følgende håndhevelser etter å ha proaktivt oppdaget brudd på våre samfunnsretningslinjer ved bruk av automatiserte verktøy:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Bekjempe seksuell utnyttelse av barn og misbruk 

Seksuell utnyttelse av ethvert medlem av fellesskapet vårt, spesielt mindreårige, er ulovlig, avskyelig og forbudt i henhold til samfunnsretningslinjene våre. Forebygging, oppdaging og utryddelse av seksuell utnyttelse av barn (CSEA) på plattformen vår er en førsteprioritet for oss, og vi utvikler kontinuerlig kompetansen vår for å bekjempe disse og andre typer forbrytelser.

Vi bruker aktive teknologiske deteksjonsverktøy, som PhotoDNA robust hash-matching og Googles Child Sexual Abuse Imagery (CSAI) Match for å identifisere velkjente ulovlige bilder og videoer av henholdsvis CSEA. I tillegg bruker vi i noen tilfeller atferdssignaler for å håndheve annen potensielt ulovlig CSEA-aktivitet. Vi rapporterer brudd på slik CSEA-relatert innhold til USAs nasjonale senter for savnede og utnyttede barn (NCMEC), slik loven påkrever. NCMEC koordinerer deretter med nasjonal eller internasjonal rettshåndhevelse, etter behov.

I første halvdel av 2024 iverksatte vi følgende handlinger da vi oppdaget CSEA på Snapchat (enten proaktivt eller ved mottak av en rapportering):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Vår innsats for å tilby ressurser og støtte til Snapchattere som trenger hjelp

Vi bryr oss om den mentale helsen og velværet til Snapchattere, som fortsetter å informere beslutningene våre om å bygge opp Snapchat annerledes. Gjennom å være en plattform som er designet for kommunikasjon mellom og blant ekte venner, mener vi at Snapchat kan spille en unik rolle ved å gi venner mulighet til å hjelpe hverandre gjennom vanskelige tider. Det er derfor vi har utviklet ressurser og støtte for Snapchattere som trenger hjelp. 

Here For You er søkeverktøyet vårt som viser ressurser fra lokale eksperter når brukere søker etter visse emner knyttet til mental helse, angst, depresjon, stress, selvmordstanker, sorg og mobbing. Vi har også utviklet en side som er dedikert til finansiell seksuell utpressing og andre seksuelle farer og skader, i et forsøk på å støtte personer i nød. Vår globale liste over ressurser knyttet til sikkerhet er offentlig tilgjengelig for alle Snapchattere, i vår hub for personvern, sikkerhet og policy.

Når våre tillits- og sikkerhetsteam blir oppmerksom på en Snapchatter i nød, kan de videresende selvskadingsforebygging og støtteressurser, og varsle beredskapspersonell når det er hensiktsmessig. Ressursene vi deler er tilgjengelig på vår globale liste over sikkerhetsressurser, og disse er offentlig tilgjengelig for alle Snapchattere.

Total Times Suicide Resources Shared

64,094

Klager

Nedenfor finner du informasjon om klagene vi mottok fra brukere som ba om en gjennomgang av beslutningen vår om å låse kontoen deres:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Region- og landsoversikt

Denne delen gir en oversikt over tillits- og sikkerhetsteamenes tiltak for å håndheve våre samfunnsretningslinjer, både proaktivt og som svar på rapporteringer om brudd i appen, i tilfeldige utvalgte geografiske regioner. Våre samfunnsretningslinjer gjelder alt innhold på Snapchat, og alle Snapchattere, over hele kloden, uansett sted.

Informasjon for individuelle land, inkludert alle EU-medlemsstater, er tilgjengelig for nedlasting via den vedlagte CSV-filen.

Oversikt over våre tillits- og sikkerhetsteams tiltak for å håndheve våre samfunnsretningslinjer

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Brudd på samfunnsretningslinjer rapportert til våre tillits- og sikkerhetsteam

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Proaktiv oppdagelse og håndheving av samfunnsretningslinjene våre

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Moderering av annonser

Snap er forpliktet til å sikre at alle annonser overholder våre annonsevilkår. Vi tror på en ansvarlig og respektfull tilnærming til annonsering som skaper en trygg og hyggelig opplevelse for alle brukerne våre. Alle annonser skal gjennomgås og godkjennes av oss. I tillegg forbeholder vi oss retten til å fjerne annonser, inkludert som svar på brukertilbakemelding, som vi tar på alvor. 


Nedenfor har vi inkludert innsikt i vår moderasjon for betalte annonser som er rapportert til oss etter at de ble publisert på Snapchat. Merk at annonser på Snapchat kan fjernes på grunnlag av en rekke årsaker som skissert i Snaps annonsevilkår, inkludert misvisende innhold, pornografisk innhold, voldelig eller forstyrrende innhold, hatefulle ytringer og brudd på åndsverkrettigheter. I tillegg kan du nå også finne Snapchat sitt annonsegalleri i navigasjonsfeltet på denne åpenhetsrapporten.

Total Ads Reported

Total Ads Removed

43,098

17,833