Snap Values
Läpinäkyvyysraportti
1.7.-31.12.2024

Julkaistu:

20. kesäkuuta 2025

Päivitetty:

1. heinäkuuta 2025

Julkaisemme tämän läpinäkyvyysraportin kahdesti vuodessa tarjotaksemme tietoja Snapin turvallisuustoimista. Olemme sitoutuneet turvallisuuteen ja läpinäkyvyyteen ja pyrimme jatkuvasti tekemään näistä raporteista kattavampia ja informatiivisempia monille sidosryhmille, jotka välittävät syvästi sisällön moderoinnista, viranomaisten käytännöistä sekä Snapchat-yhteisön turvallisuudesta ja hyvinvoinnista. 

Tämä läpinäkyvyysraportti kattaa vuoden 2024 toisen puoliskon (1. heinäkuuta – 31. joulukuuta). Jaamme maailmanlaajuisia tietoja käyttäjien ilmoituksista ja Snapin ennakoivasta havaitsemisesta; turvallisuustiimiemme toteuttamista täytäntöönpanotoimista tietyissä yhteisön sääntöjen rikkomusten luokissa; miten vastasimme lainvalvonnan ja hallitusten pyyntöihin ja miten vastasimme ilmoituksiin tekijänoikeus- ja tavaramerkkirikkomuksista. Tarjoamme myös maakohtaisia tietoja linkitettyjen sivujen sarjoissa.

Löydät lisäresursseja Snapchatin tietoturvaan ja yksityisyyteen liittyen sivun alalaidan Tietoa läpinäkyvyysraportoinnista -välilehden alta.

Huomaa, että tämän läpinäkyvyysraportin ajantasaisin versio on englanninkielinen versio.

Yleiskatsaus luottamus- ja turvallisuustiimiemme toimista yhteisömme sääntöjen täytääntöönpanemiseksi

Turvallisuustiimimme valvovat yhteisömme sääntöjen täytäntöönpanoa sekä ennakoivasti (automaattisten havaitsemistyökalujen avulla) että reaktiivisesti (vastauksena ilmoituksiin), kuten on kuvattu tarkemmin tämän raportin seuraavissa osioissa. Tässä raportointisyklissä (2. vuosipuolisko 2024) turvallisuustiimimme toteuttivat seuraavat määrät täytäntöönpanotoimia:

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

10 032 110

5 698 212

Alla on asiaan liittyvien yhteisön sääntöjen rikkomusten tyypin mukainen erittely, mukaan lukien rikkomuksen havaitsemisen ajankohdan (joko ennakoivasti tai ilmoituksesta) ja asiaankuuluvaan sisältöön tai tiliin kohdistuvan lopullisen toiminnan välinen keskimääräinen aika:

Toimintalinjan perustelu

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

Keskimääräinen läpimenoaika (minuuteissa) havaitsemishetkestä lopulliseen toimenpiteeseen

Seksuaalinen sisältö

3 860 331

2 099 512

2

Lasten seksuaalinen hyväksikäyttö

961 359

577 682

23

Häirintä ja kiusaaminen

2 716 966

2 019 439

7

Uhkaukset ja väkivalta

199 920

156 578

8

Itsensä vahingoittaminen ja itsemurha

15 910

14 445

10

Virheelliset tiedot

6 539

6 176

1

Toisena esiintyminen

8 798

8 575

2

Roskaposti

357 999

248 090

1

Huumeet

1 113 629

718 952

6

Aseet

211 860

136 953

1

Muut säännellyt tuotteet

247 535

177 643

8

Vihapuhe

324 478

272 025

27

Terrorismi ja väkivaltainen ekstremismi

6 786

4 010

5

Raportointijakson aikana rikkova katseluosuus (Violative View Rate, VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti yhden katsottiin rikkoneen yhteisömme sääntöjä.

Yhteisön säännöt Luottamus- ja turvallisuustiimeillemme ilmoitetut rikkomukset

Vastauksena sovelluksen sisäisiin ilmoituksiin yhteisön sääntöjemme rikkomuksista Snapin turvallisuustiimit ryhtyivät 1.7.-31.12.2024 yhteensä 6 346 508 täytäntöönpanotoimeen maailmanlaajuisesti, mukaan lukien 4 075 838 yksilöllistä tiliä koskevat täytäntöönpanotoimet. Turvallisuustiimiemme läpimenoaika näihin raportteihin liittyvien täytäntöönpanotoimien osalta oli keskimäärin noin kuusi minuuttia. Alla on raportointiluokkakohtainen erittely.

Sisältö- ja tili-ilmoitukset yhteensä

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

19 379 848

6 346 508

4 075 838

Toimintalinjan perustelu

Sisältö- ja tili-ilmoitukset

Täytäntöönpanot yhteensä

% kaikista Snapin vastaanottamista ilmoituksista

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

Keskimääräinen läpimenoaika (minuuteissa) havaitsemishetkestä lopulliseen toimenpiteeseen

Seksuaalinen sisältö

5 251 375

2 042 044

32,20 %

1 387 749

_Core

Lasten seksuaalinen hyväksikäyttö

1 224 502

469 389

7,40 %

393 384

133

Häirintä ja kiusaaminen

6 377 555

2 702 024

42,60 %

2 009 573

7

Uhkaukset ja väkivalta

1 000 713

156 295

2,50 %

129 077

8

Itsensä vahingoittaminen ja itsemurha

307 660

15 149

0,20 %

13 885

10

Virheelliset tiedot

536 886

6 454

0,10 %

6 095

1

Toisena esiintyminen

678 717

8 790

0,10 %

8 569

2

Roskaposti

1 770 216

180 849

2,80 %

140 267

1

Huumeet

418 431

244 451

3,90 %

159 452

23

Aseet

240 767

6 473

0,10 %

5 252

1

Muut säännellyt tuotteet

606 882

199 255

3,10 %

143 560

8

Vihapuhe

768 705

314 134

4,90 %

263 923

27

Terrorismi ja väkivaltainen ekstremismi

197 439

1 201

<0,1 %

1 093

_Core

Verrattuna edelliseen raportointikauteen lyhensimme keskimääräisiä käsittelyaikoja kaikissa käytäntökategorioissa keskimäärin 90 %:lla. Tämä vähennys johtui suurelta osin yhteisestä pyrkimyksestä laajentaa tarkastuskapasiteettiamme sekä parantaa raporttien priorisointia haitan vakavuuden perusteella. Teimme myös useita kohdennettuja muutoksia turvallisuustoimiimme raportointijakson aikana, joilla oli vaikutusta täällä ilmoitettuihin tietoihin, mukaan lukien pyrkimyksimme laajentaa toimintaamme valvoa tilejä sellaisten käyttäjätunnusten ja näyttönimien osalta, jotka rikkovat yhteisömme sääntöjä, lisätä ilmoituksia ja suojauksia Snapchatissa oleville yhteisöille ja ottaa käyttöön ilmoitusvaihtoehtoja muille mediatyypeille, kuten äänimuistiinpanoille, suoraan meille sovelluksessa. 

Nämä muutokset sekä muut turvallisuustoimet ja ulkoiset voimat vaikuttivat erityisesti tiettyihin käytäntöalueisiin verrattuna edelliseen raportointikauteen. Näihin käytäntöluokkiin kuuluvat: epäiltyyn lasten seksuaaliseen hyväksikäyttöön liittyvä sisältö (CSEA), haitallinen väärä tieto ja roskaposti. Erityisesti:

  • CSEA: vuoden 2024 toisella puoliskolla havaitsimme 12 %:n laskua CSEA:hun liittyvissä raporteissa ja lyhensimme keskimääräistä käsittelyaikaamme vastaamaan ilmoitettuun CSEA:aan 99 %:lla. Näitä trendejä ohjaavat suurelta osin ennakoivassa havaitsemisessa tapahtuneet jatkuvat parannukset, joiden avulla voimme poistaa CSEA-sisältöä ennen kuin siitä voitiin ilmoittaa meille, sekä parannukset, joita olemme tehneet prosesseihimme tarkastellaksemme CSEA-ilmoituksia ja ryhtyäksemme niihin liittyviin toimiin tehokkaammin. Näiden parannusten jälkeenkin CSEA-käsittelyaikamme on pidempi kuin muilla käytäntöalueilla, koska sisältö on erikoistuneen prosessin alainen, johon sisältyy kaksoisarviointi valitun erityisesti koulutetun agenttitiimin kanssa.

  • Haitallinen väärä tieto: havaitsimme 26 %:n kasvua haitalliseen väärään tietoon liittyvien raporttien määrässä, jota ohjaavat ensisijaisesti poliittiset tapahtumat, mukaan lukien Yhdysvaltain marraskuun 2024 vaalit.

  • Roskaposti: tällä raportointijaksolla näimme ~50 %:n laskun täytäntöönpanotoimien kokonaismäärässä ja ~46 %:n laskun sellaisten yksilöllisten tilejen kokonaismäärässä, joihin sovelletaan täytäntöönpanotoimia vastauksena epäillystä roskapostista tehtyihin ilmoituksiin, mikä heijastaa ennakoivissa havaitsemis- ja täytäntöönpanotyökaluissamme tehtyjä parannuksia. Tämä on jatkoa pyrkimyksillemme kohdistaa roskapostia tilin signaalien kautta ja poistaa roskapostitoimijoita aiemmin heidän toiminnassaan alustalla. Tämä pyrkimys oli jo käynnissä viimeisimmän raportointijakson aikana, jonka aikana roskapostin vuoksi täytäntöönpanojen kokonaismäärä ja täytäntöönpantujen yksilöllisten tilien määrä vähenivät ~65 % ja ~60 %.

Pyrkimyksemme tunnistaa ennakoivasti yhteisön sääntöjen rikkomuksia ja ryhtyä täytäntöönpanotoimiin

Yhteisön sääntöjen ennaltaehkäisevä havaitseminen ja täytäntöönpano


Käytämme automaattisia työkaluja havaitsemaan ennakoivasti ja joissakin tapauksissa panemaan täytäntöön yhteisömme sääntöjen rikkomuksia. Näihin työkaluihin kuuluvat hash-vastaavuuden teknologia (mukaan lukien PhotoDNA ja Googlen lasten seksuaalisen hyväksikäytön kuvien (CSAI) match), Googlen sisällön turvallisuuden API ja muuta räätälöityä teknologiaa, joka on suunniteltu havaitsemaan hyväksikäyttävää tekstiä ja mediaa,  joskus tekoälyä ja koneoppimista hyödyntäen. 

Vuoden 2024 toisella puoliskolla ryhdyimme seuraaviin täytäntöönpanotoimiin havaittuamme ennakoivasti yhteisömme sääntöjen rikkomuksia automaattisten havaitsemistyökalujen avulla:

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

3 685 602

1 845 125

Toimintalinjan perustelu

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

Keskimääräinen läpimenoaika (minuuteissa) havaitsemishetkestä lopulliseen toimenpiteeseen

Seksuaalinen sisältö

1 818 287

828 590

<1

Lasten seksuaalinen hyväksikäyttö

491 970

188 877

1

Häirintä ja kiusaaminen

14 942

11 234

8

Uhkaukset ja väkivalta

43 625

29 599

9

Itsensä vahingoittaminen ja itsemurha

Snap Legal

624

9

Virheelliset tiedot

85

81

10

Toisena esiintyminen

8

6

19

Roskaposti

177 150

110 551

<1

Huumeet

869 178

590 658

5

Aseet

205 387

133 079

<1

Muut säännellyt tuotteet

48 280

37 028

9

Vihapuhe

10 344

8 683

10

Terrorismi ja väkivaltainen ekstremismi

5 585

2 951

21

Lasten seksuaalisen hyväksikäytön estäminen 

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ja seksuaalisen riiston (CSEA) ehkäiseminen, tunnistaminen ja torjuminen alustallamme on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.

Käytämme aktiivisen teknologian havaitsemistyökaluja auttaaksemme tunnistamaan CSEA:hun liittyvää sisältöä. Näihin työkaluihin kuuluvat hash-vastaavuuden työkalut (mukaan lukien PhotoDNA ja Googlen CSAI Match, joilla tunnistetaan tunnetut laittomat CSEA-kuvat ja -videot) ja Googlen sisällön turvallisuuden API (jolla tunnistetaan uudet, "ei koskaan aiemmin hashattu" -laittomat kuvat). Lisäksi käytämme joissakin tapauksissa käyttäytymiseen liittyviä signaaleja valvoaksemme muuta epäiltyä CSEA-toimintaa vastaan. Ilmoitamme CSEA:an liittyvästä sisällöstä lain vaatimusten mukaisesti U.S. National Center for Missing and Exploited Children -järjestöön (NCMEC). NCMEC koordinoi sen jälkeen tarpeen mukaan kotimaisen tai kansainvälisen lainvalvonnan kanssa.

Vuoden 2024 toisen puoliskon aikana ryhdyimme seuraaviin toimiin tunnistettuamme CSEA-sisältöä Snapchatissa (joko ennakoivasti tai saatuamme raportin):


Toimenpiteisiin johtanut sisältö yhteensä

Suljettujen tilien kokonaismäärä

NCMEC:lle lähetettyjen ilmoitusten kokonaismäärä*

1 228 929

242 306

417 842

*Huomaa, että yksi NCMEC:lle lähetetty ilmoitus voi koostua useammasta sisältöyksiköstä. NCMEC:lle lähetettyjen yksittäisten mediayksiköiden kokonaismäärä on yhtä suuri kuin valvomiemme sisältöjen kokonaismäärä.

Pyrkimyksemme tarjota resursseja ja tukea niitä tarvitseville Snapchattaajille

Snapchat mahdollistaa kavereiden auttaa toisiaan vaikeina aikoina tarjoamalla resursseja ja tukea sitä tarvitseville Snapchattaajille. 

Here For You -hakutyökalumme tarjoaa asiantuntijoiden resursseja, kun käyttäjät etsivät tiettyjä aiheita, jotka liittyvät mielenterveyteen, ahdistukseen, masennukseen, stressiin, itsetuhoisiin ajatuksiin, suruun ja kiusaamiseen. Olemme myös kehittäneet seksuaalisella sisällöllä kiristämiseen sekä muihin seksuaalisiin riskeihin ja haittoihin liittyvän sivuston tukeaksemme hädässä olevia. Maailmanlaajuinen turvallisuusresurssien luettelomme on kaikkien Snapchattaajien saatavilla julkisesti Tietosuoja-, turvallisuus- ja käytäntökeskuksessamme. 
Kun turvallisuustiimimme tulevat tietoisiksi hädässä olevasta Snapchattaajasta, heillä on valmiudet tarjota  itsensä vahingoittamisen ehkäisy- ja tukiresursseja ja ilmoittaa tarvittaessa hätäpalveluille. Jakamamme resurssit löytyvät maailmanlaajuiselta turvallisuusresurssien listaltamme, ja ne ovat kaikkien Snapchattaajien käytettävissä.

Itsemurhasisältöä jaettu yhteensä

64 094

Valitukset

Alla on tietoa vetoomuksista, joita saimme käyttäjiltä, jotka pyytävät tarkistusta päätöksestämme lukita heidän tilinsä vuoden 2024 toisella puoliskolla:

Toimintalinjan perustelu

Valitukset yhteensä

Uudelleenasettamiset yhteensä

Hyväksytyt päätökset yhteensä

Valitusten käsittelyyn kuluva keskimääräinen käsittelyaika (päivää)

YHTEENSÄ

493 782

35 243

458 539

5

Seksuaalinen sisältö

162 363

6 257

156 106

_Core

Lasten seksuaalinen hyväksikäyttö

102 585

15 318

87 267

6

Häirintä ja kiusaaminen

53 200

442

52 758

7

Uhkaukset ja väkivalta

4 238

83

4 155

5

Itsensä vahingoittaminen ja itsemurha

31

1

30

5

Virheelliset tiedot

3

0

3

<1

Toisena esiintyminen

Augmented Reality

33

_Core

7

Roskaposti

19 533

5 090

14 443

9

Huumeet

133 478

7 598

125 880

_Core

Aseet

4 678

136

4 542

6

Muut säännellyt tuotteet

9 153

168

8 985

6

Vihapuhe

3 541

Snapchat

3 427

7

Terrorismi ja väkivaltainen ekstremismi

132

3

129

9

Alueellinen ja maakohtainen yleiskatsaus

Tämä osio antaa katsauksen turvallisuustiimimme toimista yhteisömme sääntöjen täytäntöönpanemiseksi, sekä ennakoivasti että vastauksena sovelluksen sisäisiin ilmoituksiin rikkomuksista tietyillä maantieteellisillä alueilla. Yhteisömme säännöt koskevat kaikkea Snapchat-sisältöä ja kaikkia Snapchattaajia ympäri maailmaa sijainnista riippumatta.

Yksittäisiä maita, myös kaikkia EU:n jäsenvaltioita, koskevat tiedot ovat ladattavissa oheisen CSV-tiedoston kautta.


Yhteenveto turvallisuustiimimme toimista yhteisömme sääntöjen noudattamisen varmistamiseksi 

Alue

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

Pohjois-Amerikka

3 828 389

2 117 048

Eurooppa

2 807 070

1 735 054

Muu maailma

3 396 651

1 846 110

Yhteensä

10 032 110

5 698 212

Yhteisön sääntöjen rikkomukset, josta on ilmoitettu Turvallisuustiimeillemme

Alue

Sisältö- ja tili-ilmoitukset

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

Pohjois-Amerikka

5 916 815

2 229 465

1 391 304

Eurooppa

5 781 317

2 085 109

1 378 883

Muu maailma

7 681 716

2 031 934

1 319 934

Yhteensä

19 379 848

6 346 508

4 090 121

Yhteisön sääntöjen ennaltaehkäisevä havaitseminen ja täytäntöönpano

Täytäntöönpanot yhteensä

Yksittäiset toimenpiteisiin johtaneet tilit yhteensä

1 598 924

837 012

721 961

417 218

1 364 717

613 969

3 685 602

1 868 199

Mainosten moderointi

Snap on sitoutunut varmistamaan, että kaikki mainokset ovat täysin mainonnan sääntöjemme mukaisia. Uskomme vastuulliseen lähestymistapaan mainostamisessa, luoden turvallisen kokemuksen kaikille Snapchattaajille. Kaikki mainokset tulevat meidän tarkastettavaksemme ja hyväksyttäväksemme. Lisäksi pidätämme oikeuden poistaa mainoksia myös reaktiona käyttäjän palautteeseen, johon suhtaudumme vakavasti. 


Alla on tietoja sellaisten maksullisten mainosten moderoinnista, joista on ilmoitettu meille sen jälkeen, kun ne on julkaistu Snapchatissa. Huomaa, että Snapchatissa olevat mainokset voidaan poistaa useista eri syistä, kuten Snapin mainoskäytännöissä kerrotaan, mukaan lukien harhaanjohtava sisältö, aikuisille suunnattu sisältö, väkivaltainen tai häiritsevä sisältö, vihapuhe ja immateriaalioikeusten loukkaaminen. Lisäksi löydät nyt Snapchatin mainosgallerian Snapin läpinäkyvyyskeskuksesta, johon pääsee suoraan navigointipalkin kautta.

Ilmiannettujen mainosten kokonaismäärä

Poistettujen mainosten kokonaismäärä

43 098

17 833