20. kesäkuuta 2025
1. heinäkuuta 2025
Julkaisemme tämän läpinäkyvyysraportin kahdesti vuodessa tarjotaksemme tietoja Snapin turvallisuustoimista. Olemme sitoutuneet turvallisuuteen ja läpinäkyvyyteen ja pyrimme jatkuvasti tekemään näistä raporteista kattavampia ja informatiivisempia monille sidosryhmille, jotka välittävät syvästi sisällön moderoinnista, viranomaisten käytännöistä sekä Snapchat-yhteisön turvallisuudesta ja hyvinvoinnista.
Tämä läpinäkyvyysraportti kattaa vuoden 2024 toisen puoliskon (1. heinäkuuta – 31. joulukuuta). Jaamme maailmanlaajuisia tietoja käyttäjien ilmoituksista ja Snapin ennakoivasta havaitsemisesta; turvallisuustiimiemme toteuttamista täytäntöönpanotoimista tietyissä yhteisön sääntöjen rikkomusten luokissa; miten vastasimme lainvalvonnan ja hallitusten pyyntöihin ja miten vastasimme ilmoituksiin tekijänoikeus- ja tavaramerkkirikkomuksista. Tarjoamme myös maakohtaisia tietoja linkitettyjen sivujen sarjoissa.
Löydät lisäresursseja Snapchatin tietoturvaan ja yksityisyyteen liittyen sivun alalaidan Tietoa läpinäkyvyysraportoinnista -välilehden alta.
Huomaa, että tämän läpinäkyvyysraportin ajantasaisin versio on englanninkielinen versio.
Yleiskatsaus luottamus- ja turvallisuustiimiemme toimista yhteisömme sääntöjen täytääntöönpanemiseksi
Turvallisuustiimimme valvovat yhteisömme sääntöjen täytäntöönpanoa sekä ennakoivasti (automaattisten havaitsemistyökalujen avulla) että reaktiivisesti (vastauksena ilmoituksiin), kuten on kuvattu tarkemmin tämän raportin seuraavissa osioissa. Tässä raportointisyklissä (2. vuosipuolisko 2024) turvallisuustiimimme toteuttivat seuraavat määrät täytäntöönpanotoimia:
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
10 032 110
5 698 212
Alla on asiaan liittyvien yhteisön sääntöjen rikkomusten tyypin mukainen erittely, mukaan lukien rikkomuksen havaitsemisen ajankohdan (joko ennakoivasti tai ilmoituksesta) ja asiaankuuluvaan sisältöön tai tiliin kohdistuvan lopullisen toiminnan välinen keskimääräinen aika:
Toimintalinjan perustelu
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
Keskimääräinen läpimenoaika (minuuteissa) havaitsemishetkestä lopulliseen toimenpiteeseen
Seksuaalinen sisältö
3 860 331
2 099 512
2
Lasten seksuaalinen hyväksikäyttö
961 359
577 682
23
Häirintä ja kiusaaminen
2 716 966
2 019 439
7
Uhkaukset ja väkivalta
199 920
156 578
8
Itsensä vahingoittaminen ja itsemurha
15 910
14 445
10
Virheelliset tiedot
6 539
6 176
1
Toisena esiintyminen
8 798
8 575
2
Roskaposti
357 999
248 090
1
Huumeet
1 113 629
718 952
6
Aseet
211 860
136 953
1
Muut säännellyt tuotteet
247 535
177 643
8
Vihapuhe
324 478
272 025
27
Terrorismi ja väkivaltainen ekstremismi
6 786
4 010
5
Raportointijakson aikana rikkova katseluosuus (Violative View Rate, VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti yhden katsottiin rikkoneen yhteisömme sääntöjä.
Yhteisön säännöt Luottamus- ja turvallisuustiimeillemme ilmoitetut rikkomukset
Vastauksena sovelluksen sisäisiin ilmoituksiin yhteisön sääntöjemme rikkomuksista Snapin turvallisuustiimit ryhtyivät 1.7.-31.12.2024 yhteensä 6 346 508 täytäntöönpanotoimeen maailmanlaajuisesti, mukaan lukien 4 075 838 yksilöllistä tiliä koskevat täytäntöönpanotoimet. Turvallisuustiimiemme läpimenoaika näihin raportteihin liittyvien täytäntöönpanotoimien osalta oli keskimäärin noin kuusi minuuttia. Alla on raportointiluokkakohtainen erittely.
Sisältö- ja tili-ilmoitukset yhteensä
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
19 379 848
6 346 508
4 075 838
Toimintalinjan perustelu
Sisältö- ja tili-ilmoitukset
Täytäntöönpanot yhteensä
% kaikista Snapin vastaanottamista ilmoituksista
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
Keskimääräinen läpimenoaika (minuuteissa) havaitsemishetkestä lopulliseen toimenpiteeseen
Seksuaalinen sisältö
5 251 375
2 042 044
32,20 %
1 387 749
_Core
Lasten seksuaalinen hyväksikäyttö
1 224 502
469 389
7,40 %
393 384
133
Häirintä ja kiusaaminen
6 377 555
2 702 024
42,60 %
2 009 573
7
Uhkaukset ja väkivalta
1 000 713
156 295
2,50 %
129 077
8
Itsensä vahingoittaminen ja itsemurha
307 660
15 149
0,20 %
13 885
10
Virheelliset tiedot
536 886
6 454
0,10 %
6 095
1
Toisena esiintyminen
678 717
8 790
0,10 %
8 569
2
Roskaposti
1 770 216
180 849
2,80 %
140 267
1
Huumeet
418 431
244 451
3,90 %
159 452
23
Aseet
240 767
6 473
0,10 %
5 252
1
Muut säännellyt tuotteet
606 882
199 255
3,10 %
143 560
8
Vihapuhe
768 705
314 134
4,90 %
263 923
27
Terrorismi ja väkivaltainen ekstremismi
197 439
1 201
<0,1 %
1 093
_Core
Verrattuna edelliseen raportointikauteen lyhensimme keskimääräisiä käsittelyaikoja kaikissa käytäntökategorioissa keskimäärin 90 %:lla. Tämä vähennys johtui suurelta osin yhteisestä pyrkimyksestä laajentaa tarkastuskapasiteettiamme sekä parantaa raporttien priorisointia haitan vakavuuden perusteella. Teimme myös useita kohdennettuja muutoksia turvallisuustoimiimme raportointijakson aikana, joilla oli vaikutusta täällä ilmoitettuihin tietoihin, mukaan lukien pyrkimyksimme laajentaa toimintaamme valvoa tilejä sellaisten käyttäjätunnusten ja näyttönimien osalta, jotka rikkovat yhteisömme sääntöjä, lisätä ilmoituksia ja suojauksia Snapchatissa oleville yhteisöille ja ottaa käyttöön ilmoitusvaihtoehtoja muille mediatyypeille, kuten äänimuistiinpanoille, suoraan meille sovelluksessa.
Nämä muutokset sekä muut turvallisuustoimet ja ulkoiset voimat vaikuttivat erityisesti tiettyihin käytäntöalueisiin verrattuna edelliseen raportointikauteen. Näihin käytäntöluokkiin kuuluvat: epäiltyyn lasten seksuaaliseen hyväksikäyttöön liittyvä sisältö (CSEA), haitallinen väärä tieto ja roskaposti. Erityisesti:
CSEA: vuoden 2024 toisella puoliskolla havaitsimme 12 %:n laskua CSEA:hun liittyvissä raporteissa ja lyhensimme keskimääräistä käsittelyaikaamme vastaamaan ilmoitettuun CSEA:aan 99 %:lla. Näitä trendejä ohjaavat suurelta osin ennakoivassa havaitsemisessa tapahtuneet jatkuvat parannukset, joiden avulla voimme poistaa CSEA-sisältöä ennen kuin siitä voitiin ilmoittaa meille, sekä parannukset, joita olemme tehneet prosesseihimme tarkastellaksemme CSEA-ilmoituksia ja ryhtyäksemme niihin liittyviin toimiin tehokkaammin. Näiden parannusten jälkeenkin CSEA-käsittelyaikamme on pidempi kuin muilla käytäntöalueilla, koska sisältö on erikoistuneen prosessin alainen, johon sisältyy kaksoisarviointi valitun erityisesti koulutetun agenttitiimin kanssa.
Haitallinen väärä tieto: havaitsimme 26 %:n kasvua haitalliseen väärään tietoon liittyvien raporttien määrässä, jota ohjaavat ensisijaisesti poliittiset tapahtumat, mukaan lukien Yhdysvaltain marraskuun 2024 vaalit.
Roskaposti: tällä raportointijaksolla näimme ~50 %:n laskun täytäntöönpanotoimien kokonaismäärässä ja ~46 %:n laskun sellaisten yksilöllisten tilejen kokonaismäärässä, joihin sovelletaan täytäntöönpanotoimia vastauksena epäillystä roskapostista tehtyihin ilmoituksiin, mikä heijastaa ennakoivissa havaitsemis- ja täytäntöönpanotyökaluissamme tehtyjä parannuksia. Tämä on jatkoa pyrkimyksillemme kohdistaa roskapostia tilin signaalien kautta ja poistaa roskapostitoimijoita aiemmin heidän toiminnassaan alustalla. Tämä pyrkimys oli jo käynnissä viimeisimmän raportointijakson aikana, jonka aikana roskapostin vuoksi täytäntöönpanojen kokonaismäärä ja täytäntöönpantujen yksilöllisten tilien määrä vähenivät ~65 % ja ~60 %.
Pyrkimyksemme tunnistaa ennakoivasti yhteisön sääntöjen rikkomuksia ja ryhtyä täytäntöönpanotoimiin
Käytämme automaattisia työkaluja havaitsemaan ennakoivasti ja joissakin tapauksissa panemaan täytäntöön yhteisömme sääntöjen rikkomuksia. Näihin työkaluihin kuuluvat hash-vastaavuuden teknologia (mukaan lukien PhotoDNA ja Googlen lasten seksuaalisen hyväksikäytön kuvien (CSAI) match), Googlen sisällön turvallisuuden API ja muuta räätälöityä teknologiaa, joka on suunniteltu havaitsemaan hyväksikäyttävää tekstiä ja mediaa, joskus tekoälyä ja koneoppimista hyödyntäen.
Vuoden 2024 toisella puoliskolla ryhdyimme seuraaviin täytäntöönpanotoimiin havaittuamme ennakoivasti yhteisömme sääntöjen rikkomuksia automaattisten havaitsemistyökalujen avulla:
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
3 685 602
1 845 125
Toimintalinjan perustelu
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
Keskimääräinen läpimenoaika (minuuteissa) havaitsemishetkestä lopulliseen toimenpiteeseen
Seksuaalinen sisältö
1 818 287
828 590
<1
Lasten seksuaalinen hyväksikäyttö
491 970
188 877
1
Häirintä ja kiusaaminen
14 942
11 234
8
Uhkaukset ja väkivalta
43 625
29 599
9
Itsensä vahingoittaminen ja itsemurha
Snap Legal
624
9
Virheelliset tiedot
85
81
10
Toisena esiintyminen
8
6
19
Roskaposti
177 150
110 551
<1
Huumeet
869 178
590 658
5
Aseet
205 387
133 079
<1
Muut säännellyt tuotteet
48 280
37 028
9
Vihapuhe
10 344
8 683
10
Terrorismi ja väkivaltainen ekstremismi
5 585
2 951
21
Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ja seksuaalisen riiston (CSEA) ehkäiseminen, tunnistaminen ja torjuminen alustallamme on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.
Käytämme aktiivisen teknologian havaitsemistyökaluja auttaaksemme tunnistamaan CSEA:hun liittyvää sisältöä. Näihin työkaluihin kuuluvat hash-vastaavuuden työkalut (mukaan lukien PhotoDNA ja Googlen CSAI Match, joilla tunnistetaan tunnetut laittomat CSEA-kuvat ja -videot) ja Googlen sisällön turvallisuuden API (jolla tunnistetaan uudet, "ei koskaan aiemmin hashattu" -laittomat kuvat). Lisäksi käytämme joissakin tapauksissa käyttäytymiseen liittyviä signaaleja valvoaksemme muuta epäiltyä CSEA-toimintaa vastaan. Ilmoitamme CSEA:an liittyvästä sisällöstä lain vaatimusten mukaisesti U.S. National Center for Missing and Exploited Children -järjestöön (NCMEC). NCMEC koordinoi sen jälkeen tarpeen mukaan kotimaisen tai kansainvälisen lainvalvonnan kanssa.
Vuoden 2024 toisen puoliskon aikana ryhdyimme seuraaviin toimiin tunnistettuamme CSEA-sisältöä Snapchatissa (joko ennakoivasti tai saatuamme raportin):
Toimenpiteisiin johtanut sisältö yhteensä
Suljettujen tilien kokonaismäärä
NCMEC:lle lähetettyjen ilmoitusten kokonaismäärä*
1 228 929
242 306
417 842
*Huomaa, että yksi NCMEC:lle lähetetty ilmoitus voi koostua useammasta sisältöyksiköstä. NCMEC:lle lähetettyjen yksittäisten mediayksiköiden kokonaismäärä on yhtä suuri kuin valvomiemme sisältöjen kokonaismäärä.
Pyrkimyksemme tarjota resursseja ja tukea niitä tarvitseville Snapchattaajille
Snapchat mahdollistaa kavereiden auttaa toisiaan vaikeina aikoina tarjoamalla resursseja ja tukea sitä tarvitseville Snapchattaajille.
Here For You -hakutyökalumme tarjoaa asiantuntijoiden resursseja, kun käyttäjät etsivät tiettyjä aiheita, jotka liittyvät mielenterveyteen, ahdistukseen, masennukseen, stressiin, itsetuhoisiin ajatuksiin, suruun ja kiusaamiseen. Olemme myös kehittäneet seksuaalisella sisällöllä kiristämiseen sekä muihin seksuaalisiin riskeihin ja haittoihin liittyvän sivuston tukeaksemme hädässä olevia. Maailmanlaajuinen turvallisuusresurssien luettelomme on kaikkien Snapchattaajien saatavilla julkisesti Tietosuoja-, turvallisuus- ja käytäntökeskuksessamme.
Kun turvallisuustiimimme tulevat tietoisiksi hädässä olevasta Snapchattaajasta, heillä on valmiudet tarjota itsensä vahingoittamisen ehkäisy- ja tukiresursseja ja ilmoittaa tarvittaessa hätäpalveluille. Jakamamme resurssit löytyvät maailmanlaajuiselta turvallisuusresurssien listaltamme, ja ne ovat kaikkien Snapchattaajien käytettävissä.
Itsemurhasisältöä jaettu yhteensä
64 094
Valitukset
Alla on tietoa vetoomuksista, joita saimme käyttäjiltä, jotka pyytävät tarkistusta päätöksestämme lukita heidän tilinsä vuoden 2024 toisella puoliskolla:
Toimintalinjan perustelu
Valitukset yhteensä
Uudelleenasettamiset yhteensä
Hyväksytyt päätökset yhteensä
Valitusten käsittelyyn kuluva keskimääräinen käsittelyaika (päivää)
YHTEENSÄ
493 782
35 243
458 539
5
Seksuaalinen sisältö
162 363
6 257
156 106
_Core
Lasten seksuaalinen hyväksikäyttö
102 585
15 318
87 267
6
Häirintä ja kiusaaminen
53 200
442
52 758
7
Uhkaukset ja väkivalta
4 238
83
4 155
5
Itsensä vahingoittaminen ja itsemurha
31
1
30
5
Virheelliset tiedot
3
0
3
<1
Toisena esiintyminen
Augmented Reality
33
_Core
7
Roskaposti
19 533
5 090
14 443
9
Huumeet
133 478
7 598
125 880
_Core
Aseet
4 678
136
4 542
6
Muut säännellyt tuotteet
9 153
168
8 985
6
Vihapuhe
3 541
Snapchat
3 427
7
Terrorismi ja väkivaltainen ekstremismi
132
3
129
9
Alueellinen ja maakohtainen yleiskatsaus
Tämä osio antaa katsauksen turvallisuustiimimme toimista yhteisömme sääntöjen täytäntöönpanemiseksi, sekä ennakoivasti että vastauksena sovelluksen sisäisiin ilmoituksiin rikkomuksista tietyillä maantieteellisillä alueilla. Yhteisömme säännöt koskevat kaikkea Snapchat-sisältöä ja kaikkia Snapchattaajia ympäri maailmaa sijainnista riippumatta.
Yksittäisiä maita, myös kaikkia EU:n jäsenvaltioita, koskevat tiedot ovat ladattavissa oheisen CSV-tiedoston kautta.
Alue
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
Pohjois-Amerikka
3 828 389
2 117 048
Eurooppa
2 807 070
1 735 054
Muu maailma
3 396 651
1 846 110
Yhteensä
10 032 110
5 698 212
Alue
Sisältö- ja tili-ilmoitukset
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
Pohjois-Amerikka
5 916 815
2 229 465
1 391 304
Eurooppa
5 781 317
2 085 109
1 378 883
Muu maailma
7 681 716
2 031 934
1 319 934
Yhteensä
19 379 848
6 346 508
4 090 121
Täytäntöönpanot yhteensä
Yksittäiset toimenpiteisiin johtaneet tilit yhteensä
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Mainosten moderointi
Snap on sitoutunut varmistamaan, että kaikki mainokset ovat täysin mainonnan sääntöjemme mukaisia. Uskomme vastuulliseen lähestymistapaan mainostamisessa, luoden turvallisen kokemuksen kaikille Snapchattaajille. Kaikki mainokset tulevat meidän tarkastettavaksemme ja hyväksyttäväksemme. Lisäksi pidätämme oikeuden poistaa mainoksia myös reaktiona käyttäjän palautteeseen, johon suhtaudumme vakavasti.
Alla on tietoja sellaisten maksullisten mainosten moderoinnista, joista on ilmoitettu meille sen jälkeen, kun ne on julkaistu Snapchatissa. Huomaa, että Snapchatissa olevat mainokset voidaan poistaa useista eri syistä, kuten Snapin mainoskäytännöissä kerrotaan, mukaan lukien harhaanjohtava sisältö, aikuisille suunnattu sisältö, väkivaltainen tai häiritsevä sisältö, vihapuhe ja immateriaalioikeusten loukkaaminen. Lisäksi löydät nyt Snapchatin mainosgallerian Snapin läpinäkyvyyskeskuksesta, johon pääsee suoraan navigointipalkin kautta.
Ilmiannettujen mainosten kokonaismäärä
Poistettujen mainosten kokonaismäärä
43 098
17 833