Snap Values
Läpinäkyvyysraportti
1. tammikuuta 2024 – 30. kesäkuuta 2024

Julkaistu:

5. joulukuuta 2024

Päivitetty:

5. joulukuuta 2024

Julkaisemme läpinäkyvyysraportin kahdesti vuodessa tarjotaksemme tietoa Snapin turvallisuustoimista. Olemme sitoutuneet näihin toimiin ja pyrimme jatkuvasti tekemään näistä raporteista kattavampia ja informatiivisempia monille sidosryhmille, jotka välittävät syvästi sisällön moderoinnista, viranomaisten käytännöistä sekä Snapchat-yhteisön turvallisuudesta ja hyvinvoinnista. 

Tämä läpinäkyvyysraportti kattaa vuoden 2024 ensimmäisen puoliskon (1. tammikuuta – 30. kesäkuuta). Kuten aikaisemmissakin raporteissamme, jaamme tietoa sovelluksessa maailmanlaajuisesti jaetun sisällön määrästä ja tilitason ilmoituksista, joita luottamus- ja turvallisuustiimimme ovat saaneet ja joita koskien on tehty toimenpiteitä tiettyjen yhteisön sääntöjen luokkien osalta; miten olemme vastanneet lainvalvontaviranomaisten ja hallitusten pyyntöihin; ja miten vastasimme tekijänoikeus- ja tavaramerkkiloukkauksiin liittyviin ilmoituksiin. Tämän sivun alareunassa linkitetyissä tiedostoissa on myös maakohtaisia näkemyksiä.

Osana jatkuvaa sitoutumistamme parantaa läpinäkyvyysraportteja esittelemme myös uusia tietoja, joissa esitellään ennakoivia toimia voidaksemme havaita useampia yhteisön sääntöjen rikkomuksia ja ryhtyäksemme toimenpiteisiin. Olemme sisällyttäneet näitä tietoja raporttiin sekä maailmanlaajuisella että maakohtaisella tasolla ja teemme näin myös jatkossa. Olemme myös korjanneet edellisissä raporteissamme olleen merkintävirheen: puhuimme aiemmin "Toimenpiteisiin johtanut sisältö yhteensä" -kohdasta, mutta kohdan nimi on nyt "Täytäntöönpanot yhteensä". Tämä johtuu siitä, että kyseisissä sarakkeissa esitetään sekä sisältötason että tilitason täytäntöönpanotoimia.

Lisätietoja toimintatavoistamme verkkohaittojen torjumiseksi ja raportointikäytäntöjen kehittämisestä on Turvallisuus- ja vaikuttavuusblogissa, jossa käsitellään tätä läpinäkyvyysraporttia. Löydät lisäresursseja Snapchatin tietoturvaan ja yksityisyyteen liittyen sivun alalaidan Tietoa läpinäkyvyysraportoinnista -välilehden alta.

Huomaa, että tämän läpinäkyvyysraportin viimeisin versio löytyy EN-US-kieliversiona.

Yleiskatsaus luottamus- ja turvallisuustiimiemme toimista yhteisömme sääntöjen täytääntöönpanemiseksi

Luottamus- ja turvallisuustiimimme valvovat yhteisömme sääntöjen noudattamista sekä ennakoivasti (automaattisten työkalujen avulla) että reaktiivisesti (reagoimalla ilmoituksiin), kuten tämän raportin seuraavissa osissa on tarkemmin kerrottu. Tällä raportointijaksolla (H1 2024) luottamus- ja turvallisuustiimimme suorittivat seuraavat täytäntöönpanotoimet: 

Alla on asiaan liittyvien yhteisön sääntöjen rikkomusten tyypin mukainen erittely, mukaan lukien rikkomuksen havaitsemisen ajankohdan (joko ennakoivasti tai ilmoituksesta) ja asiaankuuluvaan sisältöön tai tiliin kohdistuvan lopullisen toiminnan välinen keskimääräinen aika:

Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti 1 sisältöyksikön katsottiin rikkoneen yhteisön sääntöjä.

Yhteisön säännöt Luottamus- ja turvallisuustiimeillemme ilmoitetut rikkomukset

Aikavälillä 1. tammikuuta – 30. kesäkuuta 2024 Snapin luottamus- ja turvallisuustiimit tekivät yhteensä 6 223 618 täytäntöönpanotoimea maailmanlaajuisesti, mukaan lukien 3 842 507 täytäntöönpanotoimea yksittäisillä tileillä, vastauksena sovelluksensisäisiin ilmoituksiin yhteisön sääntöjen rikkomuksista. Luottamus- ja turvallisuustiimimme läpimenoaika näihin raportteihin liittyvien täytäntöönpanotoimien osalta oli keskimäärin 24 minuuttia. Alla on raportointiluokkakohtainen erittely. 

Analyysi

Yleiset ilmoitusmäärät pysyivät vuoden 2024 ensimmäisellä puoliskolla melko tasaisina verrattuna edelliseen vuosipuoliskoon. Tällä jaksolla täytäntöönpanotoimien ja täytäntöönpanotoimien kohteena olevien yksittäisten tilien kokonaismäärä kasvoi noin 16 %.

Kuluneen 12 kuukauden aikana Snap esitteli käyttäjille uusia ilmoitusmekanismeja. Tämä johti muutoksiin ilmoitusten ja täytäntöönpanotoimien määrissä sekä tämän raportointikauden (H1 2024) käsittelyaikoihin. Erityisesti:

  • Ryhmächatin ilmoitukset: 13. lokakuuta 2023 otimme käyttöön ryhmächat-ilmoitukset, joiden avulla käyttäjät voivat ilmoittaa ryhmächateissä tapahtuvasta väärinkäytöstä. Tämä muutos vaikutti myös ilmoituskategorioiden mittareiden kokoonpanoon (koska osa mahdollisista haitoista tapahtuu todennäköisemmin chatissa) ja lisäsi ilmoitusten kannekelpoisuutta. 

  • Kehittyneemmät tilien ilmoitusominaisuudet: Olemme myös parannelleet tilien ilmoitusominaisuuksia, jotta käyttäjät voivat lähettää meille chat-aineistoa ilmoittaessaan epäilevänsä, että tiliä hallinnoi vilpillinen tekijä. Muutos otettiin käyttöön 29. helmikuuta 2024. Se tarjoaa meille enemmän todisteita ja kontekstia tili-ilmoituksien arvioimiseksi. 


Chat-ilmoitusten ja erityisesti ryhmächat-ilmoitusten arviointi on kaikkein monimutkaisinta ja vie eniten aikaa, mikä kasvatti kokonaiskäsittelyaikaa. 

Yllämainitut kaksi muutosta sekä laajemman ekosysteemin muutokset vaikuttivat erityisesti epäillyn lasten seksuaalisen hyväksikäytön ja seksuaalisen riiston (CSEA), häirinnän ja kiusaamisen sekä vihapuheen ilmoituksiin. Erityisesti:

  • CSEA: Vuoden 2024 ensimmäisellä puoliskolla havaitsimme enemmän CSEA-aiheisiin liittyviä raportteja ja täytäntöönpanotoimia. Erityisesti havaitsimme 64 prosentin kasvun käyttäjien tekemissä sovelluksensisäisten ilmoitusten kokonaismäärässä, 82 prosentin kasvun täytäntöönpanotoimien kokonaismäärässä ja 108 prosentin kasvun täytäntöönpanotoimien kohteena olevien tilien kokonaismäärässä. Tämä kasvu johtuu pitkälti ryhmächatin ja tilin raportointitoimintojen käyttöönotosta. Tämän moderointijonon arkaluonteisen aiheen vuoksi mahdollisia CSEA-aiheisiin liittyviä rikkomuksia käsittelevään tiimiin on valittu joukko korkeasti koulutettuja työntekijöitä. Uusien raporttien määrän ja tiimien koulutusten vuoksi käsittelyajat ovat kasvaneet. Tulevaisuutta ajatellen olemme kasvattaneet maailmanlaajuisten toimittajatiimien kokoa huomattavasti lyhentääksemme käsittelyaikoja ja ryhtyäksemme oikeanlaisiin täytäntöönpanotoimiin mahdollisten CSEA-ilmoitusten osalta. Odotamme vuoden 2024 toisen puoliskon läpinäkyvyysraportin heijastelevan tämän työn tuloksia huomattavasti paremman käsittelyajan merkeissä. 

  • Häirintä ja kiusaaminen: Ilmoitusten perusteella olemme havainneet, että häirintää ja kiusaamista esiintyy suhteettoman paljon chateissa ja erityisesti ryhmächateissa. Ryhmächat-ilmoituksiin ja tili-ilmoituksiin tekemämme parannukset auttavat meitä ryhtymään kattavampiin toimiin, kun arvioimme tämän ilmoituskategorian ilmoituksia. Tämän lisäksi vaadimme käyttäjää kirjoittamaan kommentin, kun hän lähettää häirintään ja kiusaamiseen liittyvän ilmoituksen. Tarkastelemme tätä kommenttia saadaksemme kuhunkin raporttiin lisäkontekstia. Yhdessä nämä muutokset johtivat olennaiseen lisäykseen kyseisiin ilmoituksiin liittyvien täytäntöönpanotoimien kokonaismäärässä (+91 %), täytäntöönpanotoimien kohteena olevien yksittäisten tilien kokonaismäärässä (+82 %) ja käsittelyajoissa (+245 min). 

  • Vihapuhe: Vuoden 2024 ensimmäisellä puoliskolla havaitsimme enemmän vihapuheeseen liittyviä sisältöilmoituksia ja täytäntöönpanotoimia sekä pidempiä käsittelyaikoja. Erityisesti havaitsimme 61 prosenttia enemmän sovelluksensisäisiä ilmoituksia, 127 prosenttia enemmän täytäntöönpanotoimia ja 125 prosenttia enemmän täytäntöönpanotoimien kohteena olevia yksittäisiä tilejä. Tämä johtui osittain paremmista chat-ilmoitusmekanismeista (yllä mainitun mukaisesti) sekä geopoliittisen ympäristön heikentymisestä ja erityisesti Israelin ja Hamasin välisen konfliktin jatkumisesta. 

Tällä ilmoituskaudella havaitsimme 65 prosenttia vähemmän täytäntöönpanotoimia ja noin 60 prosenttia vähemmän täytäntöönpanotoimien kohteena olevia yksittäisiä tilejä epäillyn roskapostin ja väärinkäytösten johdosta. Tämä johtuu ennakoivien havaitsemis- ja täytäntöönpanotyökalujen parannuksista. Näimme vastaavia laskuja täytäntöönpanotoimien kokonaismäärässä itsetuhoisiin ajatuksiin ja itsemurhaan liittyvien sisältöilmoitusten osalta (80 % vähemmän). Tämä vastaa päivitettyä uhrikeskeistä lähestymistapaamme, jonka mukaan luottamus- ja turvallisuustiimimme lähettää asianmukaisissa tapauksissa kyseisille käyttäjille tukiresursseja kyseisiin käyttäjien kohdistuvien täytäntöönpanotoimien sijaan. Turvallisuuslautakuntamme on tämän lähestymistavan takana. Lautakuntaan kuuluu muun muassa lastentautiopin professori ja lääkäri, joka on erikoistunut vuorovaikutteiseen mediaan ja internetriippuvuuksiin.

Pyrkimyksemme tunnistaa ennakoivasti yhteisön sääntöjen rikkomuksia ja ryhtyä täytäntöönpanotoimiin

Yhteisön sääntöjen ennaltaehkäisevä havaitseminen ja täytäntöönpano


Käytämme automaattisia työkaluja tunnistaaksemme yhteisön sääntöjen rikkomuksia ennakoivasti ja joissakin tapauksissa myös ryhtyäksemme täytäntöönpanotoimiin. Näitä työkaluja ovat muun muassa hash-matching-työkalut (kuten PhotoDNA ja Googlen lasten seksuaalisen hyväksikäytön kuvamateriaalin (Child Sexual Abuse Imagery, CSAI) tunnistusteknologia), loukkaavan kielen havaitsemistyökalut (jotka havaitsevat ja valvovat tunnistetun ja säännöllisesti päivitetyn luettelon ja emojien perusteella) sekä multimodaalinen tekoäly- ja koneoppimisteknologia. 

Vuoden 2024 ensimmäisellä puoliskolla havaitsimme automaattisten työkalujen avulla ennakoivasti yhteisön sääntöjen rikkomuksia ja toteutimme seuraavat täytäntöönpanotoimet:

Lasten seksuaalisen hyväksikäytön estäminen 

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ja seksuaalisen riiston (CSEA) ehkäiseminen, tunnistaminen ja torjuminen on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.

Käytämme aktiivisia teknologian havaitsemistyökaluja, kuten luotettavaa PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäyttöön liittyvän kuvamateriaalin (Child Sexual Abuse Imagery, CSAI) tunnistusta, tunnistaaksemme lapsen seksuaaliseen hyväksikäyttöön ja seksuaaliseen riistoon (CSEA) liittyviä laittomia kuvia ja videoita. Lisäksi joissakin tapauksissa käytämme käyttäytymiseen perustuvia signaaleja muun mahdollisesti laittoman CSEA-toiminnan torjumiseksi. Ilmoitamme CSEA:an liittyvästä sisällöstä lain vaatimusten mukaisesti U.S. National Center for Missing and Exploited Children -järjestöön (NCMEC). Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.

Vuoden 2024 ensimmäisen puolikkaan aikana ryhdyimme seuraaviin toimiin havaittuamme CSEA-sisältöä Snapchatissa (joko ennakoivasti tai saatuamme raportin):

*Huomaa, että yksi NCMEC:lle lähetetty ilmoitus voi koostua useammasta sisältöyksiköstä. NCMEC:lle lähetettyjen yksittäisten mediayksiköiden kokonaismäärä on yhtä suuri kuin kaikkien valvottujemme sisältöjen kokonaismäärä.

Pyrkimyksemme tarjota resursseja ja tukea niitä tarvitseville Snapchattaajille

Välitämme syvästi Snapchat-käyttäjien mielenterveydestä ja hyvinvoinnista. Tämä on edelleen tärkeä lähtökohta, kun teemme Snapchatia koskevia kehityspäätöksiä. Todellisten kavereiden väliseen ja keskeiseen viestintään suunniteltuna alustana uskomme, että Snapchatilla voi olla ainutlaatuinen rooli kavereiden auttamisessa vaikeiden aikojen lävitse. Siksi olemme kehittäneet resursseja ja tukea niitä tarvitseville Snapchattaajille. 

Here For You -hakutyökalu sisältää resursseja paikallisilta asiantuntijakumppaneilta, kun käyttäjät hakevat tiettyjä mielenterveyteen, ahdistukseen, masennukseen, stressiin, itsetuhoisiin ajatuksiin, suruun ja kiusaamiseen liittyviä aiheita. Olemme myös kehittäneet seksuaalisella sisällöllä kiristämiseen sekä muihin seksuaalisiin riskeihin ja haittoihin liittyvän sivuston tukeaksemme hädässä olevia. Maailmanlaajuinen turvallisuusresurssien luettelomme on kaikkien Snapchattaajien saatavilla julkisesti Tietosuoja-, turvallisuus- ja käytäntökeskuksessamme. 

Kun luottamus- ja turvallisuustiimimme saavat tietoonsa, että Snapchattaaja on hädässä, he voivat välittää edelleen itsetuhoisen vahingoittamisen ehkäisy- ja tukiresursseja ja tarvittaessa ilmoittaa hätäkeskukseen. Jakamamme resurssit löytyvät maailmanlaajuiselta turvallisuusresurssien listaltamme, ja ne ovat julkisesti kaikkien Snapchattaajien käytettävissä.

Valitukset

Alla on tietoja valituksista, joita olemme saaneet käyttäjiltä, jotka pyytävät tilin lukitusta koskevan päätöksen tarkistamista:

* Ylläolevassa Analyysi-osiossa keskustellun mukaisesti lasten seksuaaliseen riistoon liittyvän sisällön tai toiminnan leviämisen pysäyttäminen on ensisijaisen tärkeää. Snap ohjaa huomattavia resursseja tähän tavoitteeseen ja sillä on nollatoleranssi tällaiseen käytökseen. Olemme laajentaneet maailmanlaajuisia toimittajatiimejämme Snapchatin uusiin käytäntöihin ja raportointiominaisuuksin sopeutuaksemme. Tämän ansiosta lyhensimme CSEA-valitusten käsittelyaikaa 152 päivästä 15 päivään vuoden 2023 jälkimmäisellä ja vuoden 2024 ensimmäisellä puoliskolla. Pyrimme jatkuvasti parantamaan prosessejamme myös valitusten käsittelyajan osalta.

Alueellinen ja maakohtainen yleiskatsaus

Tässä osassa esitetään yleiskatsaus luottamus- ja turvallisuustiimimme yhteisön sääntöjen noudattamisen valvomiseen liittyvistä toimista eri maantieteellisillä alueilla. Toimet ovat sekä ennaltaehkäiseviä että vastauksia rikkomuksiin, joista on tehty sovelluksensisäinen ilmoitus. Yhteisön sääntömme koskevat kaikkea Snapchat-sisältöä ja kaikkia Snapchattaajia ympäri maailmaa sijainnista riippumatta.

Yksittäisiä maita, myös kaikkia EU:n jäsenvaltioita, koskevat tiedot ovat ladattavissa oheisen CSV-tiedoston kautta.

Katsaus luottamus- ja turvallisuustiimimme toimista yhteisön sääntöjen täytäntöönpanemiseksi 

Yhteisön säännöt Luottamus- ja turvallisuustiimeillemme ilmoitetut rikkomukset

Yhteisön sääntöjen ennaltaehkäisevä havaitseminen ja täytäntöönpano

Mainosten moderointi

Snap on sitoutunut varmistamaan, että kaikki mainokset ovat täysin mainonnan sääntöjemme mukaisia. Uskomme vastuulliseen ja kunnioittavaan lähestymistapaan mainostamisessa, luoden turvallisen ja nautittavan kokemuksen kaikille käyttäjille. Kaikki mainokset tulevat meidän tarkastettavaksemme ja hyväksyttäväksemme. Lisäksi pidätämme oikeuden poistaa mainoksia myös reaktiona käyttäjän palautteeseen, johon suhtaudumme vakavasti. 


Alla on tietoja sellaisten maksullisten mainosten moderoinnista, joista on ilmoitettu meille sen jälkeen, kun ne on julkaistu Snapchatissa. Huomaa, että Snapchatissa olevat mainokset voidaan poistaa useista eri syistä, kuten Snapin mainoskäytännöissä kerrotaan, mukaan lukien harhaanjohtava sisältö, aikuisille suunnattu sisältö, väkivaltainen tai häiritsevä sisältö, vihapuhe ja immateriaalioikeusten loukkaaminen. Lisäksi löydät nyt Snapchatin mainosgallerian tämän läpinäkyvyysraportin navigointipalkista.