5. joulukuuta 2024
5. joulukuuta 2024
Julkaisemme läpinäkyvyysraportin kahdesti vuodessa tarjotaksemme tietoa Snapin turvallisuustoimista. Olemme sitoutuneet näihin toimiin ja pyrimme jatkuvasti tekemään näistä raporteista kattavampia ja informatiivisempia monille sidosryhmille, jotka välittävät syvästi sisällön moderoinnista, viranomaisten käytännöistä sekä Snapchat-yhteisön turvallisuudesta ja hyvinvoinnista.
Tämä läpinäkyvyysraportti kattaa vuoden 2024 ensimmäisen puoliskon (1. tammikuuta – 30. kesäkuuta). Kuten aikaisemmissakin raporteissamme, jaamme tietoa sovelluksessa maailmanlaajuisesti jaetun sisällön määrästä ja tilitason ilmoituksista, joita luottamus- ja turvallisuustiimimme ovat saaneet ja joita koskien on tehty toimenpiteitä tiettyjen yhteisön sääntöjen luokkien osalta; miten olemme vastanneet lainvalvontaviranomaisten ja hallitusten pyyntöihin; ja miten vastasimme tekijänoikeus- ja tavaramerkkiloukkauksiin liittyviin ilmoituksiin. Tämän sivun alareunassa linkitetyissä tiedostoissa on myös maakohtaisia näkemyksiä.
Osana jatkuvaa sitoutumistamme parantaa läpinäkyvyysraportteja esittelemme myös uusia tietoja, joissa esitellään ennakoivia toimia voidaksemme havaita useampia yhteisön sääntöjen rikkomuksia ja ryhtyäksemme toimenpiteisiin. Olemme sisällyttäneet näitä tietoja raporttiin sekä maailmanlaajuisella että maakohtaisella tasolla ja teemme näin myös jatkossa. Olemme myös korjanneet edellisissä raporteissamme olleen merkintävirheen: puhuimme aiemmin "Toimenpiteisiin johtanut sisältö yhteensä" -kohdasta, mutta kohdan nimi on nyt "Täytäntöönpanot yhteensä". Tämä johtuu siitä, että kyseisissä sarakkeissa esitetään sekä sisältötason että tilitason täytäntöönpanotoimia.
Lisätietoja toimintatavoistamme verkkohaittojen torjumiseksi ja raportointikäytäntöjen kehittämisestä on Turvallisuus- ja vaikuttavuusblogissa, jossa käsitellään tätä läpinäkyvyysraporttia. Löydät lisäresursseja Snapchatin tietoturvaan ja yksityisyyteen liittyen sivun alalaidan Tietoa läpinäkyvyysraportoinnista -välilehden alta.
Huomaa, että tämän läpinäkyvyysraportin viimeisin versio löytyy EN-US-kieliversiona.
Yleiskatsaus luottamus- ja turvallisuustiimiemme toimista yhteisömme sääntöjen täytääntöönpanemiseksi
Luottamus- ja turvallisuustiimimme valvovat yhteisömme sääntöjen noudattamista sekä ennakoivasti (automaattisten työkalujen avulla) että reaktiivisesti (reagoimalla ilmoituksiin), kuten tämän raportin seuraavissa osissa on tarkemmin kerrottu. Tällä raportointijaksolla (H1 2024) luottamus- ja turvallisuustiimimme suorittivat seuraavat täytäntöönpanotoimet:
Sisältö- ja tilirikkomusten tiivistelmä
1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.
Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.
Sisältö- ja tilirikkomusten tiivistelmä
1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.
Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.
Sisältö- ja tilirikkomusten tiivistelmä
1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.
Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.
Sisältö- ja tilirikkomusten analyysi
Raportoinnin ja toimenpiteisiin johtaneen sisällön määrä pysyi melko samalla tasolla kuin edellisten kuuden kuukauden aikana. Viimeisimmän syklin aikana oli yhteensä suunnilleen 10% enemmän sisältöä ja tiliraportteja.
Israelin ja Hamasin välinen konflikti alkoi tänä aikana, minkä seurauksena sääntöjä loukkaavaa sisältöä oli aikaisempaa enemmän. Vihapuheeseen liittyvien raporttien määrä kasvoi ~61 %, kun taas vihapuhesisällön, joka johti toimenpiteisiin, määrä kasvoi ~97 % ja erillisten tilien määrä, joihin kohdistui toimenpiteitä, kasvoi ~ 124 %. Terrorismia ja väkivaltaisia ääriliikkeitä koskevat raportit ja (sääntöjen täytäntöönpano-)toimenpiteet ovat myös lisääntyneet, vaikka niiden osuus on alle 0,1 % kaikista sisältöön kohdistuvista toimenpiteistä alustallamme. Trust & Safety -tiimimme pysyvät edelleen valppaina, kun globaaleja konflikteja ilmenee, jotta Snapchat pysyisi turvallisena. Olemme myös laajentaneet läpinäkyvyysraporttiamme sisältämään enemmän tietoa maailmanlaajuisella ja maakohtaisella tasolla raporttien kokonaismäärästä, toimenpiteisiin johtaneesta sisällöstä ja erillisten tilien määrästä, joihin on kohdistunut toimenpiteitä terrorismia ja väkivaltaisia ääriliikkeitä koskevan käytäntömme rikkomisen vuoksi.
Sisältö- ja tilirikkomusten tiivistelmä
1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.
Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.
Lasten seksuaalisen hyväksikäytön estäminen
Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.
Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.
Vuoden 2023 jälkipuoliskolla havaitsimme ennakoivasti 59 prosenttia kaikista raportoiduista lasten seksuaalista hyväksikäyttöä ja seksuaalista riistoa koskevista rikkomuksista ja toimimme niiden johdosta. Tämä kuvastaa 39 prosentin kokonaislaskua edelliseen kauteen verrattuna, mikä johtuu Snapchattereiden raportointivaihtoehtojen parannuksista, jotka lisäävät näkyvyyttämme Snapchatissa lähetettyjen mahdollisten CSEA:n lähetysten osalta.
*Huomaa, että yksi NCMEC:lle lähetetty ilmoitus voi koostua useammasta sisältöyksiköstä. NCMEC:lle lähetettyjen yksittäisten mediayksiköiden kokonaismäärä on yhtä suuri kuin valvomiemme sisältöjen kokonaismäärä. Olemme myös jättäneet NCMEC:lle toimitetut perutut artikkelit pois tästä määrästä.
Itsensä vahingoittamista ja itsemurhaa koskeva sisältö
Välitämme syvästi Snapchat-käyttäjien mielenterveydestä ja hyvinvoinnista. Tämä on edelleen tärkeä lähtökohta, kun teemme Snapchatia koskevia kehityspäätöksiä. Alustana, joka on suunniteltu todellisten kavereiden väliseen ja keskeiseen viestintään, uskomme, että Snapchatilla voi olla ainutlaatuinen rooli kavereiden auttamisessa vaikeiden aikojen lävitse.
Kun Trust & Safety -tiimimme saa tietoonsa, että Snapchattaaja on hädässä, he voivat välittää edelleen itsetuhoisen vahingoittamisen ehkäisy- ja tukiresursseja ja tarvittaessa ilmoittaa hätäkeskukseen. Jakamamme resurssit löytyvät maailmanlaajuiselta turvallisuusresurssien listaltamme, ja ne ovat julkisesti kaikkien Snapchattaajien käytettävissä.
Valitukset
Edellisessä raportissamme esittelimme muutoksenhakua koskevia mittareita, joissa korostimme, kuinka monta kertaa käyttäjät pyysivät meitä tarkistamaan alkuperäisen, heidän tiliään koskevan moderointipäätöksensä. Tässä raportissa olemme laajentaneet vetoomuksiamme kattamaan kaikki tilitason rikkomuksia koskevat toimintatapaluokat.
* Lasten seksuaaliseen hyväksikäyttöön liittyvän sisällön tai toiminnan leviämisen estäminen on ensisijainen tavoite. Snap ohjaa tähän tarkoitukseen huomattavia resursseja tähän tavoitteeseen ja sillä on nollatoleranssi tällaiseen käytökseen. Lasten seksuaalista hyväksikäyttöä koskevien valitusten tarkistaminen edellyttää erityiskoulutusta ja sisällön graafisen luonteen vuoksi niitä käsittelee rajoitettu valvojajoukko. Syksyllä 2023 Snap toteutti käytäntömuutoksia, jotka vaikuttivat tiettyjen lasten seksuaalista hyväksikäyttöä koskevien toimenpiteiden täytäntöönpanon johdonmukaisuuteen. Olemme korjanneet epäjohdonmukaisuudet valvojien jatkokoulutuksella ja tiukalla laadunvarmistuksella. Odotamme, että seuraava läpinäkyvyysraportti osoittaa kehityksen kohti parempia vastausaikoja ja ensimmäisten täytäntöönpanotoimien tarkkuutta lasten seksuaalista hyväksikäyttöä koskevien valitusten osalta.
Alueellinen ja maakohtainen yleiskatsaus
Tässä osassa esitetään yleiskatsaus luottamus- ja turvallisuustiimimme yhteisön sääntöjen noudattamisen valvomiseen liittyvistä toimista eri maantieteellisillä alueilla. Toimet ovat sekä ennaltaehkäiseviä että vastauksia rikkomuksiin, joista on tehty sovelluksensisäinen ilmoitus. Yhteisön sääntömme koskevat kaikkea Snapchat-sisältöä ja kaikkia Snapchattaajia ympäri maailmaa sijainnista riippumatta.
Yksittäisiä maita, myös kaikkia EU:n jäsenvaltioita, koskevat tiedot ovat ladattavissa oheisen CSV-tiedoston kautta.
Lasten seksuaalisen hyväksikäytön estäminen
Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.
Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.
Vuoden 2023 jälkipuoliskolla havaitsimme ennakoivasti 59 prosenttia kaikista raportoiduista lasten seksuaalista hyväksikäyttöä ja seksuaalista riistoa koskevista rikkomuksista ja toimimme niiden johdosta. Tämä kuvastaa 39 prosentin kokonaislaskua edelliseen kauteen verrattuna, mikä johtuu Snapchattereiden raportointivaihtoehtojen parannuksista, jotka lisäävät näkyvyyttämme Snapchatissa lähetettyjen mahdollisten CSEA:n lähetysten osalta.
Lasten seksuaalisen hyväksikäytön estäminen
Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.
Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.
Vuoden 2023 jälkipuoliskolla havaitsimme ennakoivasti 59 prosenttia kaikista raportoiduista lasten seksuaalista hyväksikäyttöä ja seksuaalista riistoa koskevista rikkomuksista ja toimimme niiden johdosta. Tämä kuvastaa 39 prosentin kokonaislaskua edelliseen kauteen verrattuna, mikä johtuu Snapchattereiden raportointivaihtoehtojen parannuksista, jotka lisäävät näkyvyyttämme Snapchatissa lähetettyjen mahdollisten CSEA:n lähetysten osalta.
Mainosten moderointi
Snap on sitoutunut varmistamaan, että kaikki mainokset ovat täysin mainoskäytäntöjemme mukaisia. Uskomme vastuulliseen ja kunnioittavaan lähestymistapaan mainostamisessa, luoden turvallisen ja nautittavan kokemuksen kaikille käyttäjille. Alla on kerrottu Snapchatin maksullisten mainosten moderoinnista. Huomaa, että Snapchatissa olevat mainokset voidaan poistaa useista eri syistä, kuten Snapin mainoskäytännöissä kerrotaan, mukaan lukien harhaanjohtava sisältö, aikuisille suunnattu sisältö, väkivaltainen tai häiritsevä sisältö, vihapuhe ja immateriaalioikeusten loukkaaminen. Lisäksi löydät nyt Snapchatin mainosgallerian tämän läpinäkyvyysraportin navigointipalkista.

























