Läpinäkyvyysraportti
1. heinäkuuta 2023 – 31. joulukuuta 2023

Julkaistu:

25. huhtikuuta 2024

Päivitetty:

25. huhtikuuta 2024

Voidaksemme tarjota lisää tietoa Snapin turvallisuuspyrkimyksistä ja alustallamme ilmoitetun sisällön luonteesta ja määrästä, julkaisemme tämän läpinäkyvyysraportteja kaksi kertaa vuodessa. Olemme sitoutuneet tekemään näistä raporteista entistä kattavampia ja informatiivisempia yhteisömme turvallisuuden ja hyvinvoinnin sekä niiden monien sidosryhmien turvallisuuden ja hyvinvoinnin kannalta, joille sisällön moderointi ja lainvalvonta- lakiin liittyviä toimenpiteitä koskevat käytäntömme ovat tärkeitä.

Tämä läpinäkyvyysraportti kattaa vuoden 2023 toisen puoliskon (1. heinäkuuta – 31. joulukuuta). Kuten aikaisemmissakin raporteissamme, jaamme tietoa sovelluksessa maailmanlaajuisesti jaetun sisällön määrästä ja tilitason raporteista, jotka olemme saaneet ja joita koskien on tehty toimenpiteitä tiettyjen rikkomusluokkien osalta; miten olemme vastanneet lainvalvontaviranomaisten ja hallitusten pyyntöihin; ja täytäntöönpanotoimemme maittain eriteltyinä.

Osana sitoutumistamme parantaa jatkuvasti läpinäkyvyysraporttejamme esittelemme tässä julkaisussa muutamia uusia elementtejä.

Ensinnäkin olemme laajentaneet päätaulukkoa siten, että se sisältää sekä terrorismiin ja väkivaltaisiin ääriliikkeisiin tai äärikäyttäytymiseen että lasten seksuaaliseen hyväksikäyttöön ja muuhun lasten hyväksikäyttöön (CSEA) liittyvää sisältöä ja tilejä koskevat raportit ja täytäntöönpanotoimet. Aiemmissa raporteissa olimme korostaneet näiden rikkomusten johdosta tehtyjä tilien poistoja erillisissä osioissa. Jatkamme CSEA:n vastaisten ennakoivien ja reaktiivisten toimien sekä NCMEC:lle antamiemme raporttien esittämistä erillisessä osiossa.

Lisäksi olemme lisänneet tietoja valittamisesta, joista käy ilmi valitusten kokonaismäärä ja palauttamisten kokonaismäärä yhteisön sääntöjen eri täytäntöönpanojen mukaan jaoteltuna.

Lisäksi olemme laajentaneet Euroopan unionia koskevaa osiota, jossa on lisätietoja Snapin EU:hun liittyvästä toiminnasta ja toimista EU:ssa. Julkaisemme viimeisimmän DSA:n avoimuusraportin ja CSEA-mediaskannaustamme koskevia lisämittareita.

Lisätietoja verkkohaittojen torjumiseen tähtäävistä käytännöistämme ja raportoinnin kehittämiseen liittyvistä suunnitelmista saat lukemalla viimeisimmästä Tietoturva & Vaikutus -blogista lisää läpinäkyvyysraportistamme.  Voit löytää lisäresursseja Snapchatin tietoturvaan ja yksityisyyteen liittyen sivun alalaidan Tietoa läpinäkyvyysraportoinnista -välilehden alta.

Huomaa, että tämän läpinäkyvyysraportin viimeisin versio löytyy en-US-kieliversiona.

Sisältö- ja tilirikkomusten tiivistelmä

1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.

Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.

Sisältö- ja tilirikkomusten tiivistelmä

1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.

Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.

Sisältö- ja tilirikkomusten tiivistelmä

1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.

Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.

Sisältö- ja tilirikkomusten tiivistelmä

1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.

Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.

Sisältö- ja tilirikkomusten analyysi

Raportoinnin ja toimenpiteisiin johtaneen sisällön määrä pysyi melko samalla tasolla kuin edellisten kuuden kuukauden aikana. Viimeisimmän syklin aikana oli yhteensä suunnilleen 10% enemmän sisältöä ja tiliraportteja.

Israelin ja Hamasin välinen konflikti alkoi tänä aikana, minkä seurauksena sääntöjä loukkaavaa sisältöä oli aikaisempaa enemmän. Vihapuheeseen liittyvien raporttien määrä kasvoi ~61 %, kun taas vihapuhesisällön, joka johti toimenpiteisiin, määrä kasvoi ~97 % ja erillisten tilien määrä, joihin kohdistui toimenpiteitä, kasvoi ~ 124 %. Terrorismia ja väkivaltaisia ääriliikkeitä koskevat raportit ja (sääntöjen täytäntöönpano-)toimenpiteet ovat myös lisääntyneet, vaikka niiden osuus on alle 0,1 % kaikista sisältöön kohdistuvista toimenpiteistä alustallamme. Trust & Safety -tiimimme pysyvät edelleen valppaina, kun globaaleja konflikteja ilmenee, jotta Snapchat pysyisi turvallisena. Olemme myös laajentaneet läpinäkyvyysraporttiamme sisältämään enemmän tietoa maailmanlaajuisella ja maakohtaisella tasolla raporttien kokonaismäärästä, toimenpiteisiin johtaneesta sisällöstä ja erillisten tilien määrästä, joihin on kohdistunut toimenpiteitä terrorismia ja väkivaltaisia ääriliikkeitä koskevan käytäntömme rikkomisen vuoksi.

Sisältö- ja tilirikkomusten tiivistelmä

1. heinäkuuta ja 31. joulukuuta 2023 välisenä aikana Snap suoritti maailmanlaajuisesti toimenpiteitä 5 376 714 sisältökohteeseen, joista meille raportoitiin, ja jotka rikkoivat yhteisön sääntöjämme.

Raportointijakson aikana Violative View Rate (VVR) oli 0,01 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme katsottiin rikkoneen 1 sisältöyksikköä. Raportoidun sisältöön kohdistuvien toimenpiteiden toteuttamiseen kului keskimäärin 10 minuuttia.

Lasten seksuaalisen hyväksikäytön estäminen

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.

Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.

Vuoden 2023 jälkipuoliskolla havaitsimme ennakoivasti 59 prosenttia kaikista raportoiduista lasten seksuaalista hyväksikäyttöä ja seksuaalista riistoa koskevista rikkomuksista ja toimimme niiden johdosta. Tämä kuvastaa 39 prosentin kokonaislaskua edelliseen kauteen verrattuna, mikä johtuu Snapchattereiden raportointivaihtoehtojen parannuksista, jotka lisäävät näkyvyyttämme Snapchatissa lähetettyjen mahdollisten CSEA:n lähetysten osalta. 

*Huomaa, että yksi NCMEC:lle lähetetty ilmoitus voi koostua useammasta sisältöyksiköstä. NCMEC:lle lähetettyjen yksittäisten mediayksiköiden kokonaismäärä on yhtä suuri kuin valvomiemme sisältöjen kokonaismäärä. Olemme myös jättäneet NCMEC:lle toimitetut perutut artikkelit pois tästä määrästä.

Itsensä vahingoittamista ja itsemurhaa koskeva sisältö

Välitämme syvästi Snapchat-käyttäjien mielenterveydestä ja hyvinvoinnista. Tämä on edelleen tärkeä lähtökohta, kun teemme Snapchatia koskevia kehityspäätöksiä. Alustana, joka on suunniteltu todellisten kavereiden väliseen ja keskeiseen viestintään, uskomme, että Snapchatilla voi olla ainutlaatuinen rooli kavereiden auttamisessa vaikeiden aikojen lävitse.

Kun Trust & Safety -tiimimme saa tietoonsa, että Snapchattaaja on hädässä, he voivat välittää edelleen itsetuhoisen vahingoittamisen ehkäisy- ja tukiresursseja ja tarvittaessa ilmoittaa hätäkeskukseen. Jakamamme resurssit löytyvät maailmanlaajuiselta turvallisuusresurssien listaltamme, ja ne ovat julkisesti kaikkien Snapchattaajien käytettävissä.

Valitukset

Edellisessä raportissamme esittelimme muutoksenhakua koskevia mittareita, joissa korostimme, kuinka monta kertaa käyttäjät pyysivät meitä tarkistamaan alkuperäisen, heidän tiliään koskevan moderointipäätöksensä. Tässä raportissa olemme laajentaneet vetoomuksiamme kattamaan kaikki tilitason rikkomuksia koskevat toimintatapaluokat.

* Lasten seksuaaliseen hyväksikäyttöön liittyvän sisällön tai toiminnan leviämisen estäminen on ensisijainen tavoite. Snap ohjaa tähän tarkoitukseen huomattavia resursseja tähän tavoitteeseen ja sillä on nollatoleranssi tällaiseen käytökseen.  Lasten seksuaalista hyväksikäyttöä koskevien valitusten tarkistaminen edellyttää erityiskoulutusta ja sisällön graafisen luonteen vuoksi niitä käsittelee rajoitettu valvojajoukko.  Syksyllä 2023 Snap toteutti käytäntömuutoksia, jotka vaikuttivat tiettyjen lasten seksuaalista hyväksikäyttöä koskevien toimenpiteiden täytäntöönpanon johdonmukaisuuteen. Olemme korjanneet epäjohdonmukaisuudet valvojien jatkokoulutuksella ja tiukalla laadunvarmistuksella.  Odotamme, että seuraava läpinäkyvyysraportti osoittaa kehityksen kohti parempia vastausaikoja ja ensimmäisten täytäntöönpanotoimien tarkkuutta lasten seksuaalista hyväksikäyttöä koskevien valitusten osalta.

Alueellinen ja maakohtainen yleiskatsaus

Tämä osio antaa yleiskatsauksen yhteisön sääntöjen täytäntöönpanosta maantieteellisten alueiden perusteella. Yhteisön sääntöjä sovelletaan kaiken Snapchat-sisällön osalta ja ne koskevat kaikkia Snapchattaajia ympäri maailmaa sijainnista riippumatta.

Yksittäisiä maita, myös kaikkia EU:n jäsenvaltioita, koskevat tiedot ovat ladattavissa oheisen CSV-tiedoston kautta.

Lasten seksuaalisen hyväksikäytön estäminen

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.

Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.

Vuoden 2023 jälkipuoliskolla havaitsimme ennakoivasti 59 prosenttia kaikista raportoiduista lasten seksuaalista hyväksikäyttöä ja seksuaalista riistoa koskevista rikkomuksista ja toimimme niiden johdosta. Tämä kuvastaa 39 prosentin kokonaislaskua edelliseen kauteen verrattuna, mikä johtuu Snapchattereiden raportointivaihtoehtojen parannuksista, jotka lisäävät näkyvyyttämme Snapchatissa lähetettyjen mahdollisten CSEA:n lähetysten osalta. 

Lasten seksuaalisen hyväksikäytön estäminen

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.

Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.

Vuoden 2023 jälkipuoliskolla havaitsimme ennakoivasti 59 prosenttia kaikista raportoiduista lasten seksuaalista hyväksikäyttöä ja seksuaalista riistoa koskevista rikkomuksista ja toimimme niiden johdosta. Tämä kuvastaa 39 prosentin kokonaislaskua edelliseen kauteen verrattuna, mikä johtuu Snapchattereiden raportointivaihtoehtojen parannuksista, jotka lisäävät näkyvyyttämme Snapchatissa lähetettyjen mahdollisten CSEA:n lähetysten osalta. 

Lasten seksuaalisen hyväksikäytön estäminen

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.

Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.

Vuoden 2023 jälkipuoliskolla havaitsimme ennakoivasti 59 prosenttia kaikista raportoiduista lasten seksuaalista hyväksikäyttöä ja seksuaalista riistoa koskevista rikkomuksista ja toimimme niiden johdosta. Tämä kuvastaa 39 prosentin kokonaislaskua edelliseen kauteen verrattuna, mikä johtuu Snapchattereiden raportointivaihtoehtojen parannuksista, jotka lisäävät näkyvyyttämme Snapchatissa lähetettyjen mahdollisten CSEA:n lähetysten osalta. 

Mainosten moderointi

Snap on sitoutunut varmistamaan, että kaikki mainokset ovat täysin mainoskäytäntöjemme mukaisia. Uskomme vastuulliseen ja kunnioittavaan lähestymistapaan mainostamisessa, luoden turvallisen ja nautittavan kokemuksen kaikille käyttäjille. Alla on kerrottu Snapchatin maksullisten mainosten moderoinnista. Huomaa, että Snapchatissa olevat mainokset voidaan poistaa useista eri syistä, kuten Snapin mainoskäytännöissä kerrotaan, mukaan lukien harhaanjohtava sisältö, aikuisille suunnattu sisältö, väkivaltainen tai häiritsevä sisältö, vihapuhe ja immateriaalioikeusten loukkaaminen. Lisäksi löydät nyt Snapchatin mainosgallerian tämän läpinäkyvyysraportin navigointipalkista.