Läpinäkyvyysraportti
1. tammikuuta 2023 – 30. kesäkuuta 2023

Julkaistu:

25. lokakuuta 2023

Päivitetty:

13. joulukuuta 2023

Voidaksemme tarjota tietoa Snapin turvallisuuspyrkimyksistä ja alustallamme ilmoitetun sisällön luonteesta ja määrästä, julkaisemme läpinäkyvyysraportteja kaksi kertaa vuodessa. Olemme sitoutuneet tekemään näistä raporteista yhä kattavampia ja informatiivisempia niille kaikille sidosryhmille, jotka välittävät sisältömme moderoinnista ja lainvalvontakäytännöistä sekä yhteisömme hyvinvoinnista. 

Tämä läpinäkyvyysraportti kattaa vuoden 2023 ensimmäisen puoliskon (1. tammikuuta - 30. kesäkuuta). Kuten aikaisemmissakin raporteissamme, jaamme tietoa sovelluksessa maailmanlaajuisesti jaetun sisällön määrästä ja tilitason raporteista, jotka olemme saaneet ja joita vastaan on tehty toimenpiteitä tiettyjen rikkomusluokkien osalta; miten olemme vastanneet lainvalvontaviranomaisten ja hallitusten pyyntöihin; ja täytäntöönpanotoimemme maittain eriteltyinä.

Osana sitoutumistamme parantaa jatkuvasti läpinäkyvyysraporttejamme esittelemme tässä julkaisussa muutamia uusia elementtejä. Olemme lisänneet lisätietopisteitä mainontakäytäntöihimme ja -valvontaan sekä sisältö- ja tilivalituksiin liittyen. EU:n digitaalipalvelulain mukaisesti olemme lisänneet myös uusia kontekstuaalisia tietoja toiminnastamme EU:n jäsenvaltioissa, kuten sisällön valvojien ja kuukausittaisten aktiivisten käyttäjien (MAU) lukumäärän alueella. Suurin osa näistä tiedoista löytyy koko raportista ja Avoimuuskeskuksemme omalta Euroopan unioni -sivulta.

Lopuksi olemme päivittäneet sanastomme linkeillä yhteisön sääntöjen selityksiin, jotka tarjoavat lisäkontekstia alustamme ja toimintamme ympärille. 

Lisätietoja verkkohaittojen torjumiseen tähtäävistä käytännöistämme ja raportoinnin kehittämiseen liittyvistä suunnitelmista saat lukemalla viimeisimmästä Tietoturva & Vaikutus -blogista lisää läpinäkyvyysraportistamme. 

Voit löytää lisäresursseja Snapchatin tietoturvaan ja yksityisyyteen liittyen sivun alalaidan Tietoa läpinäkyvyysraportoinnista -välilehden alta.

Huomaa, että tämän läpinäkyvyysraportin viimeisin versio löytyy en-US-kielivalinnalla.

Sisältö- ja tilirikkomusten tiivistelmä

1.1.–30.6.2023 Snap ryhtyi toimenpitetisiin maailmanlaajuisesti 6 216 118 sisällön kohdalla, jotka rikkoivat käytäntöjämme.

Raportointijakson aikana Violative View Rate (VVR) oli 0,02 prosenttia, mikä tarkoittaa, että jokaista 10 000 Snapchatissa katsottua Snappia ja tarinaa kohti sääntöjämme rikkoi 2 sisältöyksikköä.

*Väärien tietojen asianmukainen ja johdonmukainen valvonta on dynaaminen prosessi, joka edellyttää ajantasaista kontekstia ja ahkeruutta.  Pyrimme jatkuvasti parantamaan edustajiemme täytäntöönpanon tarkkuutta tässä luokassa, joten olemme vuoden 2022 ensimmäisestä puoliskosta lähtien päättäneet ilmoittaa luokkiin "Sisältö-toimenpiteet" ja "Tilien toimenpiteet" -luvut, jotka on arvioitu tiukan laadunvalvonnan perusteella tilastollisesti merkittävän osan väärien tietojen täytäntöönpanosta. Tarkemmin sanottuna otamme tilastollisesti merkittävän osan vääriä tietoja koskevista täytäntöönpanotoimista kussakin maassa ja tarkistamme täytäntöönpanopäätösten laadun. Käytämme sitten näitä laaduntarkastettuja täytäntöönpanotoimia saadaksemme täytäntöönpanomäärät 95 prosentin luottamusvälillä (+/- 5 prosentin virhemarginaali), jota käytämme läpinäkyvyysraportissa ilmoitettujen väärien tietojen täytäntöönpanotoimien laskemiseen.

Sisältö- ja tilirikkomusten analyysi

Yleinen raportointi- ja täytäntöönpanoasteemme pysyi melko samana kuin edellisen kuuden kuukauden aikana, lukuun ottamatta muutamia poikkeuksia avainkategorioissa. Havaitsimme noin 3 prosentin laskun sisältö- ja tiliraporttien kokonaismäärässä ja täytäntöönpanossa tällä jaksolla.

Luokat, joissa vaihtelua oli eniten, olivat häirintä ja kiusaaminen, roskaposti, aseet ja väärät tiedot. Häirinnästä ja kiusaamisesta tehtyjen ilmoitusten kokonaismäärä kasvoi noin 56 %, minkä jälkeen sisältöä ja yksilöityjä tilejä koskevat toimeenpanot kasvoivat noin 39 %. Tämä lisääntynyt valvonta yhdistettiin noin 46 %:n lyhenemiseen läpimenoajassa, mikä korosti toiminnallisia tehosteita, joita tiimimme on saavuttanut valvoessaan tämäntyyppistä loukkaavaa sisältöä. Samoin havaitsimme roskapostia koskevien raporttien kokonaismäärän lisääntymisen noin 65 %, sisällön täytäntöönpanojen lisääntymisen ollessa noin 110 % ja yksittäisiä tilejä koskevien täytäntöönpanojen määrä kasvoi noin 80 %. Tiimimme lyhensivät käsittelyaikaa noin 80 %. Asekategoriassamme ilmoitusten kokonaismäärä väheni noin 13 %, sisällön täytäntöönpanon määrä väheni noin 51 % ja yksittäisiä tilejä koskevien täytäntöönpanojen määrä väheni noin 53 %. Lopuksi Väärät tiedot -kategoriassamme havaittiin noin 14 %:n lisäys raporttien kokonaismäärässä, mutta noin 78 %:n vähentyminen sisältöä koskevassa täytäntöönpanossa ja noin 74 %:n vähentyminen yksittäisiä tilejä koskevissa täytäntöönpanoissa. Tämä johtuu jatkuvasta laadunvarmistusprosessista (QA) ja resursseista, joita käytämme vääristä tiedoista kertoviin raportteihin varmistaaksemme, että moderointitiimimme löytävät ja reagoivat tarkasti väärään tietoon alustalla.

Kaiken kaikkiaan, vaikka näimme yleisesti ottaen samankaltaisia lukuja kuin viime kaudella, uskomme, että on tärkeää jatkaa työkalujen parantamista, joita yhteisömme käyttää raportoidakseen aktiivisesti ja tarkasti mahdollisista rikkomuksista, kun niitä esiintyy alustalla.

Lasten seksuaalisen hyväksikäytön estäminen

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.

Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.

Vuoden 2023 alkupuoliskolla ennakoivasti havaitsimme ja käsittelimme 98 prosenttia kaikista lasten seksuaaliseen hyväksikäyttöön liittyvistä rikkomusilmoituksista. Tämä on 4 prosentin parannus edelliseen raporttiimme verrattuna.

**Huomaa, että yksi NCMEC:lle lähetetty ilmoitus voi koostua useammasta sisältöyksiköstä. NCMEC:lle lähetettyjen yksittäisten mediayksiköiden kokonaismäärä on yhtä suuri kuin kaikkien valvottujemme sisältöjen kokonaismäärä.

Terroristinen tai väkivaltainen ekstremistinen sisältö

Poistimme raportointikaudella 1.1.2023 – 30.6.2023 18 tiliä terroristisen ja väkivaltaisen äärimmäisen sisällön kieltävän käytäntömme rikkomisen vuoksi.

Snap poistaa terrorismia ja väkivaltaisia ääriliikkeitä koskevan sisällön, josta on ilmoitettu useampien kanavien kautta. Kannustamme ilmoittamaan terrorismia ja väkivaltaisia ääriliikkeitä koskevasta sisällöstä sovelluksen sisäisen ilmoitusvalikon kautta, ja teemme tiivistä yhteistyötä lainvalvontaviranomaisten kanssa voidaksemme vastata terrorismia ja väkivaltaisia ääriliikkeitä koskevaan sisältöön, kun sitä mahdollisesti ilmenee Snapissa.

Itsensä vahingoittamista ja itsemurhaa koskeva sisältö

Välitämme syvästi Snapchat-käyttäjien mielenterveydestä ja hyvinvoinnista. Tämä on ollut ja on edelleen tärkeä lähtökohta, kun teemme Snapchatin kehityspäätöksiä. Alustana, joka on suunniteltu todellisten kavereiden väliseen viestintään, uskomme, että Snapchatilla voi olla ainutlaatuinen rooli kavereiden auttamisessa vaikeina aikoina.

Kun Luottamus- ja turvallisuustiimimme tunnistaa Snapchattaajan olevan hädässä, he voivat lähettää tälle itsensä vahingoittamista estäviä ja tukea antavia resursseja ja ilmoittaa siitä tarpeen mukaan vastaavaan hätäkeskukseen. Jakamamme resurssit löytyvät maailmanlaajuiselta turvallisuusresurssien listaltamme, ja ne ovat julkisesti kaikkien Snapchattaajien käytettävissä.

Valitukset

Tästä raportista lähtien alamme raportoida niiden käyttäjien valitusten lukumäärästä, joiden tilit on lukittu käytäntöjemme rikkomisen vuoksi. Palautamme vain ne tilit, jotka valvojamme ovat todenneet väärin lukituiksi. Tänä aikana raportoimme huumesisältöön liittyvistä valituksista.  Odotamme seuraavassa raportissamme julkaisevamme lisää tietoja valituksista, jotka johtuvat muista käytäntöjemme rikkomuksista.

Mainosten moderointi

Snap on lujasti sitoutunut varmistamaan, että kaikki mainokset ovat täysin alustamme käytäntöjen mukaisia. Uskomme vastuulliseen ja kunnioittavaan lähestymistapaan mainostamisessa ja turvallisen ja nautittavan kokemuksen luomiseen kaikille käyttäjille. Alla on kerrottu mainonnan moderointiin liittyvistä näkemyksistä. Huomaa, että Snapchatissa olevat mainokset voidaan poistaa useista eri syistä, kuten Snapin mainoskäytännöissä kerrotaan, mukaan lukien harhaanjohtava sisältö, aikuisille suunnattu sisältö, väkivaltainen tai häiritsevä sisältö, vihapuhe ja immateriaalioikeusten loukkaaminen. Lisäksi löydät nyt Snapchatin mainosgallerian tämän läpinäkyvyysraportin navigointipalkista. 

Maiden yleiskatsaus

Tämä osio antaa yleiskatsauksen yhteisön sääntöjen täytäntöönpanosta maantieteellisten alueiden perusteella. Yhteisön sääntöjä sovelletaan kaiken Snapchat-sisällön osalta ja ne koskevat kaikkia Snapchattaajia ympäri maailmaa sijainnista riippumatta.

Yksittäisten maiden tiedot ovat ladattavissa liitetyn CSV-tiedoston kautta: