Privacy, Safety, and Policy Hub

Uusi tutkimus siitä, miten ihmiset ovat vuorovaikutuksessa generatiivisen tekoälyn luoman seksuaalisen sisällön kanssa

19. marraskuuta 2024

Tekoälytyökalujen nopea yleistyminen viime vuosina on luonut ja luo jatkossakin uusia mahdollisuuksia luovuudelle, oppimiselle ja yhteyksille. Tämä teknologia on kuitenkin luonut myös uutta dynamiikkaa jo olemassa oleviin verkkoriskeihin. Uusi tutkimus osoittaa, että tekoälyn luomia, seksuaalisesti latautuneita kuvia ja videoita verkossa kohtaavien ihmisten määrä kasvaa jatkuvasti, mutta tietoisuuden lisääminen siitä, että osa tällaisesta sisällöstä on laitonta, on edelleen haaste.

Jotta saisimme paremman käsityksen teini-ikäisten ja nuorten aikuisten asenteista ja käyttäytymisestä kaikilla alustoilla ja palveluissa, Snap tekee ja jakaa vuosittain koko toimialan kattavan tutkimuksen nimeltä Digital Well-Being Index.  (Snap on tilannut tutkimuksen, mutta se kattaa Z-sukupolven yleiset kokemukset digitaalisessa ympäristössä keskittymättä erityisesti Snapchatiin.)  Suunnittelemme julkaisevamme kolmannen vuoden tutkimuksemme kaikki tulokset Turvallisempi Internet -päivän yhteydessä helmikuussa 2025, mutta haluamme kertoa jo ennakkoon eräistä keskeisistä havainnoista liittyen siihen, miten teinit, nuoret aikuiset ja jopa vanhemmat käyttävät generatiiviseen tekoälyyn perustuvaa seksuaalista sisältöä ja miten he reagoivat siihen. Teemme niin tänään, koska tällä viikolla keskitytään maailmanlaajuisesti lasten seksuaaliseen hyväksikäyttöön, ja samalla se liittyy osallistumiseemme Empowering Voices -huippukokoukseen Washingtonissa, jossa keskityttiin puuttumaan tekoälyn tuottaman seksuaalisen sisällön haittavaikutuksiin. 

Tutkimuksemme kohdistui 9 007 teiniin, nuoreen aikuiseen ja teinin vanhempaan 6 eri maassa, 1ja esimerkiksi 24 prosenttia vastaajista sanoi nähneensä jonkinlaisia tekoälyn luomia seksuaalisluonteisia kuvia tai videoita. Niistä, jotka väittivät nähneensä tämäntyyppistä sisältöä, vain 2 prosenttia sanoi kuvissa olleen alle 18-vuotiaan henkilön.

Kun ihmiset näkivät tämäntyyppistä sisältöä, yhdeksän kymmenestä ryhtyi rohkaisevasti sinänsä toimenpiteisiin, jotka vaihtelivat sisällön poistamisesta (54 %) puhumiseen luotettujen ystävien tai perheenjäsenten kanssa (52 %). Kuitenkin vain 42 prosenttia sanoi ilmoittaneensa sisällöstä sille alustalle tai siihen palveluun, jossa he olivat sen nähneet, tai vihjelinjalle tai apupuhelimeen. Tämä havainto on jatkoa laajemmalle suuntaukselle ilmoittaa digitaaliseen turvallisuuteen liittyvistä ongelmista yleisesti ottaen harvemmin. Huomautimme aiemmassa julkaisussa, kuinka tärkeää on torjua kielteisiä käsityksiä ilmoituksen tekemisestä, jotta nuoret eivät alkaisi kokea altistumista tietynlaiselle ongelmalliselle sisällölle normaalina tai mieltää ilmoituksen tekemistä kantelemiseksi. 

Vielä hälyttävämpää on se, että yli 40 prosenttia vastaajista ei ollut varmoja siitä, ovatko alustat ja palvelut lakisääteisesti velvoitettuja ilmoittamaan alaikäisiä esittävistä seksuaalisista kuvista sellaisessakin tapauksessa, että tällaiset kuvat olisi tarkoitettu vitseiksi tai meemeiksi. Vaikka suurempi osa vastaajista (yli 70 %) ymmärsi, että tekoälyteknologian käyttäminen väärennetyn seksuaalisen sisällön luomiseen jostakusta henkilöstä tai alaikäisiä esittävien seksuaalisten kuvien säilyttämiseen, katsomiseen tai jakamiseen on laitonta, nämä tulokset osoittavat, kuinka paljon tehtävää on vielä jäljellä sen varmistamiseksi, että suuri yleisö on tietoinen tämäntyyppiseen sisältöön liittyvistä lakisääteisistä vaatimuksista.

Esimerkiksi Yhdysvalloissa lähes 40 prosenttia vastaajista sanoi uskovansa, että on laillista käyttää tekoälyteknologiaa luomaan väärennettyjä seksuaalisia kuvia jostakusta henkilöstä. Olemme lisäksi kuulleet alan kollegoiden puhuvan huolestuttavasta suuntauksesta: tämäntyyppisen sisällön yleistyessä erityisesti jotkut teinitytöt tuntevat itsensä ulkopuolisiksi, jos heitä ei esitetä tekoälyn manipuloimissa seksuaalisissa kuvissa, joita heidän ikätoverinsa luovat ja jakavat sopimattomalla tavalla. Tämä huolestuttava seikka korostaa entisestään tarvetta valistaa ja lisätä tietoisuutta tästä erityisestä verkkoriskistä, ja luotettavien aikuisten ja asioista perillä olevien ikätovereiden on toimittava aktiivisesti tämäntyyppisen käyttäytymisen estämiseksi.  

Snapin jatkuva sitoutuminen

Me Snapissa investoimme jatkuvasti resursseihin, työkaluihin ja tekniikkaan, jotta voimme edistää turvallisempia, terveempiä ja myönteisempiä kokemuksia Snapchatissa ja teknologian koko ekosysteemissä.

Käytämme joissakin tapauksissa käyttäytymiseen perustuvia ”signaaleja” tunnistaaksemme mahdollisesti laittoman toiminnan, jotta voimme ennakoivasti poistaa huonot toimijat ja ilmoittaa heistä viranomaisille. Lisäksi pyrimme palveluna, johon kuuluu tekoälyllä toimiva, keskusteleva palvelubotti, olemaan erityisen valppaita estääksemme sellaisen materiaalin mahdollisen luomisen Snapchatissa sekä suojautumaan muilla alustoilla mahdollisesti tuotetun materiaalin jakamiselta ja levittämiseltä. Käsittelemme epäiltyjä tekoälyn tuottamia seksuaalisia kuvia alaikäisistä samalla tavalla kuin ”aitoon” lapsiin kohdistuvaa seksuaaliväkivaltaa tai lapsia seksuaalisesti esittävään kuvamateriaalin ja poistamme sisällön heti, kun saamme siitä tiedon, ja jäädytämme loukkaavan tilin käytön sekä ilmoitamme siitä National Center for Missing and Exploited Children -järjestölle (NCMEC). Tämän ohella hyödynnetään ja käytetään sellaista tekniikkaa, joka on suunniteltu estämään lapsiin kohdistuvaa seksuaaliväkivaltaa tai lapsia seksuaalisesti esittävän kuvamateriaalin leviämisen, esimerkkeinä PhotoDNA (laittomiksi tunnettujen kuvien kaksoiskappaleiden tunnistamiseen) ja Googlen CSAI Match (laittomiksi tunnettujen videoiden kaksoiskappaleiden tunnistamiseen). Olemme myös hiljattain alkaneet käyttää Googlen Content Safety API -rajapintaa (joka auttaa havaitsemaan uudenlaisia, ”ennennäkemättömiä” kuvia julkisessa sisällössä). Olemme myös käsitelleet yhdessä NCMEC:n kanssa, miten hyödyntää niiden 4 700 ilmoituksen ainutlaatuisia digitaalisia allekirjoituksia (eli ”hash-tiivisteitä”), jotka järjestö sai viime vuonna liittyen lapsiin kohdistuvaa seksuaaliväkivaltaa todistavaan kuvamateriaaliin, jossa generatiivinen tekoäly on ollut mukana. 

Me teemme yhteistyötä lainvalvontaviranomaisten kanssa, tuemme heidän tutkimuksiaan ja panostamme vahvasti maailmanlaajuisiin luottamus- ja turvallistiimeihimme sekä lainvalvontatiimeihimme, jotka tekevät töitä vuorokauden ympäri auttaakseen pitämään yhteisömme turvallisena. Järjestämme vuosittaisia kokouksia Yhdysvalloissa lainvalvonnan parissa työskenteleville henkilöille pyrkiäksemme varmistamaan, että viranomaiset ovat tietoisia siitä, miten ryhtyä soveltuviin toimiin kaikkea alustallamme tapahtuvaa laitonta toimintaa vastaan. 

Laajennamme edelleen myös sovelluksen sisäisiä ilmoitustyökalujamme. Niihin kuuluu vaihtoehtoja, joiden avulla yhteisömme voi ilmoittaa alastomuudesta ja seksuaalisesta sisällöstä, erityisesti lapsiin kohdistuvaa seksuaaliväkivaltaa todistavasta kuvamateriaalista. Ongelmallisesta sisällöstä ja tileistä ilmoittaminen on ehdottoman tärkeää, sillä se auttaa teknologiayrityksiä poistamaan huonoja toimijoita palveluistaan ja estämään uuden toiminnan ennen kuin se mahdollisesti aiheuttaa vahinkoa muille. 

Olemme nyttemmin lisänneet uusia ominaisuuksia Perhekeskus-työkalupakettiimme, jota vanhemmat voivat käyttää ymmärtääkseen paremmin, miten heidän teini-ikäinen lapsensa käyttää Snapchatia, mukaan lukien tekoälyä käyttävää palvelubottiamme. Olemme myös julkaisseet uusia resursseja, jotka auttavat opettajia ja koulujen hallintohenkilöstöä ymmärtämään, miten heidän oppilaansa käyttävät Snapchatia ja millaisia resursseja tarjoamme auttamaan kouluja niiden pyrkimyksissä luoda turvallisia ja tukea antavia ympäristöjä oppilaille.

Panostamme lisäksi edelleen eri tapoihin kasvattaa yleisön ja snapchattaajien tietoisuutta verkossa esiintyvistä seksuaalisista haittatekijöistä. Sovelluksensisäiset ”Safety Snapshot” -jaksomme keskittyvät seksuaalisiin uhkiin, muun muassa lasten groomaukseen verkossa ja ihmiskauppaan. Olimme myös ensimmäisenä yhtiönä tukemassa Know2Protect -nimistä Yhdysvaltojen sisäisen turvallisuuden ministeriön kampanjaa, joka keskittyi valistamaan ja tukemaan nuoria, vanhempia, luotettuja aikuisia ja poliittisia päättäjiä verkossa tapahtuvaan lasten seksuaaliseen hyväksikäyttöön liittyen. 

Odotamme innolla, että voimme jatkaa yhteistyötä kaikenlaisten sidosryhmien – muun muassa vanhempien, nuorten, opettajien ja poliittisten päättäjien – kanssa tämäntyyppisten koko yhteiskuntaa koskevien kysymysten parissa, ja toivomme monialustaisen tutkimuksemme havaintojen auttavan luomaan uusia ajatuksia ja mahdollisuuksia sen varmistamiseksi, että ihmiset ovat tietoisia nykyisistä ja uusista verkkouhista sekä käytettävissä olevista resursseista, joiden avulla näitä riskejä voidaan torjua. 

– Viraj Doshi, alustan turvallisuusjohtaja

Takaisin uutisiin

1

Tutkimuksessa mukana olevat maat ovat: Australia, Ranska, Saksa, Intia, Iso-Britannia ja Yhdysvallat.

1

Tutkimuksessa mukana olevat maat ovat: Australia, Ranska, Saksa, Intia, Iso-Britannia ja Yhdysvallat.