Nove raziskave o tem, kakšne interakcije imajo uporabniki s spolno vsebino, generirano z UI
19. november 2024
Hitra rast števila orodij z UI v zadnjih nekaj letih je ustvarila in bo tudi v prihodnje ustvarjala nove priložnosti za ustvarjalnost, učenje in povezovanje. Vendar pa ta tehnologija uvaja tudi nove dinamike poleg obstoječih spletnih tveganj. Nove raziskave kažejo, da je z vse večjim številom ljudi, ki se srečujejo s spolnostjo povezanimi slikami in videoposnetki, generiranimi z UI, ozaveščenost glede nezakonitosti nekatere te vsebine še vedno pomanjkljiva.
Ker želimo izboljšati razumevanje odnosov in vedenj najstnikov in mladih odraslih na vseh platformah in storitvah, Snap izvaja in objavlja letne raziskave, ki zajemajo celotno panogo, imenovane naš digitalni indeks blaginje. (Snap je sicer naročnik raziskav, vendar zajemajo izkušnje generacije Z na splošno v digitalnih prostorih, brez posebnega osredotočanja na Snapchat.) Izdajo celotnih rezultatov svoje triletne študije sicer načrtujemo skupaj z mednarodnim dnevom varnejšega interneta februarja 2025, vendar želimo že zdaj predstaviti nekatere najpomembnejše ugotovitve o tem, kakšne interakcije imajo najstniki, mladi odrasli in celo starši s spolno vsebino, ki temelji na generativni UI, in kako se odzivajo nanjo. To ugotovite danes objavljamo v luči globalnega osredotočanja na spolno izkoriščanje in zlorabo otrok ta teden ter v povezavi z našo udeležbo na prireditvi Empowering Voices DC Summit, ki se je osredotočila na obravnavanje škodljivih vplivov, povezanih s spolno vsebino, generirano z UI.
V naši študiji, v kateri je sodelovalo 9007 najstnikov, mladih odraslih in staršev najstnikov v 6 državah, jih je na primer 124% navedlo, da so že videli kakšno vrsto slik ali videoposnetkov, generiranih z UI, ki so bili spolne narave. Od tistih, ki so trdili, da so videli tovrstno vsebino, jih je samo 2% dejalo, da je šlo za slike nekoga, ki je bil mlajši od 18 let.

Spodbudno je, da je 9 od 10 ljudi, ki so naleteli na tovrstno vsebino, na nek način ukrepalo, pa naj je šlo za blokiranje ali brisanje vsebine (54%) ali pa za pogovor z zaupanja vrednimi prijatelji ali sorodniki (52%). Vendar pa jih je le 42% navedlo, da so vsebino prijavili platformi ali storitvi, kjer so jo videli, ali na telefonsko številko za pomoč. Ta vpogled je skladen s širšim trendom nižjih stopenj prijave pomislekov, povezanih z varnostjo, na splošno. V starejši objavi smo izpostavili pomen boja proti negativnim pogledom na prijave, da mladi ne bi normalizirali izpostavljenosti nekaterim problematičnim vsebinam in vedenjem v spletu ali pa prijave enačili s »špecanjem«.
Še bolj zaskrbljujoče je, da se več kot 40% anketirancev ni zavedalo, da imajo platforme/storitve zakonsko obveznost, da prijavijo spolne slike mladoletnih oseb, tudi če so mišljene kot šale ali memi. In čeprav se je veliko število (več kot 70%) zavedalo, da je uporaba tehnologije UI za ustvarjanje lažnih spolnih vsebin neke osebe ter hranjenje, ogled ali deljenje spolnih slik mladoletnikov nezakonito, te ugotovitve kažejo, da je treba storiti še veliko, da se zagotovi, da se širša javnost zaveda zakonskih zahtev, povezanih s to vrsto vsebine.
V ZDA je na primer skoraj 40% anketirancev odgovorilo, da menijo, da je uporaba tehnologije UI za ustvarjanje lažnih spolnih slik posameznikov zakonita. In, mimogrede, od drugih v panogi smo že slišali o zaskrbljujočem trendu: z vse večjo dostopnostjo tovrstne vsebine se zlasti nekatere najstnice počutijo »izključene«, če se ne pojavljajo na spolnih posnetkih, spremenjenih z UI, ki jih njihovi vrstniki neprimerno ustvarjajo in delijo z drugimi. To zaskrbljujoče dejstvo še dodatno izpostavlja potrebo po izobraževanju in izboljšanju prepoznavnosti tega specifičnega spletnega tveganja, pri čemer imajo aktivno vlogo pri odvračanju od tega vedenja zaupanja vredni odrasli in ozaveščeni vrstniki.
Stalna zavezanost družbe Snap
V družbi Snap nenehno vlagamo v vire, orodja in tehnologijo, ki bi pomagali spodbujati varnejše, bolj zdrave in bolj pozitivne izkušnje v Snapchatu in v tehnološkem ekosistemu na splošno.
V nekaterih primerih uporabljamo vedenjske »signale« za prepoznavanje potencialno nezakonitih dejavnosti, da bi lahko proaktivno odstranili zlonamerne akterje in jih prijavili oblastem. Poleg tega si, ker smo storitev, ki vključuje pogovorni klepetni bot z UI, prizadevamo biti posebej pozorni pri preprečevanju potencialnega ustvarjanja take vsebine v Snapchatu, pa tudi pri preprečevanju širjenja gradiva, ki je bilo morda generirano na drugih platformah, in njegovega deljenja z drugimi. Vsebino, pri kateri sumimo, da gre za spolne posnetke mladoletnih oseb, generirane z UI, obravnavamo enako kot »avtentične« posnetke spolnega izkoriščanja in zlorabe otrok in jo odstranimo, ko izvemo zanjo, kršeči račun pa ukinemo in ga prijavimo centru za pogrešane in izkoriščane otroke (National Center for Missing and Exploited Children oz. NCMEC). To je poleg uporabe tehnologije, zasnovane za preprečevanje širjenja posnetkov spolnega izkoriščanja in zlorabe otrok, kot je PhotoDNA (za odkrivanje dvojnikov znanih nezakonitih slik) in Googlovega sistema CSAI Match (za odkrivanje dvojnikov znanih nezakonitih videoposnetkov). Pred nedavnim smo začeli uporabljati tudi Googlov API za varnost vsebine (za pomoč pri odkrivanju novih slik, za katere še niso izdelane razpršene vrednosti, v javni vsebini). Z organizacijo NCMEC sodelujemo tudi pri tem, kako kar najbolje izkoristiti enolične digitalne podpise (imenovane tudi »zgoščene vrednosti«) iz 4700 poročil, ki jih je lani prejela v zvezi z gradivom spolne zlorabe otrok, pri katerem je bila uporabljena tudi generativna UI.
Sodelujemo z organi pregona in podpiramo njihove preiskave ter veliko vlagamo v svoje globalne ekipe za zaupanje in varnost ter sodelovanje z organi pregona, ki 24/7 pomagajo pri zagotavljanju, da bi bila naša skupnost varna. V ZDA gostimo letna srečanja za organe pregona, da bi zagotovili, da policisti in agencije vedo, kako ustrezno ukrepati glede morebitne nezakonite dejavnosti, do katere lahko prihaja na naši platformi.
Še naprej razvijamo tudi svoja orodja za poročanje v aplikaciji, ki vključujejo možnosti, s katerimi lahko naša skupnost prijavi goloto in spolno vsebino, zlasti pa posnetke spolnega izkoriščanja in zlorabe otrok. Prijavljanje problematične vsebine in računov je izjemno pomembno, saj tehnološkim podjetjem pomaga odstraniti neprimerne uporabnike s svojih storitev ter preprečiti nadaljnje dejavnosti, ki bi lahko škodile drugim.
Pred nedavnim smo zbirki orodij, imenovani Družinsko središče, dodali nove funkcije, ki jih lahko starši uporabijo za razumevanje, kako njihov najstnik uporablja Snapchat, vključno z našim klepetalnim botom z UI. Izdali smo tudi nove vire za pomoč učiteljem in administratorjem v šolah pri razumevanju, kako njihovi učenci uporabljajo Snapchat in katere vire ponujamo za pomoč šolam pri njihovih prizadevanjih, da bi ustvarile varna in podporna okolja za učence.
Še naprej vlagamo tudi v načine ozaveščanja javnosti in uporabnikov Snapchata o spolnih nevarnostih v spletu. Naše epizode »Varni posnetek« v aplikaciji se osredotočajo na spolne nevarnosti, vključno s temami, kot je navezovanje stikov v spletu z namenom spolne zlorabe in trgovina z ljudmi. Bili smo tudi prvi, ki smo podprli akcijo Know2Protect, ki jo je organiziralo ameriško ministrstvo za domovinsko varnost in se osredotoča na izobraževanje in krepitev vloge mladih, staršev, zaupanja vrednih odraslih in oblikovalcev politik o spolni zlorabi otrok v spletu.
Veselimo se nadaljnjega sodelovanja z vsemi vrstami deležnikov, od staršev, mladih, vzgojiteljev in oblikovalcev politik, če jih omenimo samo nekaj, v zvezi s temi vrstami vprašanj, ki so stvar celotne družbe, in upamo, da bodo vpogledi iz naših raziskav na več platformah pripomogli k ustvarjanju novih zamisli in priložnosti za zagotovitev, da se ljudje zavedajo obstoječih in novih spletnih groženj ter virov, ki so na voljo za pomoč pri boju proti tem nevarnostim.
– Viraj Doshi, vodja, odgovoren za varnost platforme