Naujausi tyrimai, kaip žmonės sąveikauja su „GenAI“ seksualinio pobūdžio turiniu
2024 m. lapkričio 19 d.
Spartus AI įrankių augimas pastaraisiais metais sukūrė ir toliau kurs naujas kūrybiškumo, mokymosi ir susijungimo galimybes. Tačiau ši technologija esamai internetinei rizikai taip pat suteikė naujos dinamikos. Naujausi tyrimai rodo, kad augant žmonių, kurie internete susiduria su seksualizuotais dirbtinio intelekto sukurtais vaizdais ir vaizdo įrašais, skaičiui, suvokimas apie tokio turinio neteisėtumą ir toliau išlieka sudėtingas.
Siekiant geriau suprasti paauglių ir jaunų suaugusiųjų požiūrį ir elgesį visose platformose ir paslaugose, „Snap“ atlieka ir dalijasi kasmetiniu visos pramonės tyrimu, vadinamu mūsų Skaitmeninės gerovės indeksu. („Snap“ užsakė tyrimą, tačiau jis apima Z kartos patirtį skaitmeninėse erdvėse apskritai, o ne tik „Snapchat“ platformoje). Nors planuojame paskelbti visus trečiųjų metų tyrimo rezultatus kartu su Tarptautine Saugesnio interneto diena 2025 m. vasario mėn., norime apžvelgti kai kurias pagrindines išvadas apie tai, kaip paaugliai, jauni suaugusieji ir net tėvai reaguoja į AI generuojamą seksualinio pobūdžio turinį. Tai darome šiandien, atsižvelgdami į pasaulinį dėmesį vaikų seksualiniam išnaudojimui ir prievartai šią savaitę ir kartu su mūsų dalyvavimu „Empowering Voices DC“ aukščiausiojo lygio susitikime, kur daugiausia dėmesio buvo skirta žalai, susijusiai su AI generuojamu seksualinio pobūdžio turiniu.
Pavyzdžiui, 24 % iš mūsų tyrime, kuriame buvo apklausti 9 007 paaugliai, jauni suaugusieji ir paauglių tėvai iš 6 šalių 1, teigė matę tam tikrus AI sugeneruotus vaizdus ar vaizdo įrašus, kurie buvo seksualinio pobūdžio. Iš tų, kurie teigė matę tokio tipo turinį, tik 2 % teigė, kad buvo vaizduojami jaunesnio nei 18 metų amžiaus asmenys.

Džiugina tai, kad pamačius tokio tipo turinį, 9 asmenys iš 10 ėmėsi kokių nors veiksmų – nuo turinio blokavimo ar ištrynimo (54 %) iki kalbėjimo su patikimais draugais ar šeimos nariais (52 %). Tačiau tik 42 % teigė, kad apie tokio turinio platformą ar paslaugą, kurioje jį matė, informavo karštąją arba pagalbos liniją. Ši įžvalga atspindi didesnę tendenciją, kad pranešimų, apie su skaitmenine sauga susijusias problemas, apskritai mažėja. Ankstesniame įraše atkreipėme dėmesį į tai, kaip svarbu kovoti su neigiamu suvokimu apie pranešimų teikimą, kad jauni asmenys tam tikro probleminio turinio ir elgesio internete nelaikytu normaliu reiškiniu arba prilygintų ataskaitų teikimą apkalboms.
Dar labiau nerimą kelia tai, kad daugiau nei 40 % respondentų nebuvo tikri dėl teisinės pareigos platformoms / tarnyboms pranešti apie seksualinius nepilnamečius vaizduojančius vaizdus, net jei tokie vaizdai yra skirti kaip pokštai ar memai. Ir nors dauguma (70 % ir daugiau) pripažino, kad AI technologija yra neteisėta kuriant netikrą seksualinį turinį apie asmenį arba siekiant išsaugoti, peržiūrėti arba dalytis seksualiniais nepilnamečių vaizdais, šie atradimai rodo, kad dar reikia daug nuveikti, siekiant užtikrinti, kad plačioji visuomenė žinotų su tokio tipo turiniu susijusius teisinius reikalavimus.
Pavyzdžiui, JAV beveik 40% respondentų teigė manantys, kad AI technologija yra legali kurti netikrus seksualinio pobūdžio vaizdus apie asmenis. Ir, anekdotinė situacija yra tai, kad iš pramonės kolegų girdėjome apie nerimą keliančią tendenciją: plintant tokio tipo turiniui, kai kurios paauglės jaučiasi „atstumtos“, jei jos nerodomos AI generuojamuose seksualinio pobūdžio vaizduose, kuriuos jų bendraamžiai netinkamai kuria ir dalijasi. Šis nerimą keliantis momentas dar labiau pabrėžia poreikį šviesti ir didinti informuotumą apie šią specifinę riziką internete, o patikimi suaugusieji ir informuoti bendraamžiai aktyviai atgraso nuo tokio elgesio.
Tolimesnis „Snap“ įsipareigojimas
„Snap“ platformoje nuolat investuojame į išteklius, įrankius ir technologijas, kad padėtume skatinti saugesnę, sveikesnę ir pozityvesnę patirtį „Snapchat“ platformoje ir visoje technologijų ekosistemoje.
Kai kuriais atvejais naudojame elgesio „signalus“, siekiant nustatyti galimai neteisėtą veiklą, kad galėtume aktyviai pašalinti nepageidaujamus asmenis ir pranešti apie juos valdžios institucijoms. Be to, kaip paslaugos teikėjai, siūlantys AI pokalbių robotą, stengiamės būti ypač budrūs, kad užkirstume kelią galimam tokio turinio generavimui „Snapchat“, taip pat apsisaugodami nuo turinio, kuris galėjo būti sugeneruotas kitose platformose, dalijimosi ir platinimo. Įtartinus AI sugeneruotus seksualinius nepilnamečių vaizdus traktuojame taip pat, kaip „autentiškus“ vaikų seksualinio išnaudojimo ir prievartos vaizdus (CSEAI), pašaliname tokį turinį, kai tik apie tai sužinome, sustabdome pažeidžiančią paskyrą, ir pranešame apie tai Nacionaliniam dingusių ir išnaudojamų vaikų centrui (NCMEC). Tai papildoma technologija, siekiant užkirsti kelią CSEAI plitimui, įskaitant PhotoDNA (žinomų nelegalių vaizdų dublikatams aptikti) ir Google CSAI Match (žinomų nelegalių vaizdo įrašų dublikatams aptikti). Taip pat neseniai pradėjome naudoti Google turinio saugos API (siekiančią padėti aptikti naujus, „niekada anksčiau nepažymėtus“ vaizdus viešajame turinyje). Taip pat bendradarbiavome su NCMEC, siekdami pritraukti unikalius skaitmeninius pasirašančiuosius (arba „grotažymes“) iš 4 700 pranešimų, kuriuos jie gavo praėjusiais metais, susijusių su AI sugeneruota seksualinės prievartos prieš vaikus medžiaga.
Bendradarbiaujame su teisėsauga, remdami jų tyrimus ir daug investuojame į savo pasaulines pasitikėjimo ir saugos bei teisėsaugos operacijų komandas, kurios dirba 24 valandas per parą, 7 dienas per savaitę, kad padėtų apsaugoti mūsų bendruomenę. Kasmet rengiame JAV teisėsaugos aukščiausiojo lygio susitikimus, siekdami užtikrinti, kad pareigūnai ir agentūros žinotų, kaip imtis atitinkamų veiksmų prieš bet kokią neteisėtą veiklą, kuri gali vykti mūsų platformoje.
Be to, toliau plečiame ataskaitų teikimo įrankius, įskaitant parinktis mūsų bendruomenei pažymėti nuogybes ir seksualinį turinį, o ypač CSEAI. Pranešimas apie probleminį turinį ir paskyras itin svarbus siekiant padėti technologijų įmonėms pašalinti kenkėjus iš savo paslaugų ir sutrukdyti tolesnei veiklai, kol tai nesukėlė žalos kitiems.
Visai neseniai prie Šeimos centro įrankių rinkinio pridėjome naujų funkcijų, kurias tėvai gali naudoti norėdami geriau suprasti, kaip jų paauglys naudojasi „Snapchat“, įskaitant AI pokalbių robotą. Taip pat išleidome naujus išteklius, kad padėtume pedagogams ir mokyklų administratoriams suprasti, kaip jų mokiniai naudojasi „Snapchat“ platforma, ir išteklius, kuriuos siūlome, siekiant padėti mokykloms kurti saugią ir palankią aplinką mokiniams.
Ir toliau investuojame į būdus, kaip didinti visuomenės ir „Snapchat“ naudotojų informuotumą apie seksualinę žalą internete. Mūsų programos Saugos „Snapshot“ serijos daugiausia dėmesio skiria seksualinei rizikai, įskaitant tokias temas kaip vaikų viliojimas internetu ir prekyba žmonėmis. Taip pat buvome pirmasis subjektas, parėmęs „Know2Protect“ – JAV Tėvynės saugumo departamento kampaniją, skirtą jaunų žmonių, tėvų, patikimų suaugusiųjų ir politikos formuotojų švietimui ir įgalinimui apie seksualinę prievartą prieš vaikus internete.
Tikimės ir toliau bendradarbiauti su visų tipų suinteresuotosiomis šalimis – tėvais, jaunimu, pedagogais ir politikos formuotojais, – ir tikimės, kad mūsų įvairiose platformose pateiktos įžvalgos padeda kurti naujas idėjas ir galimybes bei užtikrinti, kad žmonės žinotų apie esamas ir naujas internetines grėsmes bei turimus išteklius, padedančius kovoti su šia rizika.
- Viraj Doshi, Platformos saugos vadovas