Ново проучване за това как хората взаимодействат със сексуалното съдържание на GenAI
19 ноември 2024 г.
Бързото развитие на инструментите на изкуствения интелект през последните години създава и ще продължава да създава нови възможности за креативност, учене и свързване. Технологията обаче внася и нова динамика в съществуващите онлайн рискове. Ново проучване показва, че докато броят на хората, които се сблъскват с изображения и видеоклипове със сексуално съдържание от изкуствен интелект онлайн, продължава да расте, информираността за незаконността на част от това съдържание продължава да бъде предизвикателство.
За да разберем по-добре нагласите и поведението на тийнейджърите и младите хора във всички платформи и услуги, Snap провежда и споделя годишно проучване в цялата индустрия, наречено нашия Индекс за цифрово благополучие. (Snap е поръчала проучването, но то обхваща опита на поколението Z в цифровите пространства като цяло, без да се фокусира специално върху Snapchat.) Въпреки че планираме да публикуваме пълните резултати от нашето проучване през третата година във връзка с международния Ден за безопасен интернет през февруари 2025 г., искаме да представим някои ключови констатации за това как тийнейджърите, младите хора и дори родителите се ангажират и реагират на сексуално съдържание, базирано на генеративен изкуствен интелект. Правим това днес в контекста на глобалния фокус върху сексуалната експлоатация и злоупотреба с деца тази седмица и във връзка с участието ни в срещата на върха Empowering Voices DC, която се фокусира върху справянето с вредите, свързани със сексуално съдържание, генерирано от изкуствен интелект.
Например в нашето проучване, в което бяха анкетирани 1007 тийнейджъри, млади хора и родители на тийнейджъри в 6 държави 1, 24% заявиха, че са виждали някакви изображения или видеоклипове, генерирани от изкуствен интелект, които са имали сексуален характер. От тези, които заявиха, че са виждали подобен тип съдържание, само 2% заявиха, че изображенията са на лица под 18 години.

Обнадеждаващо е, че когато хората видят такъв тип съдържание, 9 от 10 предприемат някакви действия - от блокиране или изтриване на съдържанието (54%) до разговор с доверени приятели или роднини (52%). Само 42% обаче заявиха, че са съобщили за съдържанието на платформата или услугата, в която са го видели, или на гореща линия/линия за помощ. Това наблюдение следва по-широката тенденция на по-ниски нива на докладване на въпроси, свързани с цифровата безопасност, като цяло. В по-ранна публикация посочихме колко е важно да се противодейства на негативното възприемане на докладването, така че младите хора да не нормализират излагането на определено проблематично съдържание и поведение онлайн или да не приравняват докладването с доносничеството.
Още по-тревожно е, че повече от 40 % от анкетираните не са наясно със законовото задължение на платформите/услугите да съобщават за сексуални изображения на непълнолетни, дори ако тези изображения са предназначени за шеги или мемета. И макар че по-голям брой (над 70 %) признават, че използването на технология с изкуствен интелект за създаване на фалшиво сексуално съдържание на дадено лице или за запазване, гледане или споделяне на сексуални изображения на непълнолетни лица е незаконно, тези констатации показват, че предстои значителна работа, за да се гарантира, че широката общественост е наясно със законовите изисквания, свързани с този вид съдържание.
В САЩ например близо 40% от анкетираните смятат, че е законно да се използва технология с изкуствен интелект за създаване на фалшиви сексуални изображения на дадено лице. А от колеги от бранша сме чували за тревожна тенденция: с разпространението на този вид съдържание някои тийнейджърки се чувстват „изключени“, ако не участват в манипулирани от изкуствен интелект сексуални изображения, които техните връстници създават и споделят по неподходящ начин. Този тревожен момент допълнително подчертава необходимостта от обучение и повишаване на осведомеността за този специфичен онлайн риск, като доверени възрастни и информирани връстници играят активна роля за възпиране на този вид поведение.
Постоянен ангажимент на Snap
В Snap непрекъснато инвестираме в ресурси, инструменти и технологии, за да спомогнем за по-безопасни, по-здравословни и по-позитивни преживявания в Snapchat и в цялата технологична екосистема.
В някои случаи използваме поведенчески „сигнали“ за идентифициране на потенциално незаконна дейност, за да можем проактивно да отстраним злонамерени участници и да ги докладваме на властите. Освен това като услуга, която включва чатбот с изкуствен интелект за разговори, полагаме усилия да бъдем особено бдителни, за да предотвратим потенциалното генериране на такива материали в Snapchat, както и да се предпазим от споделяне и разпространение на материали, които може да са били генерирани в други платформи. Третираме подозренията за сексуални изображения на непълнолетни, генерирани от изкуствен интелект, по същия начин, както „автентичните“ изображения на сексуална експлоатация и злоупотреба с деца (CSEAI), като премахваме съдържанието, щом разберем за него, блокираме акаунта на нарушителя, и го докладваме на Националния център за изчезнали и експлоатирани деца (NCMEC). Това е в допълнение към използването и внедряването на технологии, предназначени за предотвратяване на разпространението на CSEAI, включително PhotoDNA (за откриване на дубликати на известни незаконни изображения) и CSAI Match на Google (за откриване на дубликати на известни незаконни видеоклипове). Неотдавна започнахме да използваме и API за безопасност на съдържанието на Google (за подпомагане на откриването на нови, „невиждани досега“ изображения в публичното съдържание). Освен това работихме с NCMEC за това как да използваме уникалните цифрови подписи (или „хешове“) на 4700-те доклада, които те получиха миналата година, свързани с материали за сексуална злоупотреба с деца, в които участва GenAI.
Сътрудничим си с правоприлагащите органи, подкрепяме техните разследвания и инвестираме много в нашите глобални екипи за доверие и безопасност и за правоприлагащи операции, които работят 24 часа в денонощието, 7 дни в седмицата, за да осигурят безопасността на нашата общност. Провеждаме годишни срещи на върха за правоприлагането в САЩ, за да гарантираме, че служителите и агенциите знаят как да предприемат подходящи действия срещу всяка незаконна дейност, която може да се осъществи на нашата платформа.
Продължаваме да разширяваме и инструментите си за докладване в приложението, които включват възможности за общността ни да сигнализира за голота и сексуално съдържание, и по-специално за CSEAI. Докладването на проблемно съдържание и акаунти е от решаващо значение, за да се помогне на технологичните компании да отстранят лошите играчи от своите услуги и да предотвратят по-нататъшни действия, преди те да причинят вреда на други хора.
Неотдавна добавихме нови функции към нашия набор от инструменти на Семейния център, които родителите могат да използват, за да разберат по-добре как техният тийнейджър използва Snapchat, включително нашия чатбот с изкуствен интелект. Също така пуснахме нови ресурси, за да помогнем на преподавателите и училищните администратори да разберат как техните ученици използват Snapchat, както и ресурсите, които предлагаме, за да подпомогнем училищата в усилията им да създадат безопасна и подкрепяща среда за учениците.
Продължаваме да инвестираме в начини за повишаване на осведомеността на обществото и Snapchatter за сексуалните посегателства онлайн. Нашите епизоди „Безопасна моментна снимка“ в приложението се фокусират върху сексуалните рискове, включително теми като онлайн набеждаване и трафик на деца. Бяхме и първата организация, която подкрепи Know2Protect - кампания на Министерството на вътрешната сигурност на САЩ, насочена към образоване и овластяване на младите хора, родителите, възрастните, на които може да се има доверие, и политиците относно сексуалното насилие над деца онлайн.
Очакваме с нетърпение да продължим да работим с всички видове заинтересовани страни - родители, млади хора, преподаватели, политици и др. - по тези въпроси, засягащи цялото общество, и се надяваме, че информацията от нашето междуплатформено проучване ще помогне за създаването на нови идеи и възможности, за да се гарантира, че хората са наясно със съществуващите и новите онлайн заплахи, както и с наличните ресурси за борба с тези рискове.
— Вирадж Доши, ръководител „Безопасност на платформата“