Nowe badania na temat interakcji ludzi z treściami seksualnymi GenAI
19 listopada 2024 r.
W ostatnich latach nastąpił błyskawiczny rozwój narzędzi AI. Ten trend wciąż będzie tworzył nowe możliwości kreatywne, dydaktyczne i komunikacyjne. Jednak rzeczona technologia wiąże się również z nowym obliczem istniejących zagrożeń w Internecie. Z nowych badań wynika, że rośnie liczba osób, które zetknęły się w sieci z nacechowanymi seksualnie obrazami i wideo wygenerowanymi przez sztuczną inteligencję. Natomiast świadomość nielegalności niektórych z tych treści wciąż jest niewielka.
Aby lepiej zrozumieć postawy i zachowanie nastolatków oraz młodych dorosłych na wszystkich platformach i serwisach, firma Snap co roku przeprowadza i udostępnia, obejmujące całą branżę badanie pt. „Indeks dobrostanu cyfrowego” (Firma Snap jest zleceniodawcą badania, lecz dotyczy ono użytkowania ogólnej przestrzeni cyfrowej przez przedstawicieli Generacji Z i nie skupia się wyłącznie na platformie Snapchat). Dzień Bezpiecznego Internetu przypada na luty 2025 r. i właśnie wtedy chcemy opublikować całość wyników naszego badania za rok trzeci. Dziś pragniemy jednak przedstawić niektóre z najważniejszych wniosków na temat interakcji nastolatków, młodych dorosłych, a nawet rodziców, na treści seksualne generowane przez AI, a także ich reakcji na takie materiały. Zdecydowaliśmy się na to, ponieważ w tym tygodniu cały świat poświęca uwagę zapobieganiu wykorzystywaniu seksualnemu i nadużyciom seksualnym wobec dzieci. Ponadto prezentacja wyników wiąże się z naszym uczestnictwem w szczycie Empowering Voices DC Summit, którego głównym tematem jest rozwiązanie problemów, wynikających z generowanych przez AI treści seksualnych.
W naszym badaniu wzięło udział 9007 nastolatków, młodych dorosłych i rodziców nastolatków z 6 krajów, 1i 24% respondentów odpowiedziało, że widzieli jakieś generowane przez sztuczną inteligencję obrazy lub wideo o charakterze seksualnym. Spośród tego odsetka zaledwie 2% stwierdziło, że wizerunki przedstawiały osoby niepełnoletnie.

Dobrą wiadomością jest to, że 9 na 10 osób mających kontakt z takimi treściami, podejmowało działania, np. blokowanie lub usuwanie treści (54%) czy rozmowę z bliskimi znajomymi lub rodziną (52%). Jednak tylko 42% badanych przyznało, że zgłosili treści do prezentującej je platformy lub serwisu, albo na infolinię. Ten wniosek wpisuje się w powszechniejszy trend malejących wskaźników zgłaszania kwestii związanych z bezpieczeństwem cyfrowym. W poprzednim poście zaznaczyliśmy, jak ważna jest zmiana w negatywnym postrzeganiu procesu zgłaszania, ponieważ młodzi ludzie uczą się dzięki temu, że pewne zachowanie w sieci nie może być traktowane jako normalne, a zgłaszanie takich rzeczy nie jest „skarżeniem”.
Jeszcze bardziej niepokoi fakt, że 40% respondentów nie znało obowiązków prawnych platform/serwisów w zakresie zgłaszania wizerunków seksualnych nieletnich, nawet jeśli takie wizerunki mają z założenia mieć formę żartobliwą lub memiczną. Co prawda więcej osób (ponad 70%) wie, że używanie technologii AI do tworzenia nieprawdziwych treści seksualnych lub przechowywania, wyświetlania i udostępniania nacechowanych seksualnie wizerunków nieletnich jest nielegalne, to wyniki te wskazują, jak dużo pracy należy wykonać, aby zaszczepić w opinii publicznej świadomość wymogów prawnych, związanych z takim rodzajem treści.
Przykładowo, niemal 40% respondentów z USA stwierdziło, że tworzenie nieprawdziwych treści seksualnych z użyciem AI jest legalne. Ponadto koledzy z branży opowiedzieli nam o niepokojącym trendzie: wraz z szybkim wzrostem ilości takich treści, niektóre nastolatki czują się „wykluczone”, jeśli ich rówieśnicy nie tworzą i nie udostępniają zmanipulowanych przez AI treści o charakterze seksualnych z ich wizerunkiem. W świetle takich wiadomości potrzeba edukowania i zwiększania świadomości na temat tego konkretnego zagrożenia w sieci jest jeszcze większa, natomiast bliskie osoby dorosłe i dokształceni rówieśnicy powinni odgrywać aktywną rolę w zniechęcaniu do tego typu zachowania.
Ciągłe zaangażowanie firmy Snap
W firmie Snap nieustannie inwestujemy w zasoby, narzędzia i technologię, mające pomóc w zapewnieniu bezpieczniejszych, zdrowszych i pozytywniejszych doświadczeń na Snapchacie, a także w całym technologicznym ekosystemie.
W niektórych przypadkach korzystamy z „sygnałów” behawioralnych, aby określić potencjalnie nielegalną aktywność. W ten sposób możemy prewencyjnie usunąć nieuczciwe osoby, zgłaszając je do odpowiednich służb. Ponadto jesteśmy serwisem, który oferuje kontrowersyjnego czatbota AI. Dlatego też staramy się zachować wyjątkową czujność, aby zapobiec potencjalnemu generowaniu takich materiałów na Snapchacie, a także stosujemy zabezpieczenia, dzięki którym udostępnianie i rozpowszechnianie materiałów stworzonych na innych platformach jest niemożliwe. Podejrzane wygenerowane przez AI wizerunki nieletnich o charakterze seksualnym traktujemy tak samo, jak „autentyczne” wizerunki, przedstawiające seksualne wykorzystanie i nadużycie wobec dzieci (CSEAI): gdy tylko dowiemy się o istnieniu takich treści, usuwamy je, zawieszamy naruszające zasady konto i zgłaszamy je do ośrodka National Center for Missing and Exploited Children (NCMEC). Jest to uzupełnienie wykorzystywania i wdrażania technologii stworzonej do zapobiegania dystrybucji materiałów nacechowanych seksualnie z udziałem dzieci, w tym PhotoDNA (wykrywa kopie znanych nielegalnych obrazów) i CSAI Match firmy Google (wykrywa duplikaty znanych nielegalnych wideo). Od niedawna korzystamy również z innego produktu Google, Content Safety API (wspomaga przy wykrywaniu nowych, „wcześniej nie haszowanych” wizerunków w treściach publicznych). Nawiązaliśmy również współpracę z NCMEC w zakresie wykorzystania unikalnych podpisów cyfrowych (lub „haszów”) z 4700 zgłoszeń otrzymanych przez nich w ubiegłym roku, które związane są z materiałami przedstawiającymi seksualne wykorzystanie dzieci, stworzonymi z użyciem GenAI.
Współpracujemy z organami ścigania, pomagamy im w śledztwach, a także mocno inwestujemy w nasze międzynarodowe zespoły ds. zaufania i bezpieczeństwa oraz ds. operacji organów ścigania, które pracują całodobowo nad zapewnieniem naszym użytkownikom bezpieczeństwa. Co roku organizujemy spotkania dla amerykańskich organów ścigania, chcąc mieć pewność, że funkcjonariusze i agencje mają wiedzę na temat podejmowania odpowiednich działań wobec nielegalnej aktywności, mogącej mieć miejsce na naszej platformie.
Zwiększamy również zakres naszych aplikacyjnych narzędzi do zgłaszania. Nasza społeczność może m.in. oznaczać treści o charakterze seksualnym, zawierające nagość, a w szczególności treści dotyczące seksualnego wykorzystania nieletnich. Zgłaszanie problematycznych treści i kont stanowi kluczowy element pomagania firmom technologicznym w usuwaniu nieuczciwych osób z serwisów oraz pozwala krzyżować ich plany, zanim zdążą wyrządzić komuś krzywdę.
Niedawno dodaliśmy nowe funkcje do naszego zestawu narzędzi w Centrum rodziny. Rodzice mogą z nich korzystać, aby lepiej rozumieć sposób użytkowania Snapchata (w tym naszego czatbota AI) przez ich nastoletnie dzieci. Opublikowaliśmy także nowe zasoby pomocnicze dla pedagogów i urzędników szkolnych, dzięki którym zrozumieją oni sposób użytkowania Snapchata przez ich uczniów. Dostępne są również materiały pomagające szkołom w stworzeniu uczniom bezpiecznego i pełnego wsparcia środowiska.
A to nie wszystko, ponieważ wciąż inwestujemy w metody zwiększania wśród opinii publicznej i Snapchatterów świadomości na temat zagrożeń seksualnych w sieci. Nowe odcinki „Safety Snapshot” dotyczą zagrożeń seksualnych, m.in. uwodzenia małoletnich w sieci i handlu ludźmi. Jako pierwszy podmiot wsparliśmy Know2Protect, czyli kampanię Departamentu Bezpieczeństwa Krajowego Stanów Zjednoczonych, poświęconą kształceniu młodych ludzi, rodziców, zaufanych dorosłych i ustawodawców na temat zagrożenia wykorzystywania seksualnego dzieci w sieci, oraz wzmacnianiu pozycji tych grup.
Będziemy kontynuować pracę z wszystkimi interesariuszami, wśród których są m.in. rodzice, młodzi ludzie, pedagodzy i ustawodawcy, w zakresie tego typu problemów, dotyczących całego społeczeństwa. Mamy nadzieję, że wnioski z naszego międzyplatformowego badania pomogą w stworzeniu nowych pomysłów na zwiększenie świadomości o istniejących i nowych zagrożeniach w Internecie, a dostępne materiały przyczynią się do zwalczania tych niebezpieczeństw.
— Viraj Doshi, szef ds. bezpieczeństwa platformy