GenAI பாலியல் உள்ளடக்கத்துடன் மக்கள் எவ்வாறு தொடர்பு படுத்துகிறார்கள் என்பது பற்றிய புதிய ஆராய்ச்சி
நவம்பர் 19, 2024
சமீப ஆண்டு காலமாக, AI கருவிகளின் விரைவான எழுச்சி, படைப்பாற்றல், கற்றல் மற்றும் இணைப்பு ஆகியவற்றிற்கான புதிய வாய்ப்புகளை தொடர்ந்து உருவாக்கும். இருப்பினும், தற்போதுள்ள ஆன்லைன் அபாயங்களுக்கு தொழில்நுட்பம் பல முன்னேற்றங்களை அறிமுகப்படுத்தியுள்ளது. இணையதளங்களில் பாலியல் சார்ந்த AI-படங்கள் மற்றும் வீடியோக்களை எதிர்கொள்பவர்களின் எண்ணிக்கை அதிகரித்து வருவதால், இந்த உள்ளடக்கத்தின் சட்ட விரோத நிலை பற்றிய விழிப்புணர்வு சவாலாக இருப்பதாக புதிய ஆராய்ச்சி காட்டுகிறது.
சிறார்கள் மற்றும் இளம் வயதினரின் மனப்பான்மை மற்றும் நடத்தைகள் பற்றி நன்றாகப் புரிந்துகொள்ள, Snap எங்கள் டிஜிட்டல் வெல்-பியிங் இன்டெக்ஸ் எனப்படும் வருடாந்திர தொழில்துறை அளவிலான ஆராய்ச்சியை நடத்தி பகிர்ந்து கொள்கிறது. (Snap ஆராய்ச்சியை நியமித்திருந்தாலும், இது Snapchat இல் குறிப்பிட்ட கவனம் செலுத்தாமல் பொதுவாக டிஜிட்டல் ஸ்பேஸ்களில் ஜெனரஷன் Z இன் அனுபவங்களை உள்ளடக்கியது.) மூன்றாம் ஆண்டு ஆய்வின் முழு முடிவுகளையும் பிப்ரவரி 2025 இல் சர்வதேச பாதுகாப்பான இணைய தினத்துடன் இணைந்து வெளியிட நாங்கள் திட்டமிட்டுள்ள நிலையில், பதின்ம வயதினர், இளம் வயதினர் மற்றும் பெற்றோர்கள் ஜென் AI -யில் பாலியல் உள்ளடக்கம் குறித்து எவ்வாறு ஈடுபடுகிறார்கள் மற்றும் அதை எப்படி எதிர்கொள்கிறார்கள் என்பதைப் பற்றிய சில முக்கிய கண்டறிதல்களை நாங்கள் முன்னோட்டமாக பகிர விரும்புகிறோம். இந்த வாரம் குழந்தைகள் பாலியல் சுரண்டல் மற்றும் துஷ்பிரயோகம் மீதான உலகளாவிய கவனம் மற்றும் AI-உருவாக்கிய பாலியல் உள்ளடக்கத்துடன் தொடர்புடைய பாதிப்புகளை சமாளிக்கும் வகையில் எம்பவரிங்க் வாய்சஸ் டிசி உச்சிமாநாட்டில் எங்கள் பங்கேற்புடன் இணைந்து இன்று நாங்கள் இவ்வாறு செய்கிறோம்.
எடுத்துக்காட்டாக, எங்கள் ஆய்வில், சுமார் 9,007 பதின்ம வயதினர்கள், இளம் வயதினர் மற்றும் பெற்றோர்கள் ஆகியோரை 6 நாடுகளில் ஆய்வு செய்தோம் 1, 24% பேர் AI-உருவாக்கிய பாலியல் படங்கள் அல்லது வீடியோக்களைப் பார்த்ததாக கூறியுள்ளனர். இந்த வகையான உள்ளடக்கத்தைப் பார்த்திருக்கின்ற நபர்களில் 2% மட்டுமே 18 வயதுக்கு குறைவான ஒருவரின் படம் என்று கூறப்படுகிறது.

இது போன்ற உள்ளடக்கத்தைப் மக்கள் பார்த்தபோது, 10 இல் 9 பேர் உள்ளடக்கத்தை தடுப்பது அல்லது நீக்குவது (54%) நம்பகமான நண்பர்கள் அல்லது குடும்பத்தினருடன் (52%) பேசுதல் வரை சில நடவடிக்கைகளை எடுத்தனர். இருப்பினும், 42% மட்டுமே உள்ளடக்கத்தை தாங்கள் பார்த்த தளத்திலோ அல்லது ஹாட்லைன் / ஹெல்ப்லைனுக்குப் புகாரளித்ததாக தெரிவித்தார்கள். இந்த நுண்ணறிவு பொதுவாக டிஜிட்டல் பாதுகாப்பு தொடர்பான பிரச்சினைகளில் குறைந்த புகாரளிக்கும் விகிதங்களின் பெரிய போக்கைப் பின்பற்றுகிறது. முந்தைய இடுகையில், புகாரளிப்பதன் எதிர்மறை உணர்வுகளை எதிர்ப்பதின் முக்கியத்துவத்தை நாங்கள் சுட்டிக்காட்டினோம், இதனால் இளைஞர்கள் சில சிக்கலான, உள்ளடக்கத்தின் வெளிப்பாட்டை இயல்பாக்குவது மற்றும் ஆன்லைனில் நடத்தவது அல்லது புகாரளிப்பதை சலசலப்பை ஏற்படுத்துவதாக எண்ணுவதைத் தடுக்கக்கூடும்.
இன்னும் ஆபத்தான விஷயம் என்னவென்றால், 40% க்கும் அதிகமானோர், பிளாட்ஃபார்ம்கள்/சேவைகள் சிறார்களின் பாலியல் படங்களை நகைச்சுவையாகவோ அல்லது மீம்களாகவோ கருதினாலும், அது குறித்த சட்டப்பூர்வக் கடமையைப் பற்றி தெளிவாக தெரியவில்லை. மேலும், அதிக எண்ணிக்கையிலான (70% +) ஒரு நபரின் போலியான பாலியல் உள்ளடக்கத்தை உருவாக்க AI தொழில்நுட்பத்தை பயன்படுத்துவது சட்டவிரோதமானது என்று அங்கீகரித்தாலும், அல்லது சிறார்களின் பாலியல் படங்களை வைத்துக்கொள்வது, பார்ப்பது, அல்லது பகிர்வது, இந்த வகையான உள்ளடக்கம் தொடர்பான சட்ட தேவைகளைப் பற்றி பொது மக்கள் அறிந்திருப்பதை உறுதிப்படுத்த கணிசமான வேலை இருப்பதாக இந்த கண்டுபிடிப்புகள் குறிப்பிடுகின்றன.
எடுத்துக்காட்டாக, அமெரிக்காவில் சுமார் 40% பதிலளித்தவர்கள் ஒரு நபரின் போலியான பாலியல் படங்களை உருவாக்க AI தொழில்நுட்பத்தை பயன்படுத்துவது சட்டப்பூர்வமானது என்று அவர்கள் நம்புவதாக கூறியுள்ளனர். மேலும், ஒரு கவலைக்குறிய போக்கைப் பற்றி நாங்கள் கேள்விப்பட்டுள்ளோம்: இந்த வகையான உள்ளடக்கங்கள் பெருக்கத்துடன், குறிப்பாக சில பதின்ம வயது பெண்கள் தங்கள் கூட்டாளிகள் AI-வழி மாற்றப்பட்ட பாலியல் படங்கள் இடம்பெறவில்லை என்றால் "வெளியேற்றப்பட்டவர்கள்" என்ற உணர்வை ஏற்ப்படுத்திக் கொள்கிறார்கள். இந்த கவலை அளிக்கும் விஷயம், இந்தக் குறிப்பிட்ட ஆன்லைன் அபாயத்தைப் பற்றிய விழிப்புணர்வைக் கற்பிக்க வேண்டியதன் அவசியத்தை மேலும் அடிக்கோடிட்டு காட்டுகிறது, நம்பகமான பெரியவர்கள் மற்றும் தகவலறிந்த கூட்டாளிகள் இந்த வகையான நடத்தையை ஊக்கப்படுத்தாத செயலில் பங்கேற்க உள்ளனர்.
Snap இன் தற்போதைய அர்ப்பணிப்பு
Snap இல், Snapchat மற்றும் தொழில்நுட்ப சுற்றுச்சூழல் அமைப்பு முழுவதும் பாதுகாப்பான, ஆரோக்கியமான மற்றும் நேர்மறையான அனுபவங்களை ஊக்குவிக்க வளங்கள், கருவிகள் மற்றும் தொழில்நுட்பங்களில் தொடர்ந்து நாங்கள் முதலீடு செய்து வருகிறோம்.
சில சமயங்களில், சட்டவிரோத நடவடிக்கைகளை அடையாளம் காண நடத்தை "சிக்னல்களை" பயன்படுத்துகிறோம், இதன் மூலம் தீய செயல்பாடுகள் கொண்டவர்களை முன்கூட்டியே அகற்றவும், அவற்றை அதிகாரிகளுக்கு புகாரளிக்கவும் முடியும். மேலும், எங்கள் சேவை உரையாடல் AI சாட்பாட்டை உள்ளடக்கிய ஒரு சேவையாக இருப்பதால் Snapchat இல் இத்தகைய உள்ளடக்கம் உருவாக்கப்படுவதை தடுப்பதில் கூடுதல் விழிப்புடன் இருக்க முயற்சிக்கிறோம், அதே போல் பிற தளங்களில் உருவாக்கப்படும் பொருட்களின் பகிர்தல் மற்றும் விநியோகிப்பதில் இருந்து பாதுகாப்போம். சந்தேகத்திற்கிடமான AI-உருவாக்கிய சிறார்களின் பாலியல் படங்களை "உண்மையான" குழந்தை பாலியல் சுரண்டல் மற்றும் துஷ்பிரயோகம் (CSEAI) போலவே நாங்கள் நடத்துகிறோம், இது குறித்து அறிந்தவுடன் உள்ளடக்கத்தை நீக்குகிறோம், மீறும் கணக்கை நிறுத்தி வைக்கிறோம், காணாமல் போன மற்றும் சுரண்டப்பட்ட குழந்தைகள் (NCMEC) தேசிய மையத்திற்கு புகாரளிக்கிறோம். இது தவிர, CSEAI இன் பரவலைத் தடுக்க வடிவமைக்கப்பட்ட தொழில்நுட்பங்களை பயன்படுத்துவதும், அமல்படுத்துவதும் இடம்பெறுகின்றன. இதில் ஃபோட்டோDNA (அறியப்பட்ட சட்டவிரோத படங்களின் நகல்களை கண்டறிதல்) மற்றும் கூகிள்-ன் CSAI மேட்ச் (அறியப்பட்ட சட்டவிரோத வீடியோக்களின் நகல்களை கண்டறிதல்) ஆகியவையும் அடங்கும். நாங்கள் சமீபத்தில் கூகிள் இன் உள்ளடக்கப் பாதுகாப்பு API ஐப் பயன்படுத்தத் தொடங்கினோம் (பொது உள்ளடக்கத்தில், "எப்போதும் இல்லாத" படங்களைக் கண்டறிய உதவுவதற்காக). GenAI சம்பந்தப்பட்ட குழந்தைகளின் பாலியல் துஷ்பிரயோகம் தொடர்பான கடந்த ஆண்டு பெறப்பட்ட 4,700 அறிக்கைகளின் தனிப்பட்ட டிஜிட்டல் கையொப்பங்களை (அல்லது “hashes”) எவ்வாறு பயன்படுத்திக் கொள்ள வேண்டும் என்பதை NCMEC உடன் நாங்கள் ஈடுபட்டுள்ளோம்.
நாங்கள் சட்டம் மற்றும் ஒழுங்கு அமலாக்க நிறுவனங்களுடன் அவர்களின் விசாரணைகளை ஆதரவளிக்கின்றோம், மேலும் எங்கள் சாமூகத்தை பாதுகாப்பாக வைத்திருக்க உதவும் 24/7 வேலை செய்யும் எங்கள் உலகளாவிய அறக்கட்டளை மற்றும் பாதுகாப்பு மற்றும் சட்டம் அமலாக்க நடவடிக்கைகள் குழுக்களில் பெரிதும் முதலீடு செய்கிறோம். எங்கள் தளத்தில் நடைபெறும் எந்தவொரு சட்டவிரோத செயல்பாட்டுக்கும் எதிராக பொருத்தமான நடவடிக்கை எப்படி எடுப்பது என்பதை அதிகாரிகளும் முகவர்களும் அறிந்திருப்பதை உறுதி செய்ய, இலக்காக அமெரிக்காவில் சட்ட அமலாக்கத்திற்கான வருடாந்திர உச்சி மாநாடுகளை நடத்துகிறோம்.
மேலும் எங்கள் இன்-ஆப் புகாரளிக்கும் கருவிகளை விரிவுபடுத்தி வருகிறோம், இதில் எங்கள் சமூகம் நிர்வாணம் மற்றும் பாலியல் உள்ளடக்கங்களை குறிப்பாக CSEAI பற்றிய தெரிவுகளைக் குறிக்க உதவுகின்றன. சிக்கலான உள்ளடக்கம் மற்றும் கணக்குகளைப் புகாரளிப்பது முக்கியமானது, ஏனெனில் இது தொழில்நுட்ப நிறுவனங்களுக்கு தீங்கிழைப்பவர்களை அவர்களின் சேவைகளில் இருந்து நீக்க உதவுவதுடன், அது மற்றவர்களுக்கு சேதம் ஏற்படுத்துவதற்கு முன்னரே அவர்களின் செயல்பாடுகளை தடுக்கவும் உதவுகிறது.
சமீபத்தில், எங்கள் ஃபேமிலி சென்டர் தொகுப்புகளில் புதிய அம்சங்களை சேர்த்துள்ளோம் எங்கள் AI சாட்பாட் உட்பட பதின்ம வயதினர் Snapchat ஐ பயன்படுத்துகிறார்கள் என்பதை பெற்றோர்கள் நன்கு புரிந்துகொள்ள இதை பயன்படுத்தலாம். கல்வியாளர்கள் மற்றும் பள்ளி நிர்வாகிகள் தங்கள் மாணவர்கள் Snapchat ஐ எவ்வாறு பயன்படுத்துகிறார்கள் மற்றும் மாணவர்களுக்கு பாதுகாப்பான மற்றும் ஆதரவான சூழலை உருவாக்கும் முயற்சிகளில் பள்ளிகளுக்கு உதவ நாங்கள் வழங்கும் வளங்களை எவ்வாறு பயன்படுத்துகிறோம் என்பதை புரிந்துகொள்ள புதிய ஆதாரங்களை நாங்கள் வெளியிட்டுள்ளோம்.
மேலும், ஆன்லைன் பாலியல் பாதிப்புகள் குறித்த பொது மற்றும் Snapchat பயனர்கள் விழிப்புணர்வை ஏற்படுத்துவதற்கான வழிகளில் தொடர்ந்து முதலீடு செய்து வருகிறோம். எங்களின் இன்-ஆப் "Safety Snapshot" எபிசோடுகள், குழந்தைகளை ஆன்லைன் குரூமிங்க் மற்றும் கடத்தல் போன்ற தலைப்புகள் உட்பட பாலியல் அபாயங்களில் கவனம் செலுத்துகிறது. ஆன்லைன் சிறுவர் பாலியல் துஷ்பிரயோகம் பற்றி இளைஞர்கள், பெற்றோர்கள், நம்பகமான பெரியவர்கள் மற்றும் கொள்கை வகுப்பாளர்களுக்கு கல்வி மற்றும் அதிகாரம் அளிப்பதில் கவனம் செலுத்தும் யு.எஸ் டிபார்ட்மென்ட் ஆஃப் ஹோம்லேண்ட் பாதுகாப்பு பிரச்சாரமான Know2Protect-ஐ ஆதரித்த முதல் நிறுவனமாக நாங்கள் திகழ்ந்தோம்.
எல்லா வகையான பங்குதாரர்களுடனும் -- பெற்றோர்கள், இளைஞர்கள், கல்வியாளர்கள் மற்றும் கொள்கை வகுப்பாளர்களுடன் இணைந்து பணியாற்ற நாங்கள் தொடர்ந்து விரும்புகிறோம். தற்போதுள்ள புதிய ஆன்லைன் அச்சுறுத்தல்கள் மற்றும் இந்த அபாயங்களை எதிர்த்துப் போராட உதவும் ஆதாரங்கள் குறித்து மக்கள் அறிந்திருப்பதை உறுதிசெய்ய புதிய யோசனைகள் மற்றும் வாய்ப்புகளை உருவாக்க ஆராய்ச்சி உதவுகிறது.
- விராஜ் தோஷி, தளப் பாதுகாப்புத் தலைவர்