Snap Values

লোকজন কীভাবে GenAI যৌনতা বিষয়ক কন্টেন্টের সাথে ইন্টা‌র‍্যাক্ট করছেন সেই সম্বন্ধে নতুন গবেষণা

19 নভেম্বর, 2024

সাম্প্রতিক বছরগুলোতে AI টুলের দ্রুত উত্থান সৃজনশীলতা, শেখার এবং সংযোগের জন্য নতুন সুযোগ তৈরি করে চলেছে যা অব্যাহত থাকবে। যাইহোক, প্রযুক্তিটি বিদ্যমান অনলাইন ঝুঁকির জন্য নতুন গতিশীলতা চালু করেছে। নতুন গবেষণা দেখায় যে অনলাইনে যারা যৌনতায় অভিযুক্ত AI-ছবি এবং ভিডিওর সম্মুখীন হন তাদের সংখ্যা ক্রমশ বাড়ার সাথে সাথে, এই কন্টেন্টের কিছু অবৈধতা সম্পর্কে সচেতনতা একটি চ্যালেঞ্জ হিসাবে অব্যাহত রয়েছে।

সমস্ত প্ল্যাটফর্ম ও পরিষেবা জুড়ে কিশোর-কিশোরী এবং তরুণ প্রাপ্তবয়স্কদের মনোভাব এবং আচরণের বিষয়ে আরও ভালোভাবে বোঝার জন্য, Snap আমাদের ডিজিটাল ওয়েল-বিয়িং ইনডেক্স নামে বার্ষিক ইন্ডাস্ট্রি-ব্যাপী গবেষণা পরিচালনা করে এবং শেয়ার করে। (Snap গবেষণাটি পরিচালনা করেছে, কিন্তু এটি সাধারণত ডিজিটাল স্পেস জুড়ে জেনারেশন Z-এর অভিজ্ঞতা অন্তর্ভুক্ত করে, Snapchat-এ কোনো নির্দিষ্ট ফোকাস ছাড়াই।) আমরা যদিও 2025 সালের ফেব্রুয়ারীতে আন্তর্জাতিক নিরাপদ ইন্টারনেট দিবসের সাথে একত্রে আমাদের তৃতীয় বছরের সম্পূর্ণ ফলাফল প্রকাশ করার জন্য পরিকল্পনা করছি, তখন আমরা কিশোর-কিশোরী, তরুণ প্রাপ্তবয়স্ক এবং এমনকি পিতামাতা কীভাবে জেনারেটিভ AI-ভিত্তিক যৌনতামূলক কন্টেন্টের সাথে জড়িত এবং প্রতিক্রিয়া জানাচ্ছে তার কিছু মূল ফলাফল আগেই দেখতে চাই। আমরা আজ তা করছি, এই সপ্তাহে শিশু যৌন শোষণ ও নির্যাতনের উপর বিশ্বব্যাপী ফোকাসের আলোকে এবং ক্ষমতায়ন ভয়েসেস ডিসি সামিট-এ আমাদের অংশগ্রহণের সাথে একত্রে, যেটি AI-জেনারেটেড যৌন কন্টেন্টের সাথে সম্পর্কিত ক্ষতির মোকাবেলায় মনোনিবেশ করেছিল।

উদাহরণস্বরূপ, আমাদের গবেষণায়, যা 9,007 জন কিশোর-কিশোরী, তরুণ প্রাপ্তবয়স্ক এবং কিশোর-কিশোরীদের পিতামাতার উপর সমীক্ষা করেছে 1, 24% বলেছেন যে তারা কিছু ধরনের AI-জেনারেটেড ছবি বা ভিডিও দেখেছেন যার মধ্যে যৌনতা ছিল। যারা এই ধরনের কন্টেন্ট দেখেছেন বলে দাবি করেছেন, তাদের মধ্যে মাত্র 2% বলেছেন যে ছবিগুলি 18 বছরের কম বয়সী কারও ।

উৎসাহজনকভাবে, যখন লোকজন এই ধরনের কন্টেন্ট দেখেছেন, তখন 10 জনের মধ্যে 9 জন কিছু পদক্ষেপ নিয়েছেন, যা কন্টেন্ট ব্লক করা বা মুছে ফেলা (54%) থেকে বিশ্বস্ত বন্ধু বা পরিবারের সাথে কথা বলা পর্যন্ত (52%)। যাইহোক, শুধুমাত্র 42% বলেছেন যে তারা কন্টেন্টটি প্ল্যাটফর্ম বা পরিষেবাতে যেখানে তারা এটি দেখেছেন, বা হটলাইন / হেল্পলাইনে রিপোর্ট করেছেন। এই অন্তর্দৃষ্টি সাধারণত ডিজিটাল নিরাপত্তা-সম্পর্কিত বিষয়গুলোতে কম রিপোর্টিং হারের একটি বৃহত্তর প্রবণতা অনুসরণ করে। আমরা একটি আগে করা পোস্টে উল্লেখ করেছি, রিপোর্টের সম্পর্কে নেতিবাচক ধারণাগুলোকে মোকাবিলা করার গুরুত্ব সম্পর্কে, যাতে তরুণর-তরুণীরা নির্দিষ্ট সমস্যাযুক্ত কন্টেন্টের এক্সপোজারকে স্বাভাবিক করতে না পারে এবং অনলাইনে আচার-আচরণ না করে অথবা রিপোর্টিংকে ট্যাটল-টেলিং-এর সাথে সমতুল্য করে তোলে।

এমনকি আরও উদ্বেগজনক হল যে 40%-এর বেশি উত্তরদাতারা প্ল্যাটফর্ম/পরিষেবাদির জন্য জোক বা মিম হিসাবে তৈরি করা হয়ে থাকলেও অপ্রাপ্তবয়স্কদের যৌনতামূলক ছবি রিপোর্ট করার জন্য আইনি বাধ্যবাধকতা সম্পর্কে অস্পষ্ট ছিল। এবং যখন একটি বৃহত্তর সংখ্যক (70%+) স্বীকার করেছে যে AI প্রযুক্তি ব্যবহার করে কোনো ব্যক্তির জাল যৌন কন্টেন্ট তৈরি করা অথবা অপ্রাপ্তবয়স্কদের যৌনতামূলক ছবি ধরে রাখা, দেখা বা শেয়ার করা অবৈধ ছিল, এই ফলাফলগুলি নির্দেশ করে যে সাধারণ জনতা এই ধরনের কন্টেন্টের সাথে সম্পর্কিত আইনি প্রয়োজনীয়তা সম্পর্কে সচেতন তা নিশ্চিত করার জন্য যথেষ্ট কাজ করতে হবে।

উদাহরণস্বরূপ, মার্কিন যুক্তরাষ্ট্রে প্রায় 40% উত্তরদাতারা বলেছেন যে তারা মনে করেন যে একজন ব্যক্তির জাল যৌনতামূলক ছবি তৈরি করতে AI প্রযুক্তি ব্যবহার করা বৈধ। এবং, উপাখ্যানগতভাবে, আমরা ইন্ডাস্ট্রি সহকর্মীদের থেকে একটি সম্পর্কিত প্রবণতার কথা শুনেছি: এই ধরনের কন্টেন্টের বিস্তারের সাথে সাথে, বিশেষ করে কিছু কিশোরীরা "একা" বোধ করছেন যদি তাদের AI-ম্যানিপুলেটেড যৌনতার ছবিতে দেখানো না হয় যা তাদের সহকর্মী‌রা অনুপযুক্তভাবে তৈরি করছে এবং শেয়ার করে নিচ্ছে। এই বিরক্তিকর পয়েন্টটি এই নির্দিষ্ট অনলাইন ঝুঁকির সম্পর্কে শিক্ষিত এবং সচেতনতা বাড়ানোর প্রয়োজনীয়তার উপর আরও জোর দেয়, বিশ্বস্ত প্রাপ্তবয়স্কদের এবং জ্ঞাত সহকর্মীদের এই ধরনের আচরণকে নিরুৎসাহিত করতে একটি সক্রিয় ভূমিকা পালন করে।

Snap-এর নিরন্তর প্রতিশ্রুতি

Snapchat-এ, আমরা Snapchat এবং টেক ইকোসিস্টেমে নিরাপদ, স্বাস্থ্যসম্মত এবং আরও ইতিবাচক অভিজ্ঞতা জোরদার করতে সাহায্য করার জন্য রিসোর্স, টুল এবং প্রযুক্তিতে ক্রমাগত বিনিয়োগ করছি।

কিছু ক্ষেত্রে, আমরা সম্ভাব্য অবৈধ কার্যকলাপ শনাক্ত করতে আচরণগত "সংকেত" ব্যবহার করি যাতে আমরা খারাপ কাজে যুক্তদের সরিয়ে দিতে এবং কর্তৃপক্ষের কাছে রিপোর্ট করতে পারি। তাছাড়া, পরিষেবা হিসাবে যা একটি কথোপকথনমূলক AI চ্যাটবট অন্তর্ভুক্ত করে, আমরা Snapchat-এ এই ধরনের উপাদানের সম্ভাব্য নির্মাণ প্রতিরোধ করতে অতিরিক্ত সতর্কতা অবলম্বন করতে চেষ্টা করি, পাশাপাশি অন্যান্য প্ল্যাটফর্মে তৈরি হতে পারে এমন উপাদান শেয়ারিং এবং বিতরণের বিরুদ্ধে রক্ষার জন্য। আমরা অপ্রাপ্তবয়স্কদের সন্দেহজনক AI-জেনারেটেড যৌনতামূলক ছবিকে “আসল” শিশু যৌন শোষণ এবং নির্যাতনের ছবি (CSEAI)-এর মতো একই হিসাবে বিবেচনা করি, যখন আমরা এটি সম্পর্কে সচেতন হই তখন কন্টেন্ট অপসারণ করি, লঙ্ঘনকারী অ্যাকাউন্ট স্থগিত করি, এবং ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লোয়েটেড চিলড্রেন (NCMEC)-এ রিপোর্ট করি। এটি CSEAI-এর বিস্তার প্রতিরোধ করার জন্য ডিজাইন করা প্রযুক্তির সুবিধা এবং স্থাপনার জন্য রয়েছে, যার মধ্যে PhotoDNA (পরিচিত অবৈধ ছবির জাল শনাক্ত করতে) এবং Google-এর CSAI ম্যাচ (পরিচিত অবৈধ ভিডিওর জাল শনাক্ত করতে)। এছাড়াও, আমরা সম্প্রতি Google-এর কন্টেন্ট সেফটি API (পাবলিক কন্টেন্টের উপর নভেল, “আগে কখনো হ্যাশ করা হয়নি” ছবি শনাক্ত করতে সাহায্য করার জন্য) ব্যবহার করা শুরু করেছি। এছাড়াও, আমরা NCMEC-এর সাথে যুক্ত হয়েছি যে কীভাবে GenAI-এর সাথে সম্পর্কিত শিশু যৌন নির্যাতনের বিষয়বস্তু সম্পর্কিত তাদের গতবছরের 4,700টি রিপোর্টের অনন্য ডিজিটাল স্বাক্ষর (বা "হ্যাশ") ব্যবহার করা যায়।

আমরা আইন প্রয়োগকারী সংস্থার সাথে সহযোগিতা করি, তাদের তদন্তে সহায়তা করি এবং আমাদের গ্লোবাল ট্রাস্ট ও সেফটি এবং আইন প্রয়োগকারী অপারেশনস টিমের মধ্যে ব্যাপকভাবে বিনিয়োগ করি যা আমাদের কমিউনিটি নিরাপদ রাখার জন্য সাহায্য করতে 24/7 কাজ করে। আমাদের প্ল্যাটফর্মে ঘটতে পারে এমন যে কোনো বেআইনি কার্যকলাপের বিরুদ্ধে কীভাবে যথাযথ ব্যবস্থা নেওয়া যায় তা নিশ্চিত করার লক্ষ্যে আমরা মার্কিন যুক্তরাষ্ট্রে আইন প্রয়োগকারী সংস্থার জন্য বার্ষিক সম্মেলনের আয়োজন করি।

এছাড়াও আমরা আমাদের ইন-অ্যাপ রিপোর্টিং টুলগুলো প্রসারিত করতে থাকি, যার মধ্যে আমাদের কমিউনিটির জন্য নগ্নতা ও যৌনতা বিষয়ক কন্টেন্ট এবং বিশেষভাবে CSEAI সম্পর্কে আমাদের অবগত করার বিকল্প অন্তর্ভুক্ত রয়েছে। সমস্যাযুক্ত কন্টেন্ট এবং অ্যাকাউন্টের সম্পর্কে করা রিপোর্ট প্রযুক্তি কোম্পানিগুলোকে তাদের পরিষেবাগুলো থেকে খারাপ কাজে যুক্ত ব্যক্তিদের সরিয়ে দিতে এবং অন্যদের সম্ভাব্য ক্ষতির কারণ হওয়ার আগেই সেই কার্যকলাপ ব্যর্থ করতে সহায়তা করার জন্য গুরুত্বপূর্ণ।

অতি সম্প্রতি, আমরা আমাদের ফ্যামিলি সেন্টার স্যুটের টুল-এ নতুন ফিচার যোগ করেছি, যা পিতামাতারা আমাদের AI চ্যাটবট সহ তাদের কিশোর-কিশোরীরা কীভাবে Snapchat ব্যবহার করছেন তা আরও ভালোভাবে বুঝতে ব্যবহার করতে পারেন। এছাড়াও আমরা শিক্ষাবিদদের এবং স্কুল প্রশাসকদের সাহায্য বুঝতে সাহায্য করার জন্য নতুন রিসোর্স প্রকাশ করেছি যে কীভাবে তাদের শিক্ষার্থীরা Snapchat ব্যবহার করে এবং শিক্ষার্থীদের জন্য নিরাপদ এবং সহায়ক পরিবেশ তৈরি করার প্রচেষ্টায় স্কুলগুলোকে সহায়তা করার জন্য আমরা যে রিসোর্স অফার করি।

এবং, আমরা অনলাইন যৌনতা সম্পর্কিত ক্ষতির বিষয়ে জনসাধারণ এবং Snapchatter-এর সচেতনতা বাড়ানোর উপায়গুলোতে বিনিয়োগ চালিয়ে যাচ্ছি। আমাদের ইন-অ্যাপ "সুরক্ষিত থাকার স্ন্যাপশট" পর্বগুলো যৌনতা বিষয়ক ঝুঁকির উপর নজর দেয়, যার মধ্যে শিশুর অনলাইন গ্রুমিং এবং পাচারের মতো বিষয়গুলো রয়েছে। এছাড়াও আমরা ছিলাম ‏Know2Protect-কে সমর্থনকারী প্রথম সংস্থা, যেটি একটি মার্কিন ডিপার্টমেন্ট অফ হোমল্যান্ড সিকিউরিটি ক্যাম্পেইন যা তরুণ, পিতামাতা, বিশ্বস্ত প্রাপ্তবয়স্কদের এবং অনলাইনে শিশুদের যৌন নির্যাতনের বিষয়ে নীতিনির্ধারকদের শিক্ষিত এবং ক্ষমতায়নের উপর দৃষ্টি নিবদ্ধ করেছে।

আমরা সব ধরনের স্টেকহোল্ডারদের সাথে কাজ করা চালিয়ে যাওয়ার জন্য উন্মুখ -- যার মধ্যে কয়েকটি উদাহরণ হল পিতামাতা, যুবক-যুবতী, শিক্ষাবিদ এবং নীতিনির্ধারকগণ -- এই ধরনের সমগ্র-সমাজ সংক্রান্ত সমস্যাগুলোতে এবং আশা করি যে আমাদের ক্রস-প্ল্যাটফর্ম গবেষণা থেকে প্রাপ্ত অন্তর্দৃষ্টি নতুন ধারণা এবং সুযোগ তৈরি করতে সহায়তা করে যাতে লোকেরা বিদ্যমান এবং নতুন অনলাইন হুমকি এবং এইসব ঝুঁকি মোকাবিলা করতে সাহায্য করার জন্য উপলব্ধ রিসোর্স সম্পর্কে সচেতন হয়।

— বিরাজ দোশি, প্ল্যাটফর্ম সেফটি লিড

সংবাদে ফিরে যান

1

গবেষণায় অন্তর্ভুক্ত দেশগুলো হল: অস্ট্রেলিয়া, ফ্রান্স, জার্মানি, ভারত, যুক্তরাজ্য এবং মার্কিন যুক্তরাষ্ট্র।

1

গবেষণায় অন্তর্ভুক্ত দেশগুলো হল: অস্ট্রেলিয়া, ফ্রান্স, জার্মানি, ভারত, যুক্তরাজ্য এবং মার্কিন যুক্তরাষ্ট্র।