Privacy, Safety, and Policy Hub

งานวิจัยใหม่เกี่ยวกับวิธีที่ผู้คนมีปฏิกิริยาโต้ตอบกับเนื้อหาทางเพศที่สร้างขึ้นจาก GenAI

19 พฤศจิกายน 2024

การเติบโตอย่างรวดเร็วของเครื่องมือ AI ในช่วงไม่กี่ปีที่ผ่านมาได้สร้างโอกาสใหม่ๆ และจะสร้างโอกาสใหม่ๆ ในด้านความคิดสร้างสรรค์ การเรียนรู้ และการติดต่อสื่อสารต่อไปอย่างไรก็ตาม เทคโนโลยีดังกล่าวยังนำความเปลี่ยนแปลงใหม่ๆ มาสู่ความเสี่ยงทางออนไลน์ที่มีอยู่แล้วด้วยงานวิจัยใหม่แสดงให้เห็นว่าคนจำนวนมากที่ได้เห็นภาพและวิดีโอจาก AI ที่สร้างแรงดึงดูดทางเพศในโลกออนไลน์นั้นมีมากขึ้นเรื่อยๆ การตระหนักให้ได้ว่าเนื้อหาบางส่วนเหล่านี้เป็นสิ่งผิดกฎหมายนั้นยังถือเป็นความท้าทายที่ต้องเผชิญ

Snap ดำเนินการและแบ่งปันผลการวิจัยทั่วอุตสาหกรรมประจำปีที่เรียกว่าดัชนีชี้วัดสุขภาวะดิจิทัล (Digital Well-Being Index) ของเราเพื่อให้ทำความเข้าใจทัศนคติและพฤติกรรมของวัยรุ่นและคนหนุ่มสาวได้ดียิ่งขึ้นในทุกแพลตฟอร์มและบริการ(Snap รับหน้าที่ทำการวิจัยนี้ แต่การวิจัยจะครอบคลุมไปถึงประสบการณ์การใช้งานของคนเจนซีในพื้นที่โลกดิจิทัลโดยทั่วไป ไม่ได้เน้นที่ Snapchat เป็นการเฉพาะ)  ในขณะที่เรากำลังวางแผนที่จะเผยแพร่ผลวิจัยฉบับสมบูรณ์ของการศึกษานานสามปีให้ตรงกับวันส่งเสริมอินเทอร์เน็ตปลอดภัย (Safer Internet Day) สากลในเดือนกุมภาพันธ์ 2025 เราก็ต้องการเปิดเผยข้อมูลตัวอย่างการค้นพบที่สำคัญบางประการเกี่ยวกับวิธีที่วัยรุ่น คนหนุ่มสาว และแม้แต่ผู้ปกครองมีส่วนร่วมและโต้ตอบกับเนื้อหาทางเพศที่สร้างโดยใช้ AIเรากำลังดำเนินการดังกล่าวในวันนี้ โดยมุ่งเป้าไปที่ประเด็นสำคัญของโลกเกี่ยวกับการแสวงหาประโยชน์ทางเพศและการล่วงละเมิดทางเพศเด็กที่เป็นที่จับตามองในสัปดาห์นี้ และควบคู่ไปกับการมีส่วนร่วมใน Empowering Voices DC Summit ซึ่งมุ่งเน้นไปที่การรับมือกับอันตรายที่เกี่ยวข้องกับเนื้อหาทางเพศที่สร้างโดยใช้ AI

ตัวอย่างเช่น ในการศึกษาของเราซึ่งสำรวจวัยรุ่น คนหนุ่มสาว และผู้ปกครองของวัยรุ่นจำนวน 9,007 คนจาก 6 ประเทศ 1พบว่า 24% บอกว่าเห็นภาพหรือวิดีโอที่สร้างโดย AI ที่สื่อถึงเรื่องทางเพศจากผู้ที่อ้างว่าเห็นเนื้อหาประเภทนี้ มีเพียง 2% เท่านั้นที่บอกว่าภาพดังกล่าวเป็นภาพของบุคคลที่มีอายุต่ำกว่า 18 ปี

สิ่งที่น่ายินดีก็คือ เมื่อผู้คนเห็นเนื้อหาประเภทนี้ มีถึง 9 ใน 10 คนที่ดำเนินการบางอย่าง นับตั้งแต่การบล็อกหรือลบเนื้อหา (54%) ไปจนถึงการพูดคุยกับเพื่อนหรือครอบครัวที่ไว้ใจได้ (52%)อย่างไรก็ตาม มีเพียง 42% เท่านั้นที่บอกว่าได้รายงานเนื้อหาดังกล่าวไปยังแพลตฟอร์มหรือบริการที่พวกเขาเห็นเนื้อหา หรือไปยังสายด่วน / สายด่วนให้ความช่วยเหลือข้อมูลเชิงลึกนี้สอดคล้องกับแนวโน้มที่เพิ่มมากขึ้นว่าโดยทั่วไปแล้ว อัตราการรายงานเกี่ยวกับปัญหาที่เกี่ยวข้องกับความปลอดภัยในโลกดิจิทัลนั้นลดลงในโพสต์ก่อนหน้านี้ เราได้ชี้ให้เห็นถึงความสำคัญของการรับมือกับการรับรู้อย่างผิดๆ เกี่ยวกับการรายงานเพื่อที่คนหนุ่มสาวจะได้ไม่มองว่าการเห็นเนื้อหาหรือการกระทำที่สร้างปัญหาบางอย่างในโลกออนไลน์เป็นเรื่องปกติ หรือมองว่าการรายงานเท่ากับการเป็นคนขี้ฟ้อง

ที่น่าตกใจยิ่งกว่านั้นคือผู้ตอบแบบสอบถามกว่า 40% ไม่ทราบแน่ชัดเกี่ยวกับภาระผูกพันทางกฎหมายของแพลตฟอร์ม/บริการในการรายงานภาพทางเพศของผู้เยาว์ แม้ว่าภาพดังกล่าวจะตั้งใจให้เป็นเรื่องตลกหรือมีมก็ตามและแม้ว่าคนส่วนใหญ่ (มากกว่า 70%) รับรู้ว่าการใช้เทคโนโลยี AI ในการสร้างเนื้อหาทางเพศปลอมของบุคคลอื่น หรือการเก็บ ดู หรือแชร์ภาพทางเพศของผู้เยาว์เป็นสิ่งผิดกฎหมาย แต่การค้นพบนี้บ่งชี้ว่ายังมีงานที่ต้องทำอีกมากเพื่อให้แน่ใจว่าคนทั่วไปทราบถึงข้อกำหนดทางกฎหมายที่เกี่ยวข้องกับเนื้อหาประเภทนี้

ตัวอย่างเช่น ในสหรัฐอเมริกา ผู้ตอบแบบสอบถามเกือบ 40% กล่าวว่าพวกเขาเชื่อว่าการใช้เทคโนโลยี AI เพื่อสร้างภาพทางเพศปลอมของบุคคลเป็นสิ่งที่ทำได้ตามกฎหมายและจากคำบอกเล่า เราได้ยินเกี่ยวกับแนวโน้มที่น่ากังวลใจนี้จากเพื่อนร่วมอุตสาหกรรมว่าการมีเนื้อหาประเภทนี้เพิ่มมากขึ้น ทำให้โดยเฉพาะอย่างยิ่งเด็กสาวบางคนรู้สึกว่าตัวเอง "ตกเทรนด์" หากไม่ได้เห็นตัวเองในภาพทางเพศที่ผ่านการปรับแต่งด้วย AI ที่ผู้ใช้งานในแวดวงเดียวกันสร้างและแชร์อย่างไม่เหมาะสมประเด็นชวนกังวลนี้ยิ่งเน้นย้ำให้เห็นถึงความจำเป็นในการให้ความรู้และสร้างความตระหนักรู้เกี่ยวกับความเสี่ยงทางออนไลน์โดยเฉพาะอย่างยิ่งในประเด็นนี้ โดยผู้ใหญ่ที่ไว้ใจได้และผู้ใช้งานในแวดวงเดียวกันที่มีข้อมูลเหล่านี้ในการเป็นส่วนสำคัญในการป้องกันพฤติกรรมประเภทนี้

ความมุ่งมั่นอย่างต่อเนื่องของ Snap

ที่ Snap เราลงทุนในทรัพยากร เครื่องมือ และเทคโนโลยีมาอย่างต่อเนื่องเพื่อช่วยส่งเสริมประสบการณ์การใช้งานที่ปลอดภัยยิ่งขึ้น สุขภาพยิ่งดีขึ้น และเป็นบวกมากยิ่งขึ้นใน Snapchat และทั่วทั้งระบบนิเวศทางเทคโนโลยี

ในบางกรณี เราใช้ "สัญญาณ" ทางพฤติกรรมเพื่อระบุกิจกรรมที่อาจผิดกฎหมายเพื่อให้เราสามารถดำเนินการอย่างจริงจังเพื่อจัดการกับผู้กระทำผิดและรายงานให้เจ้าหน้าที่ทราบยิ่งไปกว่านั้น เนื่องจากเป็นบริการที่รวมถึงการสนทนากับแชทบอท AI เราจึงพยายามเฝ้าระวังเป็นพิเศษในการป้องกันการสร้างเนื้อหาประเภทดังกล่าวที่อาจเกิดขึ้นบน Snapchat ตลอดจนป้องกันการแชร์และแจกจ่ายเนื้อหาที่อาจสร้างขึ้นบนแพลตฟอร์มอื่นๆเราปฏิบัติต่อภาพทางเพศของเด็กที่ต้องสงสัยว่าสร้างขึ้นโดย AI ในลักษณะเดียวกันกับภาพการแสวงหาประโยชน์ทางเพศและการล่วงละเมิดทางเพศเด็ก "ของจริง" (CSEAI) โดยจะลบเนื้อหาออกทันทีที่เราทราบ และระงับบัญชีที่ละเมิดและรายงานไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติ (NCMEC)นี่เป็นมาตรการเพิ่มเติมนอกเหนือไปจากการใช้ประโยชน์และการใช้เทคโนโลยีที่ออกแบบมาเพื่อป้องกันการเผยแพร่ CSEAI ในวงกว้าง ซึ่งรวมถึง PhotoDNA (เพื่อตรวจจับสำเนาภาพที่ทราบอยู่แล้วว่าผิดกฎหมาย) และ CSAI Match ของ Google (เพื่อตรวจจับสำเนาวิดีโอที่ทราบอยู่แล้วว่าผิดกฎหมาย)นอกจากนี้ เรายังได้เริ่มใช้ Content Safety API ของ Google เมื่อไม่นานนี้ (เพื่อช่วยในการตรวจจับภาพใหม่ที่ "ไม่เคยแฮชมาก่อน" บนเนื้อหาสาธารณะ)เรายังได้ร่วมมือกับ NCMEC เพื่อหาแนวทางในการใช้ประโยชน์จากลายเซ็นดิจิทัลที่ไม่ซ้ำกัน (หรือ “แฮช”) ของการรายงาน 4,700 ครั้งที่ได้รับในปีที่แล้วซึ่งเกี่ยวข้องกับเนื้อหาล่วงละเมิดทางเพศเด็กซึ่งเกี่ยวข้องกับ GenAI

เราทำงานร่วมกับหน่วยบังคับใช้กฎหมายเพื่อสนับสนุนการสืบสวน และลงทุนจำนวนมากในทีมงานด้านความน่าเชื่อถือและความปลอดภัยและการบังคับใช้กฎหมายทั่วโลกของเราที่ทำงานตลอด 24 ชั่วโมงทุกวันเพื่อช่วยให้ชุมชนของเรามีความปลอดภัยเราเป็นเจ้าภาพการจัดการประชุมสุดยอดประจำปีสำหรับหน่วยงานบังคับใช้กฎหมายในสหรัฐ โดยมีจุดประสงค์เพื่อให้แน่ใจว่าเจ้าหน้าที่และหน่วยงานต่างๆ ทราบถึงวิธีดำเนินการที่เหมาะสมต่อกิจกรรมที่ผิดกฎหมายใดๆ ก็ตามที่อาจจะเกิดขึ้นได้บนแพลตฟอร์มของเรา

เรายังคงเพิ่มเครื่องมือการรายงานในแอปของเราอย่างต่อเนื่อง ซึ่งรวมถึงตัวเลือกให้กับชุมชนของเราในการระบุภาพเปลือยและเนื้อหาทางเพศ และโดยเฉพาะอย่างยิ่ง CSEAIการรายงานเนื้อหาและบัญชีที่เป็นปัญหาเป็นสิ่งที่สำคัญมากที่จะช่วยให้บริษัทเทคโนโลยีลบผู้ไม่ประสงค์ดีออกจากบริการของตน และขัดขวางกิจกรรมใดๆ ที่อาจเกิดเพิ่มเติมก่อนที่จะเป็นอันตรายต่อผู้อื่น

เมื่อไม่นานนี้ เราได้เพิ่มฟีเจอร์ใหม่ให้กับชุดเครื่องมือของศูนย์ครอบครัวซึ่งผู้ปกครองสามารถใช้เพื่อทำความเข้าใจเกี่ยวกับวิธีที่ลูกวัยรุ่นของตนใช้ Snapchat ได้ดียิ่งขึ้น รวมไปถึงแชทบอท AI ของเราด้วยนอกจากนี้ เรายังได้เปิดตัวทรัพยากรใหม่เพื่อช่วยให้บุคลากรทางการศึกษาและผู้บริหารโรงเรียนเข้าใจว่านักเรียนใช้ Snapchat อย่างไร และทรัพยากรที่เราเสนอให้เพื่อช่วยเหลือโรงเรียนในการสร้างสภาพแวดล้อมที่ปลอดภัยและเอื้ออำนวยให้แก่นักเรียน

และเรายังคงลงทุนอย่างต่อเนื่องเพื่อเพิ่มการรับรู้ของสาธารณชนและ Snapchatter เกี่ยวกับอันตรายทางเพศในโลกออนไลน์“Safety Snapshot” ตอนต่างๆ ในแอปของเรามุ่งเน้นไปที่ความเสี่ยงทางเพศ รวมถึงหัวข้อต่างๆ เช่น การล่อลวงและการค้าเด็กในโลกออนไลน์นอกจากนี้ เรายังเป็นหน่วยงานแรกที่สนับสนุน Know2Protect ซึ่งเป็นแคมเปญของกระทรวงความมั่นคงแห่งมาตุภูมิของสหรัฐฯ ที่มุ่งเน้นการให้ความรู้และส่งเสริมศักยภาพให้กับเยาวชน ผู้ปกครอง ผู้ใหญ่ที่ไว้ใจได้ และผู้กำหนดนโยบาย เกี่ยวกับการล่วงละเมิดทางเพศเด็กทางออนไลน์

เราตั้งตารอที่จะได้ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียทุกภาคส่วนต่อไป ไม่ว่าจะเป็นผู้ปกครอง เยาวชน บุคลากรทางการศึกษา และผู้กำหนดนโยบาย เป็นต้น ในประเด็นต่างๆ ของสังคมโดยรวมเหล่านี้ และหวังว่าข้อมูลเชิงลึกจากการวิจัยระหว่างแพลตฟอร์มต่างๆ ของเราจะช่วยสร้างแนวคิดและโอกาสใหม่ๆ เพื่อให้มั่นใจว่าผู้คนตระหนักถึงภัยคุกคามออนไลน์ที่มีอยู่และที่จะเกิดขึ้นใหม่ และทรัพยากรที่มีอยู่เพื่อช่วยรับมือกับความเสี่ยงเหล่านี้

- Viraj Doshi หัวหน้าฝ่ายความปลอดภัยของแพลตฟอร์ม

กลับไปสู่ข่าว

1

ประเทศที่รวมอยู่ในการศึกษานี้ได้แก่: ออสเตรเลีย ฝรั่งเศส เยอรมนี อินเดีย สหราชอาณาจักร และสหรัฐอเมริกา

1

ประเทศที่รวมอยู่ในการศึกษานี้ได้แก่: ออสเตรเลีย ฝรั่งเศส เยอรมนี อินเดีย สหราชอาณาจักร และสหรัฐอเมริกา