Privacy, Safety, and Policy Hub
รายงานความโปร่งใส
1 กรกฎาคม 2023 - 31 ธันวาคม 2023

เผยแพร่เมื่อ:

25 เมษายน 2024

อัปเดต:

25 เมษายน 2024

เพื่อให้ข้อมูลเชิงลึกเกี่ยวกับความพยายามในการรักษาความปลอดภัยของ Snap และลักษณะตามปกติและปริมาณของเนื้อหาที่ได้รับการรายงานบนแพลตฟอร์มของเรา เราจึงเผยแพร่รายงานความโปร่งใสสองครั้งต่อปีเรามุ่งมั่นที่จะทำให้รายงานเหล่านี้มีความครอบคลุมและให้ความรู้มากขึ้นเกี่ยวกับความปลอดภัยและความเป็นอยู่ที่ดีของชุมชนของเรา และผู้มีส่วนได้ส่วนเสียจำนวนมากที่ใส่ใจอย่างลึกซึ้งเกี่ยวกับการคัดกรองเนื้อหาและการบังคับใช้กฎหมายของเรา

รายงานนี้ครอบคลุมช่วงครึ่งหลังของปี 2023 (1 กรกฎาคม - 31 ธันวาคม) เช่นเดียวกับรายงานฉบับก่อนหน้าของเรา เราแบ่งปันข้อมูลเกี่ยวกับจำนวนเนื้อหาในแอปและรายงานระดับบัญชีทั่วโลกที่เราได้รับและบังคับใช้กับการละเมิดนโยบายบางหมวดหมู่ ซึ่งเป็นวิธีที่เราตอบสนองต่อคำขอจากหน่วยงานบังคับใช้กฎหมายและรัฐบาลและการดำเนินการบังคับใช้ของเราแยกตามประเทศ
เรากำลังนำเสนอคุณสมบัติใหม่ ๆ บางประการในการเผยแพร่ครั้งนี้

โดยเป็นส่วนหนึ่งของความมุ่งมั่นอย่างต่อเนื่องของเราที่จะปรับปรุงรายงานเพื่อความโปร่งใสของเราอย่างต่อเนื่อง

ประการแรก เราได้ขยายตารางหลักของเราให้รวมรายงานและการบังคับใช้เนื้อหาและบัญชีที่เกี่ยวข้องกับการก่อการร้ายและแนวคิดสุดโต่งที่ใช้ความรุนแรง และการแสวงหาผลประโยชน์ทางเพศจากเด็ก (CSEA)ในรายงานก่อนหน้านี้ เราได้เน้นการลบบัญชีที่เกิดขึ้นเพื่อตอบสนองต่อการละเมิดเหล่านั้นในส่วนแยกเราจะยังดำเนินการร่างโครงร่างความพยายามเชิงรุกและเชิงโต้ตอบต่อ CSEA ตลอดจนรายงานของเราต่อ NCMEC ในส่วนแยกต่อไป

ประการที่สอง เราได้ให้ข้อมูลเพิ่มเติมเกี่ยวกับการอุทธรณ์ โดยสรุปการอุทธรณ์และการคืนสถานะทั้งหมดตามการบังคับใช้คู่มือของชุมชน

ประการสุดท้าย เราได้ขยายส่วนสหภาพยุโรปของเรา โดยนำเสนอข้อมูลเชิงลึกที่เพิ่มขึ้นเกี่ยวกับกิจกรรมในสหภาพยุโรปของ Snapโดยเฉพาะอย่างยิ่ง เรากำลังเผยแพร่รายงานความโปร่งใสของ DSA ล่าสุดและตัวชี้วัดเพิ่มเติมเกี่ยวกับการสแกนสื่อ CSEA ของเราออกไป

สำหรับข้อมูลเพิ่มเติมเกี่ยวกับนโยบายของเราในการต่อสู้กับอันตรายทางออนไลน์และแผนการดำเนินการพัฒนาแนวทางการรายงานของเราต่อไป โปรดอ่านบล็อกความปลอดภัยและผลกระทบล่าสุดของเราเกี่ยวกับรายงานความโปร่งใสนี้หากต้องการค้นหาแหล่งข้อมูลเพิ่มเติมด้านความปลอดภัยและความเป็นส่วนตัวใน Snapchat โปรดดูแท็บ เกี่ยวกับการรายงานความโปร่งใส ของเราที่ด้านล่างของหน้านี้

โปรดทราบว่าคุณสามารถดูรายงานความโปร่งใสฉบับที่อัปเดตล่าสุดได้ในภาษาอังกฤษแบบอเมริกัน (en-US)

ภาพรวมเกี่ยวกับการละเมิดของเนื้อหาและบัญชี

ตั้งแต่วันที่ 1 กรกฎาคม - 31 ธันวาคม 2023 Snap บังคับใช้กับเนื้อหา 5,376,714 ชิ้นทั่วโลกที่ถูกรายงานถึงเราและละเมิดหลักเกณฑ์ของชุมชนของเรา

ในช่วงระยะเวลาการรายงานดังกล่าวนั้น เราเห็นอัตราการดูเนื้อหาที่ละเมิด (VVR) ที่ 0.01 เปอร์เซ็นต์ ซึ่งหมายความว่า จากทุก ๆ 10,000 ครั้งของการดู Snap และเรื่องราวบน Snapchat มีเนื้อหา 4 รายการที่ละเมิดนโยบายของเราเวลาตอบสนองเฉลี่ยในการบังคับใช้เนื้อหาที่รายงานคือ ~10 นาที

ภาพรวมเกี่ยวกับการละเมิดของเนื้อหาและบัญชี

ตั้งแต่วันที่ 1 กรกฎาคม - 31 ธันวาคม 2023 Snap บังคับใช้กับเนื้อหา 5,376,714 ชิ้นทั่วโลกที่ถูกรายงานถึงเราและละเมิดหลักเกณฑ์ของชุมชนของเรา

ในช่วงระยะเวลาการรายงานดังกล่าวนั้น เราเห็นอัตราการดูเนื้อหาที่ละเมิด (VVR) ที่ 0.01 เปอร์เซ็นต์ ซึ่งหมายความว่า จากทุก ๆ 10,000 ครั้งของการดู Snap และเรื่องราวบน Snapchat มีเนื้อหา 4 รายการที่ละเมิดนโยบายของเราเวลาตอบสนองเฉลี่ยในการบังคับใช้เนื้อหาที่รายงานคือ ~10 นาที

ภาพรวมเกี่ยวกับการละเมิดของเนื้อหาและบัญชี

ตั้งแต่วันที่ 1 กรกฎาคม - 31 ธันวาคม 2023 Snap บังคับใช้กับเนื้อหา 5,376,714 ชิ้นทั่วโลกที่ถูกรายงานถึงเราและละเมิดหลักเกณฑ์ของชุมชนของเรา

ในช่วงระยะเวลาการรายงานดังกล่าวนั้น เราเห็นอัตราการดูเนื้อหาที่ละเมิด (VVR) ที่ 0.01 เปอร์เซ็นต์ ซึ่งหมายความว่า จากทุก ๆ 10,000 ครั้งของการดู Snap และเรื่องราวบน Snapchat มีเนื้อหา 4 รายการที่ละเมิดนโยบายของเราเวลาตอบสนองเฉลี่ยในการบังคับใช้เนื้อหาที่รายงานคือ ~10 นาที

ภาพรวมเกี่ยวกับการละเมิดของเนื้อหาและบัญชี

ตั้งแต่วันที่ 1 กรกฎาคม - 31 ธันวาคม 2023 Snap บังคับใช้กับเนื้อหา 5,376,714 ชิ้นทั่วโลกที่ถูกรายงานถึงเราและละเมิดหลักเกณฑ์ของชุมชนของเรา

ในช่วงระยะเวลาการรายงานดังกล่าวนั้น เราเห็นอัตราการดูเนื้อหาที่ละเมิด (VVR) ที่ 0.01 เปอร์เซ็นต์ ซึ่งหมายความว่า จากทุก ๆ 10,000 ครั้งของการดู Snap และเรื่องราวบน Snapchat มีเนื้อหา 4 รายการที่ละเมิดนโยบายของเราเวลาตอบสนองเฉลี่ยในการบังคับใช้เนื้อหาที่รายงานคือ ~10 นาที

การวิเคราะห์การละเมิดของเนื้อหาและบัญชี

อัตราการรายงานและการบังคับใช้โดยรวมของเรายังคงค่อนข้างใกล้เคียงกับช่วงหกเดือนที่ผ่านมารอบนี้ เราเห็นเนื้อหาและรายงานบัญชีทั้งหมดเพิ่มขึ้นประมาณ 10%

ความขัดแย้งระหว่างอิสราเอลและฮามาสเริ่มขึ้นในช่วงเวลานี้ และด้วยเหตุนี้ เราจึงพบว่ามีเนื้อหาที่มีการละเมิดเพิ่มขึ้นรายงานทั้งหมดที่เกี่ยวข้องกับคำพูดแสดงความเกลียดชังเพิ่มขึ้น ~61% ในขณะที่การบังคับใช้เนื้อหาทั้งหมดสำหรับคำพูดแสดงความเกลียดชังเพิ่มขึ้น ~97% และการบังคับใช้บัญชีที่ไม่ซ้ำกันเพิ่มขึ้น ~124%รายงานและการบังคับใช้เกี่ยวกับการก่อการร้ายและความรุนแรงแบบสุดโต่งก็เพิ่มขึ้นเช่นกัน แม้ว่าจะประกอบด้วยการบังคับใช้เนื้อหาทั้งหมดบนแพลตฟอร์มของเราน้อยกว่า 0.1% ก็ตามทีมความน่าเชื่อถือและความปลอดภัยของเรายังคงเฝ้าระวังอย่างต่อเนื่องเมื่อมีความขัดแย้งระดับโลกเกิดขึ้นเพื่อช่วยรักษา Snapchat ให้ปลอดภัยนอกจากนี้เรายังได้ขยายรายงานความโปร่งใสของเราให้รวมข้อมูลมากขึ้นในระดับโลกและระดับประเทศเกี่ยวกับรายงานทั้งหมด เนื้อหาที่บังคับใช้ และบัญชีเฉพาะที่บังคับใช้สำหรับการละเมิดนโยบายการก่อการร้ายและแนวคิดสุดโต่งที่ใช้ความรุนแรงของเรา

ภาพรวมเกี่ยวกับการละเมิดของเนื้อหาและบัญชี

ตั้งแต่วันที่ 1 กรกฎาคม - 31 ธันวาคม 2023 Snap บังคับใช้กับเนื้อหา 5,376,714 ชิ้นทั่วโลกที่ถูกรายงานถึงเราและละเมิดหลักเกณฑ์ของชุมชนของเรา

ในช่วงระยะเวลาการรายงานดังกล่าวนั้น เราเห็นอัตราการดูเนื้อหาที่ละเมิด (VVR) ที่ 0.01 เปอร์เซ็นต์ ซึ่งหมายความว่า จากทุก ๆ 10,000 ครั้งของการดู Snap และเรื่องราวบน Snapchat มีเนื้อหา 4 รายการที่ละเมิดนโยบายของเราเวลาตอบสนองเฉลี่ยในการบังคับใช้เนื้อหาที่รายงานคือ ~10 นาที

การต่อต้านการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก

การแสวงหาประโยชน์ทางเพศจากสมาชิกรายใดก็ตามของชุมชนของเราโดยเฉพาะผู้เยาว์นั้น ถือว่าเป็นสิ่งที่ผิดกฎหมาย น่ารังเกียจ และต้องห้ามตามคู่มือของชุมชนของเรา การป้องกัน การตรวจจับ และการลบภาพที่แสดงถึงการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) บนแพลตฟอร์มของเรานั้นคือความรับผิดชอบที่สำคัญที่สุดของ Snap และเราจะยังคงพัฒนาขีดความสามารถของเราอย่างต่อเนื่องในการต่อสู้กับการก่ออาชญากรรมประเภทนี้และอื่น ๆ

เราจะใช้เครื่องมือตรวจจับที่เป็นเทคโนโลยีเชิงรุก เช่น การจับคู่แฮชที่มีประสิทธิภาพของ PhotoDNA และการจับคู่ภาพการล่วงละเมิดทางเพศในเด็ก (CSAI) ของ Google เพื่อระบุภาพและวิดีโอที่ผิดกฎหมายเกี่ยวกับ CSAM และรายงานไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) ตามที่กฎหมายกำหนดจากนั้น NCMEC จะประสานงานกับหน่วยงานบังคับใช้กฎหมายในประเทศหรือระหว่างประเทศตามที่กำหนด

ในช่วงครึ่งหลังของปี 2023 เราได้ตรวจพบและดำเนินการเชิงรุกถึง 59% ของการแสวงหาประโยชน์ทางเพศจากเด็กและการละเมิดทั้งหมดที่มีการรายงานซึ่งสะท้อนถึงการลดลงทั้งหมด 39% จากช่วงเวลาก่อนหน้าเนื่องจากการปรับปรุงตัวเลือกของชาว Snapchatters สำหรับการรายงาน ทำให้เราสามารถมองเห็น CSEA ที่อาจเกิดขึ้นที่ส่งไปยัง Snapchat ได้มากขึ้น

*หมายเหตุ การส่งรายงานแต่ละครั้งไปยัง NCMEC อาจมีเนื้อหามากกว่าหนึ่งชิ้น จำนวนสื่อแต่ละชิ้นที่ถูกส่งรายงานไปยัง NCMEC นั้นเท่ากันกับจำนวนเนื้อหาทั้งหมดที่บังคับใช้ของเรานอกจากนี้ เรายังไม่รวมการส่งคำร้องที่ถูกเพิกถอนไปยัง NCMEC จากจำนวนนี้ด้วย

เนื้อหาการทำร้ายตัวเองและการฆ่าตัวตาย

เราใส่ใจอย่างลึกซึ้งเกี่ยวกับสุขภาพจิตและความเป็นอยู่ที่ดีของชาว Snapchatter ซึ่งมีผลอย่างต่อเนื่องต่อการตัดสินใจของเราในการที่จะสร้าง Snapchat ให้แตกต่างออกไปในฐานะแพลตฟอร์มที่ออกแบบมาเพื่อการสื่อสารระหว่างเพื่อนที่แท้จริง เราเชื่อว่า Snapchat นั้นมีบทบาทที่เป็นเอกลักษณ์ต่อความสัมพันธ์ระหว่างเพื่อนให้ช่วยเหลือซึ่งกันและกันในช่วงเวลาที่ยากลำบาก

เมื่อทีมความน่าเชื่อถือและความปลอดภัยของเราตระหนักว่ามีชาว Snapchatter รายหนึ่งตกอยู่ในความทุกข์ พวกเขาสามารถส่งต่อแหล่งข้อมูลเกี่ยวกับการป้องกันการทำร้ายตัวเองและการดูแลสนับสนุน และแจ้งเจ้าหน้าที่ตอบสนองเหตุฉุกเฉินเมื่อเหมาะสมได้แหล่งข้อมูลที่เราแบ่งปันมีอยู่ในรายการแหล่งข้อมูลด้านความปลอดภัยทั่วโลก และแหล่งข้อมูลเหล่านี้เปิดเผยต่อสาธารณะแก่ Snapchatter ทุกคน

การอุทธรณ์

ในรายงานก่อนหน้านี้ เราได้แนะนำตัวชี้วัดเกี่ยวกับการอุทธรณ์ โดยเราได้เน้นย้ำจำนวนครั้งที่ผู้ใช้ขอให้เราตรวจสอบการตัดสินใจเบื้องต้นในการกลั่นกรองบัญชีของพวกเขาอีกครั้งในรายงานนี้ เราได้ขยายการอุทธรณ์ของเราให้ครอบคลุมหมวดหมู่นโยบายของเราทั้งหมดสำหรับการละเมิดระดับบัญชี

* การหยุดการแพร่กระจายของเนื้อหาหรือกิจกรรมที่เกี่ยวข้องกับการแสวงหาประโยชน์ทางเพศจากเด็กถือเป็นสิ่งสำคัญสูงสุดSnap ทุ่มเททรัพยากรจำนวนมากเพื่อเป้าหมายนี้ และไม่ยอมทนต่อการกระทำดังกล่าวโดยเด็ดขาด  ทั้งนี้ จำเป็นต้องมีการฝึกอบรมพิเศษเพื่อตรวจสอบการอุทธรณ์เกี่ยวกับการแสวงหาประโยชน์ทางเพศจากเด็ก และมีคณะเจ้าหน้าที่จำนวนจำกัดที่ทำหน้าที่ตรวจสอบ เนื่องจากลักษณะของเนื้อหาที่ไม่เหมาะสมในฤดูใบไม้ร่วงปี 2023 Snap ได้ทำการเปลี่ยนแปลงนโยบายที่ส่งผลกระทบต่อความสอดคล้องในการบังคับใช้เกี่ยวกับการแสวงหาประโยชน์ทางเพศจากเด็ก และเราได้แก้ไขความไม่สอดคล้องเหล่านี้ผ่านการฝึกอบรมซ้ำให้แก่ตัวแทน รวมถึงการประกันคุณภาพ เราคาดหวังว่ารายงานความโปร่งใสฉบับต่อไปของ Snap จะเปิดเผยให้เห็นถึงความคืบหน้าในการปรับปรุงเวลาในการตอบสนองของการอุทธรณ์เกี่ยวกับการแสวงหาประโยชน์ทางเพศจากเด็ก และการปรับปรุงความแม่นยำในการดำเนินการบังคับใช้ขั้นต้น 

ภาพรวมระดับภูมิภาคและประเทศ

เนื้อหาส่วนนี้จะแสดงภาพรวมของการบังคับใช้คู่มือของชุมชนของเราในพื้นที่ทางภูมิศาสตร์แบบสุ่มตัวอย่าง หลักเกณฑ์ของเรามีผลบังคับใช้กับเนื้อหาทั้งหมดใน Snapchat และกับ Snapchatter ทุกรายทั่วโลกโดยไม่คำนึงถึงตำแหน่งที่ตั้ง

ข้อมูลสำหรับแต่ละประเทศ รวมถึงประเทศสมาชิกสหภาพยุโรปทั้งหมด พร้อมให้ดาวน์โหลดผ่านไฟล์ CSV ที่แนบมา

การต่อต้านการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก

การแสวงหาประโยชน์ทางเพศจากสมาชิกรายใดก็ตามของชุมชนของเราโดยเฉพาะผู้เยาว์นั้น ถือว่าเป็นสิ่งที่ผิดกฎหมาย น่ารังเกียจ และต้องห้ามตามคู่มือของชุมชนของเรา การป้องกัน การตรวจจับ และการลบภาพที่แสดงถึงการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) บนแพลตฟอร์มของเรานั้นคือความรับผิดชอบที่สำคัญที่สุดของ Snap และเราจะยังคงพัฒนาขีดความสามารถของเราอย่างต่อเนื่องในการต่อสู้กับการก่ออาชญากรรมประเภทนี้และอื่น ๆ

เราจะใช้เครื่องมือตรวจจับที่เป็นเทคโนโลยีเชิงรุก เช่น การจับคู่แฮชที่มีประสิทธิภาพของ PhotoDNA และการจับคู่ภาพการล่วงละเมิดทางเพศในเด็ก (CSAI) ของ Google เพื่อระบุภาพและวิดีโอที่ผิดกฎหมายเกี่ยวกับ CSAM และรายงานไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) ตามที่กฎหมายกำหนดจากนั้น NCMEC จะประสานงานกับหน่วยงานบังคับใช้กฎหมายในประเทศหรือระหว่างประเทศตามที่กำหนด

ในช่วงครึ่งหลังของปี 2023 เราได้ตรวจพบและดำเนินการเชิงรุกถึง 59% ของการแสวงหาประโยชน์ทางเพศจากเด็กและการละเมิดทั้งหมดที่มีการรายงานซึ่งสะท้อนถึงการลดลงทั้งหมด 39% จากช่วงเวลาก่อนหน้าเนื่องจากการปรับปรุงตัวเลือกของชาว Snapchatters สำหรับการรายงาน ทำให้เราสามารถมองเห็น CSEA ที่อาจเกิดขึ้นที่ส่งไปยัง Snapchat ได้มากขึ้น

การต่อต้านการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก

การแสวงหาประโยชน์ทางเพศจากสมาชิกรายใดก็ตามของชุมชนของเราโดยเฉพาะผู้เยาว์นั้น ถือว่าเป็นสิ่งที่ผิดกฎหมาย น่ารังเกียจ และต้องห้ามตามคู่มือของชุมชนของเรา การป้องกัน การตรวจจับ และการลบภาพที่แสดงถึงการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) บนแพลตฟอร์มของเรานั้นคือความรับผิดชอบที่สำคัญที่สุดของ Snap และเราจะยังคงพัฒนาขีดความสามารถของเราอย่างต่อเนื่องในการต่อสู้กับการก่ออาชญากรรมประเภทนี้และอื่น ๆ

เราจะใช้เครื่องมือตรวจจับที่เป็นเทคโนโลยีเชิงรุก เช่น การจับคู่แฮชที่มีประสิทธิภาพของ PhotoDNA และการจับคู่ภาพการล่วงละเมิดทางเพศในเด็ก (CSAI) ของ Google เพื่อระบุภาพและวิดีโอที่ผิดกฎหมายเกี่ยวกับ CSAM และรายงานไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) ตามที่กฎหมายกำหนดจากนั้น NCMEC จะประสานงานกับหน่วยงานบังคับใช้กฎหมายในประเทศหรือระหว่างประเทศตามที่กำหนด

ในช่วงครึ่งหลังของปี 2023 เราได้ตรวจพบและดำเนินการเชิงรุกถึง 59% ของการแสวงหาประโยชน์ทางเพศจากเด็กและการละเมิดทั้งหมดที่มีการรายงานซึ่งสะท้อนถึงการลดลงทั้งหมด 39% จากช่วงเวลาก่อนหน้าเนื่องจากการปรับปรุงตัวเลือกของชาว Snapchatters สำหรับการรายงาน ทำให้เราสามารถมองเห็น CSEA ที่อาจเกิดขึ้นที่ส่งไปยัง Snapchat ได้มากขึ้น

การต่อต้านการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก

การแสวงหาประโยชน์ทางเพศจากสมาชิกรายใดก็ตามของชุมชนของเราโดยเฉพาะผู้เยาว์นั้น ถือว่าเป็นสิ่งที่ผิดกฎหมาย น่ารังเกียจ และต้องห้ามตามคู่มือของชุมชนของเรา การป้องกัน การตรวจจับ และการลบภาพที่แสดงถึงการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) บนแพลตฟอร์มของเรานั้นคือความรับผิดชอบที่สำคัญที่สุดของ Snap และเราจะยังคงพัฒนาขีดความสามารถของเราอย่างต่อเนื่องในการต่อสู้กับการก่ออาชญากรรมประเภทนี้และอื่น ๆ

เราจะใช้เครื่องมือตรวจจับที่เป็นเทคโนโลยีเชิงรุก เช่น การจับคู่แฮชที่มีประสิทธิภาพของ PhotoDNA และการจับคู่ภาพการล่วงละเมิดทางเพศในเด็ก (CSAI) ของ Google เพื่อระบุภาพและวิดีโอที่ผิดกฎหมายเกี่ยวกับ CSAM และรายงานไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) ตามที่กฎหมายกำหนดจากนั้น NCMEC จะประสานงานกับหน่วยงานบังคับใช้กฎหมายในประเทศหรือระหว่างประเทศตามที่กำหนด

ในช่วงครึ่งหลังของปี 2023 เราได้ตรวจพบและดำเนินการเชิงรุกถึง 59% ของการแสวงหาประโยชน์ทางเพศจากเด็กและการละเมิดทั้งหมดที่มีการรายงานซึ่งสะท้อนถึงการลดลงทั้งหมด 39% จากช่วงเวลาก่อนหน้าเนื่องจากการปรับปรุงตัวเลือกของชาว Snapchatters สำหรับการรายงาน ทำให้เราสามารถมองเห็น CSEA ที่อาจเกิดขึ้นที่ส่งไปยัง Snapchat ได้มากขึ้น

การคัดกรองโฆษณา

Snap มุ่งมั่นที่จะสร้างความมั่นใจว่าโฆษณาทั้งหมดสอดคล้องกับนโยบายการโฆษณาของเราโดยสมบูรณ์เราเชื่อมั่นในแนวทางที่มีความรับผิดชอบและให้ความเคารพในการโฆษณา ซึ่งจะเป็นการสร้างประสบการณ์ที่ปลอดภัยและสนุกสนานสำหรับผู้ใช้ของเราทุกคนเราได้รวมข้อมูลเชิงลึกเกี่ยวกับการคัดกรองโฆษณาที่ชำระเงินบน Snapchat ไว้ที่ด้านล่างนี้โปรดทราบว่าอาจมีการลบโฆษณาบน Snapchat ด้วยเหตุผลหลายประการตามที่ระบุในนโยบายการโฆษณาของ Snap ซึ่งรวมถึงเนื้อหาที่หลอกลวง เนื้อหาสำหรับผู้ใหญ่ เนื้อหาที่มีความรุนแรงหรือรบกวนจิตใจ คำพูดแสดงความเกลียดชัง และการละเมิดทรัพย์สินทางปัญญานอกจากนี้ คุณยังสามารถค้นหาแกลเลอรีโฆษณาของ Snapchat ได้ในแถบนำทางของรายงานความโปร่งใสนี้