Laporan Ketelusan
1 Julai 2023 – 31 Disember 2023

Dikeluarkan:

25 April 2024

Dikemas kini:

25 April 2024

Untuk memberikan pandangan lebih lanjut tentang usaha keselamatan Snap dan sifat serta jumlah kandungan yang dilaporkan pada platform kami, kami menerbitkan laporan ketelusan ini dua kali setahun. Kami komited menjadikan laporan ini lebih komprehensif dan bermaklumat untuk keselamatan dan kesejahteraan komuniti kami dan banyak pihak berkepentingan yang sangat mengambil berat tentang penyederhanaan kandungan dan amalan penguatkuasaan undang-undang kami.

Laporan Ketelusan ini meliputi separuh kedua 2023 (1 Julai - 31 Disember). Seperti laporan kami terdahulu, kami berkongsi data tentang bilangan global kandungan dalam aplikasi dan laporan peringkat akaun yang kami terima dan dikuatkuasakan terhadap kategori pelanggaran dasar tertentu; cara kami bertindak balas terhadap permintaan daripada penguatkuasa undang-undang dan kerajaan; dan tindakan penguatkuasaan kami dipecahkan

mengikut negara. Sebagai sebahagian daripada komitmen berterusan untuk terus meningkatkan laporan ketelusan kami, kami memperkenalkan beberapa elemen baharu dengan keluaran ini.

Pertama, kami telah mengembangkan jadual utama kami untuk memasukkan laporan dan penguatkuasaan terhadap kandungan dan akaun yang dikaitkan dengan Keganasan & Ekstremisme Keganasan dan Eksploitasi & Penderaan Seksual Kanak-kanak (CSEA). Dalam laporan sebelumnya, kami menyerlahkan pemadaman akaun yang dibuat sebagai tindak balas kepada pelanggaran tersebut dalam bahagian yang berasingan. Kami akan terus menggariskan usaha proaktif dan reaktif kami terhadap CSEA, serta laporan kami kepada NCMEC, dalam bahagian yang berasingan.

Kedua, kami telah menyediakan maklumat lanjutan tentang rayuan, menggariskan jumlah rayuan dan pengembalian semula oleh penguatkuasaan Garis Panduan Komuniti.

Akhir sekali, kami telah mengembangkan bahagian Kesatuan Eropah kami, memberikan peningkatan pandangan tentang aktiviti EU Snap. Khususnya, kami menerbitkan Laporan Ketelusan DSA kami yang terbaharu dan metrik tambahan mengenai pengimbasan media CSEA kami.

Untuk mendapatkan maklumat lanjut tentang dasar kami untuk mengatasi bahaya dalam talian dan rancangan untuk teruskan mengembangkan amalan pelaporan kami, sila baca blog Keselamatan & Kesan kami baru-baru ini tentang Laporan Ketelusan ini. Untuk mendapatkan sumber tambahan bagi keselamatan dan sumber privasi di Snapchat, lihatlah tab Mengenai Laporan Ketelusan kami
pada bahagian bawah halaman tersebut.

Sila ambil perhatian bahawa versi terkini Laporan Ketelusan ini boleh didapati di tempat en-AS.

Gambaran keseluruhan Kandungan dan Pelanggaran Akaun

Dari 1 Julai - 31 Disember 2023, Snap telah menguatkuasakan 5,376,714 kandungan di seluruh dunia yang dilaporkan kepada kami dan melanggar Garis Panduan Komuniti kami.

Sepanjang tempoh pelaporan, kami melihat Kadar Tontonan Melanggar (VVR) sebanyak 0.01 peratus, yang bermakna daripada setiap 10,000 paparan Snap dan Cerita di Snapchat, 1 mengandungi kandungan yang melanggar dasar kami. Masa median untuk menguatkuasakan kandungan yang dilaporkan ialah ~10 minit.

Gambaran keseluruhan Kandungan dan Pelanggaran Akaun

Dari 1 Julai - 31 Disember 2023, Snap telah menguatkuasakan 5,376,714 kandungan di seluruh dunia yang dilaporkan kepada kami dan melanggar Garis Panduan Komuniti kami.

Sepanjang tempoh pelaporan, kami melihat Kadar Tontonan Melanggar (VVR) sebanyak 0.01 peratus, yang bermakna daripada setiap 10,000 paparan Snap dan Cerita di Snapchat, 1 mengandungi kandungan yang melanggar dasar kami. Masa median untuk menguatkuasakan kandungan yang dilaporkan ialah ~10 minit.

Gambaran keseluruhan Kandungan dan Pelanggaran Akaun

Dari 1 Julai - 31 Disember 2023, Snap telah menguatkuasakan 5,376,714 kandungan di seluruh dunia yang dilaporkan kepada kami dan melanggar Garis Panduan Komuniti kami.

Sepanjang tempoh pelaporan, kami melihat Kadar Tontonan Melanggar (VVR) sebanyak 0.01 peratus, yang bermakna daripada setiap 10,000 paparan Snap dan Cerita di Snapchat, 1 mengandungi kandungan yang melanggar dasar kami. Masa median untuk menguatkuasakan kandungan yang dilaporkan ialah ~10 minit.

Gambaran keseluruhan Kandungan dan Pelanggaran Akaun

Dari 1 Julai - 31 Disember 2023, Snap telah menguatkuasakan 5,376,714 kandungan di seluruh dunia yang dilaporkan kepada kami dan melanggar Garis Panduan Komuniti kami.

Sepanjang tempoh pelaporan, kami melihat Kadar Tontonan Melanggar (VVR) sebanyak 0.01 peratus, yang bermakna daripada setiap 10,000 paparan Snap dan Cerita di Snapchat, 1 mengandungi kandungan yang melanggar dasar kami. Masa median untuk menguatkuasakan kandungan yang dilaporkan ialah ~10 minit.

Analisis Kandungan dan Pelanggaran Akaun

Kadar pelaporan dan penguatkuasaan keseluruhan kami kekal hampir sama dengan enam bulan sebelumnya. Kitaran ini, kami menyaksikan peningkatan anggaran sebanyak 10% dalam jumlah laporan kandungan dan akaun.

Konflik Israel-Hamas bermula dalam tempoh ini dan akibatnya kami melihat peningkatan dalam pelanggaran kandungan. Jumlah laporan yang berkaitan dengan ucapan kebencian meningkat sebanyak ~61%, manakala jumlah penguatkuasaan kandungan ucapan kebencian meningkat sebanyak ~97% dan penguatkuasaan akaun unik meningkat sebanyak ~124%. Laporan dan penguatkuasaan keganasan & ekstremisme ganas juga telah meningkat, walaupun ia merangkumi <0.1% daripada jumlah penguatkuasaan kandungan pada platform kami. Pasukan Amanah & Keselamatan kami teruskan berwaspada apabila konflik global timbul untuk membantu memastikan Snapchat selamat. Kami juga telah mengembangkan laporan ketelusan kami untuk memasukkan lebih banyak maklumat di peringkat global dan negara mengenai jumlah laporan, kandungan yang dikuatkuasakan dan akaun unik yang dikuatkuasakan kerana pelanggaran dasar Keganasan & Ekstremisme Keganasan kami.

Gambaran keseluruhan Kandungan dan Pelanggaran Akaun

Dari 1 Julai - 31 Disember 2023, Snap telah menguatkuasakan 5,376,714 kandungan di seluruh dunia yang dilaporkan kepada kami dan melanggar Garis Panduan Komuniti kami.

Sepanjang tempoh pelaporan, kami melihat Kadar Tontonan Melanggar (VVR) sebanyak 0.01 peratus, yang bermakna daripada setiap 10,000 paparan Snap dan Cerita di Snapchat, 1 mengandungi kandungan yang melanggar dasar kami. Masa median untuk menguatkuasakan kandungan yang dilaporkan ialah ~10 minit.

Memerangi Eksploitasi dan Penderaan Seksual Kanak-Kanak

Eksploitasi seksual mana-mana ahli komuniti kami, terutamanya kanak-kanak bawah umur, adalah menyalahi undang-undang, menjijikkan dan dilarang oleh Garis Panduan Komuniti kami. Mencegah, mengesan dan membasmi Eksploitasi Seksual Kanak-kanak dan Imej Penderaan (CSEA) pada platform kami adalah keutamaan utama untuk Snap, dan kami terus mengembangkan keupayaan kami untuk memerangi perkara ini dan jenayah yang lain.

Kami menggunakan alat pengesanan teknologi aktif, seperti pemadanan cincang teguh PhotoDNA dan Padanan Imejan Penderaan Seksual Kanak-kanak (CSAI) Google untuk mengenal pasti imej dan video penderaan seksual kanak-kanak yang diketahui secara haram, masing-masing dan melaporkan kepada Pusat Kebangsaan untuk Hilang dan Dieksploitasi A.S. Kanak-kanak (NCMEC), seperti yang dikehendaki oleh undang-undang. NCMEC akan seterusnya, menyelaras dengan penguatkuasa undang-undang domestik atau antarabangsa, seperti yang diperlukan. 

Pada separuh kedua tahun 2023, kami secara proaktif mengesan dan bertindak 59% daripada jumlah pelanggaran eksploitasi dan penderaan seksual kanak-kanak yang dilaporkan. Ini mencerminkan jumlah penurunan sebanyak 39% daripada tempoh sebelumnya disebabkan oleh peningkatan dalam pilihan Snapchatter untuk pelaporan, meningkatkan keterlihatan kami potensi CSEA yang dihantar pada Snapchat.

*Perhatikan bahawa setiap penyerahan kepada NCMEC boleh mengandungi beberapa bahagian kandungan. Jumlah keseluruhan media individu yang diserahkan kepada NCMEC adalah sama dengan jumlah kandungan kami yang dikuatkuasakan. Kami juga telah mengecualikan penyerahan yang ditarik balik kepada NCMEC daripada nombor ini.

Kandungan Mencederakan Diri dan Membunuh Diri

Kami sangat mengambil berat tentang kesihatan mental dan kesejahteraan Snapchatter, yang terus memaklumkan keputusan kami untuk membina Snapchat secara berbeza. Sebagai platform yang direka untuk komunikasi antara rakan sebenar, kami percaya Snapchat boleh memainkan peranan unik dalam memperkasakan rakan untuk membantu antara satu sama lain dalam masa sukar.

Apabila pasukan Amanah & Keselamatan kami menyedari tentang Snapchatter dalam kesusahan, mereka boleh memajukan sumber pencegahan dan sokongan yang mencederakan diri sendiri, dan memaklumkan kakitangan tindak balas kecemasan apabila sesuai. Sumber yang kami kongsi tersedia dalam senarai sumber keselamatan global kami, dan tersedia secara terbuka kepada semua Snapchatter.

Rayuan

Dalam laporan sebelum ini, kami memperkenalkan metrik pada rayuan, di mana kami menyerlahkan bilangan pengguna meminta kami menyemak semula keputusan penyederhanaan awal kami terhadap akaun mereka. Dalam laporan ini, kami telah memperluaskan rayuan kami untuk rakaman rangkaian penuh kategori dasar kami untuk pelanggaran peringkat akaun.

* Menghentikan penyebaran kandungan atau aktiviti berkaitan eksploitasi seksual kanak-kanak adalah keutamaan. Snap menumpukan sumber signifikan ke arah matlamat ini dan tidak bertolak ansur untuk kelakuan sedemikian. Latihan khas diperlukan untuk menyemak rayuan CSE, dan terdapat sekumpulan ejen terhad yang mengendalikan ulasan ini kerana sifat grafik kandungan tersebut. Pada musim gugur 2023, Snap melaksanakan perubahan dasar yang menjejaskan konsistensi penguatkuasaan CSE tertentu; kami telah menangani ketidakkonsistenan ini melalui latihan semula ejen dan jaminan kualiti. Kami menjangkakan laporan ketelusan Snap yang seterusnya akan mendedahkan kemajuan ke arah meningkatkan masa tindak balas untuk rayuan CSE dan meningkatkan ketepatan tindakan penguatkuasaan awal.

Tinjauan Serantau & Negara

Bahagian ini memberi sebuah gambaran keseluruhan kepada penguatkuasaan Garis panduan Komuniti kami
dalam satu pesampelan kawasan geografi. Garis Panduan kami terpakai kepada semua kandungan di Snapchat—dan semua Snapchatter—di seluruh dunia, tanpa mengira lokasi. 

Maklumat untuk setiap negara, termasuk semua Negara Anggota EU, tersedia untuk dimuat turun melalui fail CSV yang dilampirkan.

Memerangi Eksploitasi dan Penderaan Seksual Kanak-Kanak

Eksploitasi seksual mana-mana ahli komuniti kami, terutamanya kanak-kanak bawah umur, adalah menyalahi undang-undang, menjijikkan dan dilarang oleh Garis Panduan Komuniti kami. Mencegah, mengesan dan membasmi Eksploitasi Seksual Kanak-kanak dan Imej Penderaan (CSEA) pada platform kami adalah keutamaan utama untuk Snap, dan kami terus mengembangkan keupayaan kami untuk memerangi perkara ini dan jenayah yang lain.

Kami menggunakan alat pengesanan teknologi aktif, seperti pemadanan cincang teguh PhotoDNA dan Padanan Imejan Penderaan Seksual Kanak-kanak (CSAI) Google untuk mengenal pasti imej dan video penderaan seksual kanak-kanak yang diketahui secara haram, masing-masing dan melaporkan kepada Pusat Kebangsaan untuk Hilang dan Dieksploitasi A.S. Kanak-kanak (NCMEC), seperti yang dikehendaki oleh undang-undang. NCMEC akan seterusnya, menyelaras dengan penguatkuasa undang-undang domestik atau antarabangsa, seperti yang diperlukan. 

Pada separuh kedua tahun 2023, kami secara proaktif mengesan dan bertindak 59% daripada jumlah pelanggaran eksploitasi dan penderaan seksual kanak-kanak yang dilaporkan. Ini mencerminkan jumlah penurunan sebanyak 39% daripada tempoh sebelumnya disebabkan oleh peningkatan dalam pilihan Snapchatter untuk pelaporan, meningkatkan keterlihatan kami potensi CSEA yang dihantar pada Snapchat.

Memerangi Eksploitasi dan Penderaan Seksual Kanak-Kanak

Eksploitasi seksual mana-mana ahli komuniti kami, terutamanya kanak-kanak bawah umur, adalah menyalahi undang-undang, menjijikkan dan dilarang oleh Garis Panduan Komuniti kami. Mencegah, mengesan dan membasmi Eksploitasi Seksual Kanak-kanak dan Imej Penderaan (CSEA) pada platform kami adalah keutamaan utama untuk Snap, dan kami terus mengembangkan keupayaan kami untuk memerangi perkara ini dan jenayah yang lain.

Kami menggunakan alat pengesanan teknologi aktif, seperti pemadanan cincang teguh PhotoDNA dan Padanan Imejan Penderaan Seksual Kanak-kanak (CSAI) Google untuk mengenal pasti imej dan video penderaan seksual kanak-kanak yang diketahui secara haram, masing-masing dan melaporkan kepada Pusat Kebangsaan untuk Hilang dan Dieksploitasi A.S. Kanak-kanak (NCMEC), seperti yang dikehendaki oleh undang-undang. NCMEC akan seterusnya, menyelaras dengan penguatkuasa undang-undang domestik atau antarabangsa, seperti yang diperlukan. 

Pada separuh kedua tahun 2023, kami secara proaktif mengesan dan bertindak 59% daripada jumlah pelanggaran eksploitasi dan penderaan seksual kanak-kanak yang dilaporkan. Ini mencerminkan jumlah penurunan sebanyak 39% daripada tempoh sebelumnya disebabkan oleh peningkatan dalam pilihan Snapchatter untuk pelaporan, meningkatkan keterlihatan kami potensi CSEA yang dihantar pada Snapchat.

Memerangi Eksploitasi dan Penderaan Seksual Kanak-Kanak

Eksploitasi seksual mana-mana ahli komuniti kami, terutamanya kanak-kanak bawah umur, adalah menyalahi undang-undang, menjijikkan dan dilarang oleh Garis Panduan Komuniti kami. Mencegah, mengesan dan membasmi Eksploitasi Seksual Kanak-kanak dan Imej Penderaan (CSEA) pada platform kami adalah keutamaan utama untuk Snap, dan kami terus mengembangkan keupayaan kami untuk memerangi perkara ini dan jenayah yang lain.

Kami menggunakan alat pengesanan teknologi aktif, seperti pemadanan cincang teguh PhotoDNA dan Padanan Imejan Penderaan Seksual Kanak-kanak (CSAI) Google untuk mengenal pasti imej dan video penderaan seksual kanak-kanak yang diketahui secara haram, masing-masing dan melaporkan kepada Pusat Kebangsaan untuk Hilang dan Dieksploitasi A.S. Kanak-kanak (NCMEC), seperti yang dikehendaki oleh undang-undang. NCMEC akan seterusnya, menyelaras dengan penguatkuasa undang-undang domestik atau antarabangsa, seperti yang diperlukan. 

Pada separuh kedua tahun 2023, kami secara proaktif mengesan dan bertindak 59% daripada jumlah pelanggaran eksploitasi dan penderaan seksual kanak-kanak yang dilaporkan. Ini mencerminkan jumlah penurunan sebanyak 39% daripada tempoh sebelumnya disebabkan oleh peningkatan dalam pilihan Snapchatter untuk pelaporan, meningkatkan keterlihatan kami potensi CSEA yang dihantar pada Snapchat.

Kesederhanaan Iklan

Snap komited untuk memastikan semua iklan mematuhi polisi pengiklanan kami sepenuhnya. Kami percaya pada pendekatan yang bertanggungjawab dan menghormati pengiklanan, mewujudkan pengalaman yang selamat dan menyeronokkan untuk semua pengguna kami. Di bawah ini kami telah menyertakan pandangan tentang penyederhanaan kami untuk iklan berbayar di Snapchat. Harap maklum iklan pada Snapchat boleh dikeluarkan atas pelbagai sebab seperti yang digariskan dalam Polisi Pengiklanan Snap, termasuk kandungan mengelirukan, kandungan dewasa, kandungan ganas atau mengganggu, ucapan kebencian dan pelanggaran harta intelek. Selain itu, anda kini boleh mencari Galeri Iklan Snapchat dalam bar navigasi laporan ketelusan ini.