Snap Values
Laporan Transparansi
1 Januari 2024 – 30 Juni 2024

Dirilis:

05 Desember 2024

Diperbarui:

05 Desember 2024

Kami menerbitkan laporan transparansi ini dua kali setahun untuk memberi wawasan tentang upaya keamanan Snap. Kami berkomitmen terhadap upaya ini dan terus berupaya untuk membuat laporan ini lebih komprehensif dan informatif bagi banyak pemangku kepentingan yang sangat peduli dengan moderasi konten, praktik penegakan hukum, dan keamanan serta kesejahteraan komunitas Snapchat kami. 

Laporan Transparansi ini mencakup paruh pertama tahun 2024 (1 Januari - 30 Juni). Seperti halnya dengan laporan kami sebelumnya, kami membagikan data mengenai laporan jumlah konten dalam aplikasi dan tingkat akun yang kami terima serta menindak berbagai kategori pelanggaran yang spesifik; cara kami merespons permintaan dari penegak hukum dan pemerintah; dan cara kami menanggapi pemberitahuan pelanggaran hak cipta dan merek dagang. Kami juga menyediakan wawasan khusus negara dalam file yang ditautkan di bagian bawah halaman ini.

Sebagai bagian dari komitmen berkelanjutan kami untuk terus meningkatkan laporan transparansi kami, kami juga memperkenalkan data baru yang menyoroti upaya proaktif kami untuk mendeteksi dan mendisiplinkan berbagai pelanggaran yang lebih luas terhadap Panduan Komunitas kami. Kami telah menyertakan data ini di tingkat global dan negara dalam laporan ini dan akan terus melakukannya ke depan. Kami juga telah mengoreksi kesalahan pelabelan dalam laporan kami sebelumnya: di mana kami sebelumnya merujuk kepada “Total Konten yang Ditegakkan", kami sekarang merujuk kepada “Total Penegakan” untuk mencerminkan fakta bahwa data yang disediakan dalam kolom yang relevan mencakup penegakan tingkat konten dan penegakan tingkat akun.

Untuk informasi lebih lanjut tentang kebijakan kami dalam memerangi potensi bahaya daring, dan rencana untuk terus mengembangkan praktik pelaporan kami, silakan baca blog Keamanan & Dampak terbaru kami tentang Laporan Transparansi ini. Untuk sumber tambahan terkait keamanan dan privasi di Snapchat, lihat tab Tentang Pelaporan Transparansi di bagian bawah halaman.

Harap diperhatikan bahwa versi paling mutakhir dari Laporan Transparansi ini tersedia dalam bahasa Inggris AS.

Ikhtisar Tindakan Tim Kepercayaan & Keamanan kami untuk Menegakkan Panduan Komunitas kami

Tim Kepercayaan & Keamanan kami menegakkan Panduan Komunitas kami secara proaktif (melalui penggunaan alat otomatis) dan reaktif (sebagai respons atas laporan), sebagaimana dirinci lebih lanjut dalam bagian berikut dari laporan ini. Dalam siklus pelaporan ini (Semester 1 2024), tim Kepercayaan & Keamanan kami mengambil tindakan penegakan berikut: 

Gambaran Umum Pelanggaran Konten dan Akun

Dari 1 Juli - 31 Desember 2023, Snap menegakkan 5.376.714 konten secara global yang dilaporkan kepada kami dan melanggar Panduan Komunitas kami.

Selama periode pelaporan, kami mencermati Angka Tampilan yang Melanggar atau Violative View Rate (VVR) sebesar 0,01 persen, yang berarti dari setiap 10.000 tampilan Snap dan Cerita yang dilihat di Snapchat, terdapat 1 konten yang melanggar kebijakan kami. Median waktu penyelesaian untuk menegakkan konten yang dilaporkan adalah ~ 10 menit.

Gambaran Umum Pelanggaran Konten dan Akun

Dari 1 Juli - 31 Desember 2023, Snap menegakkan 5.376.714 konten secara global yang dilaporkan kepada kami dan melanggar Panduan Komunitas kami.

Selama periode pelaporan, kami mencermati Angka Tampilan yang Melanggar atau Violative View Rate (VVR) sebesar 0,01 persen, yang berarti dari setiap 10.000 tampilan Snap dan Cerita yang dilihat di Snapchat, terdapat 1 konten yang melanggar kebijakan kami. Median waktu penyelesaian untuk menegakkan konten yang dilaporkan adalah ~ 10 menit.

Gambaran Umum Pelanggaran Konten dan Akun

Dari 1 Juli - 31 Desember 2023, Snap menegakkan 5.376.714 konten secara global yang dilaporkan kepada kami dan melanggar Panduan Komunitas kami.

Selama periode pelaporan, kami mencermati Angka Tampilan yang Melanggar atau Violative View Rate (VVR) sebesar 0,01 persen, yang berarti dari setiap 10.000 tampilan Snap dan Cerita yang dilihat di Snapchat, terdapat 1 konten yang melanggar kebijakan kami. Median waktu penyelesaian untuk menegakkan konten yang dilaporkan adalah ~ 10 menit.

Analisis Pelanggaran Konten dan Akun

Tingkat pelaporan dan penindakan kami secara keseluruhan tetap sama dengan enam bulan sebelumnya. Dalam siklus ini, kami melihat peningkatan total konten dan laporan akun sebesar 10%.

Konflik Israel-Hamas dimulai selama periode ini, dan sebagai hasilnya kami melihat peningkatan konten yang melanggar. Total laporan yang terkait dengan ujaran kebencian meningkat ~61%, sementara total penindakan konten dari ujaran kebencian meningkat ~97% dan penindakan akun unik meningkat ~124%. Laporan dan penindakan Terorisme & Ekstremisme Kekerasan juga meningkat, meskipun penindakan konten mencakup <0,1% dari total penindakan konten di platform kami. Tim Kepercayaan & Keamanan kami terus waspada ketika konflik global muncul untuk membantu menjaga Snapchat tetap aman. Kami juga telah memperluas laporan transparansi kami untuk menyertakan lebih banyak informasi di tingkat global dan negara mengenai total laporan, konten yang ditegakkan, dan akun unik yang ditegakkan karena pelanggaran kebijakan Terorisme & Ekstremisme Kekerasan kami.

Gambaran Umum Pelanggaran Konten dan Akun

Dari 1 Juli - 31 Desember 2023, Snap menegakkan 5.376.714 konten secara global yang dilaporkan kepada kami dan melanggar Panduan Komunitas kami.

Selama periode pelaporan, kami mencermati Angka Tampilan yang Melanggar atau Violative View Rate (VVR) sebesar 0,01 persen, yang berarti dari setiap 10.000 tampilan Snap dan Cerita yang dilihat di Snapchat, terdapat 1 konten yang melanggar kebijakan kami. Median waktu penyelesaian untuk menegakkan konten yang dilaporkan adalah ~ 10 menit.

Memerangi Eksploitasi & Pelecehan Seksual Anak

Eksploitasi seksual terhadap anggota mana pun dari komunitas kami, terutama anak-anak di bawah umur, adalah ilegal, menjijikkan, dan dilarang oleh Panduan Komunitas kami. Mencegah, mendeteksi, dan memberantas Eksploitasi dan Citra Pelecehan Seksual Anak atau Child Sexual Exploitation and Abuse Imagery (CSEAI) di platform kami adalah prioritas utama bagi Snap, dan kami terus mengembangkan kemampuan kami untuk memerangi hal ini serta jenis kejahatan lainnya.

Kami menggunakan alat pendeteksian teknologi aktif, seperti pencocokan hash yang canggih dari PhotoDNA dan Child Sexual Abuse Imagery (CSAI) Match dari Google untuk mengidentifikasi gambar dan video pelecehan seksual anak yang diketahui ilegal dan melaporkannya ke U.S. National Center for Missing and Exploited Children (NCMEC), sebagaimana diwajibkan oleh hukum. NCMEC kemudian akan berkoordinasi dengan penegak hukum dalam negeri atau internasional, sesuai keharusan. 

Pada paruh kedua tahun 2023, kami secara proaktif mendeteksi dan menindak 59% dari total pelanggaran eksploitasi dan pelecehan seksual anak yang dilaporkan. Hal ini mencerminkan penurunan total 39% dari periode sebelumnya karena peningkatan opsi pelaporan Snapchatter, meningkatkan visibilitas potensi CSEA yang dikirim di Snapchat. 

*Perlu dicatat bahwa setiap pelaporan ke NCMEC dapat berisi beberapa potong konten. Total potongan media individu yang dikirimkan ke NCMEC sama dengan total konten yang ditindak. Kami juga telah mengecualikan pengiriman yang ditarik ke NCMEC dari nomor ini.

Konten Tindakan Menyakiti Diri Sendiri & Bunuh Diri

Kami sangat peduli tentang kesehatan mental dan kesejahteraan Snapchatter, yang terus memengaruhi keputusan kami untuk membangun Snapchat secara berbeda. Sebagai platform yang dirancang untuk komunikasi antar teman nyata, kami percaya Snapchat dapat memainkan peran unik dalam memberdayakan teman-teman untuk saling membantu pada saat sulit.

Ketika tim Kepercayaan & Keamanan kami menyadari adanya Snapchatter yang mengalami kesulitan, mereka dapat meneruskan sumber daya pencegahan dan dukungan yang membahayakan diri sendiri, serta memberi tahu personel tanggap darurat jika diperlukan. Sumber daya yang kami bagikan tersedia dalam daftar global sumber daya keamanan kami, dan semuanya tersedia secara terbuka bagi seluruh Snapchatter.

Banding

Dalam laporan sebelumnya, kami memperkenalkan metrik tentang banding, di mana kami menyoroti berapa kali pengguna meminta kami untuk meninjau ulang keputusan moderasi awal kami terhadap akun mereka. Dalam laporan ini, kami telah memperluas banding kami untuk menangkap berbagai kategori kebijakan kami untuk pelanggaran tingkat akun.

* Menghentikan penyebaran konten atau aktivitas yang terkait dengan eksploitasi seksual anak adalah prioritas utama. Snap mencurahkan sumber daya yang signifikan untuk hal ini dan tidak memiliki toleransi untuk perilaku tersebut. Pelatihan khusus diperlukan untuk meninjau banding CSE, dan ada tim agen terbatas yang menangani tinjauan ini karena sifat konten yang eksplisit. Selama musim gugur tahun 2023, Snap menerapkan perubahan kebijakan yang memengaruhi konsistensi penindakan CSE tertentu, dan kami telah menindaklanjuti inkonsistensi ini melalui pelatihan ulang agen dan jaminan kualitas yang ketat. Kami berharap bahwa laporan transparansi Snap berikutnya akan mengungkapkan kemajuan dalam meningkatkan waktu respons untuk banding CSE dan meningkatkan ketepatan penindakan awal.

Ikhtisar Wilayah & Negara

Bagian ini memberi ikhtisar tindakan tim Kepercayaan & Keamanan kami untuk menegakkan Panduan Komunitas kami, baik secara proaktif maupun sebagai respons terhadap laporan pelanggaran dalam aplikasi, dalam pengambilan sampel wilayah geografis. Panduan Komunitas kami berlaku atas semua konten di Snapchat—dan semua Snapchatter—di seluruh dunia, di mana pun lokasinya.

Informasi untuk masing-masing negara, termasuk semua Negara Anggota UE, tersedia untuk diunduh melalui fail CSV yang terlampir.

Ikhtisar Tindakan Tim Kepercayaan & Keamanan kami untuk Menegakkan Panduan Komunitas kami 

Memerangi Eksploitasi & Pelecehan Seksual Anak

Eksploitasi seksual terhadap anggota mana pun dari komunitas kami, terutama anak-anak di bawah umur, adalah ilegal, menjijikkan, dan dilarang oleh Panduan Komunitas kami. Mencegah, mendeteksi, dan memberantas Eksploitasi dan Citra Pelecehan Seksual Anak atau Child Sexual Exploitation and Abuse Imagery (CSEAI) di platform kami adalah prioritas utama bagi Snap, dan kami terus mengembangkan kemampuan kami untuk memerangi hal ini serta jenis kejahatan lainnya.

Kami menggunakan alat pendeteksian teknologi aktif, seperti pencocokan hash yang canggih dari PhotoDNA dan Child Sexual Abuse Imagery (CSAI) Match dari Google untuk mengidentifikasi gambar dan video pelecehan seksual anak yang diketahui ilegal dan melaporkannya ke U.S. National Center for Missing and Exploited Children (NCMEC), sebagaimana diwajibkan oleh hukum. NCMEC kemudian akan berkoordinasi dengan penegak hukum dalam negeri atau internasional, sesuai keharusan. 

Pada paruh kedua tahun 2023, kami secara proaktif mendeteksi dan menindak 59% dari total pelanggaran eksploitasi dan pelecehan seksual anak yang dilaporkan. Hal ini mencerminkan penurunan total 39% dari periode sebelumnya karena peningkatan opsi pelaporan Snapchatter, meningkatkan visibilitas potensi CSEA yang dikirim di Snapchat. 

Memerangi Eksploitasi & Pelecehan Seksual Anak

Eksploitasi seksual terhadap anggota mana pun dari komunitas kami, terutama anak-anak di bawah umur, adalah ilegal, menjijikkan, dan dilarang oleh Panduan Komunitas kami. Mencegah, mendeteksi, dan memberantas Eksploitasi dan Citra Pelecehan Seksual Anak atau Child Sexual Exploitation and Abuse Imagery (CSEAI) di platform kami adalah prioritas utama bagi Snap, dan kami terus mengembangkan kemampuan kami untuk memerangi hal ini serta jenis kejahatan lainnya.

Kami menggunakan alat pendeteksian teknologi aktif, seperti pencocokan hash yang canggih dari PhotoDNA dan Child Sexual Abuse Imagery (CSAI) Match dari Google untuk mengidentifikasi gambar dan video pelecehan seksual anak yang diketahui ilegal dan melaporkannya ke U.S. National Center for Missing and Exploited Children (NCMEC), sebagaimana diwajibkan oleh hukum. NCMEC kemudian akan berkoordinasi dengan penegak hukum dalam negeri atau internasional, sesuai keharusan. 

Pada paruh kedua tahun 2023, kami secara proaktif mendeteksi dan menindak 59% dari total pelanggaran eksploitasi dan pelecehan seksual anak yang dilaporkan. Hal ini mencerminkan penurunan total 39% dari periode sebelumnya karena peningkatan opsi pelaporan Snapchatter, meningkatkan visibilitas potensi CSEA yang dikirim di Snapchat. 

Moderasi Iklan

Snap berkomitmen untuk memastikan bahwa semua iklan sepenuhnya mematuhi kebijakan periklanan kami. Kami percaya pada pendekatan yang bertanggung jawab dan terhormat untuk iklan, yang menciptakan pengalaman aman dan menyenangkan bagi semua pengguna kami. Di bawah ini kami telah menyertakan wawasan tentang moderasi kami untuk iklan berbayar di Snapchat. Perhatikan bahwa iklan di Snapchat dapat dihapus karena berbagai alasan sebagaimana diuraikan dalam Kebijakan Periklanan Snap, termasuk konten yang menipu, konten dewasa, konten kekerasan atau meresahkan, ujaran kebencian, dan pelanggaran hak milik intelektual. Selain itu, Anda kini dapat menemukan Galeri Iklan Snapchat di bilah navigasi laporan transparansi ini.