25 Oktober 2024
17 Desember 2024
Selamat datang di halaman transparansi Uni Eropa (UE), di mana kami mempublikasikan informasi spesifik UE yang diperlukan oleh Undang-Undang Layanan Digital/Digital Services Act (DSA), Arahan Layanan Media Audiovisual/Audiovisual Media Service Directive (AVMSD), Undang-Undang Media Belanda/Dutch Media Act (DMA), dan Regulasi Konten Teroris Daring/Terrorist Content Online Regulation (TCO). Harap diperhatikan bahwa versi paling mutakhir dari Laporan Transparansi ini tersedia dalam bahasa Inggris AS.
Snap Group Limited telah menunjuk Snap B.V. sebagai Perwakilan Hukumnya untuk tujuan DSA. Anda dapat menghubungi perwakilan di dsa-enquiries [at] snapchat.com untuk DSA, di vsp-enquiries [at] snapchat.com untuk AVMSD dan DMA, melalui Situs Dukungan kami [di sini], atau di:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Belanda
Jika Anda adalah lembaga penegak hukum, harap ikuti langkah-langkah yang diuraikan di sini.
Harap berkomunikasi dalam bahasa Inggris atau Belanda ketika menghubungi kami.
Untuk DSA, kami diatur oleh Komisi Eropa dan Authority for Consumers and Markets (ACM)/Otoritas untuk Konsumen dan Pasar Belanda. Untuk AVMSD dan DMA, kami diatur oleh Otoritas Media Belanda (CvdM). Untuk TCO, kami diatur oleh Otoritas Belanda untuk pencegahan Konten Teroris Daring dan Materi Kekerasan Seksual Anak (ATKM).
Pembaruan terakhir: 25 Oktober 2024
Kami menerbitkan laporan mengenai upaya moderasi konten kami ini di Snapchat sesuai dengan persyaratan pelaporan transparani yang diberikan dalam Pasal 15, 24, dan 42 Undang-Undang Layanan Digital Uni Eropa (Peraturan (UE) 2022/2065) ("DSA"). Kecuali dinyatakan lain, informasi yang terkandung dalam laporan ini dalah untuk periode pelaporan mulai dari 1 Januari 2024 hingga 30 Juni 2024 (Semester 1 2024) dan mencakup moderasi konten pada fitur Snapchat yang diatur oleh DSA.
Kami terus berupaya untuk memperbaiki pelaporan kami. Untuk periode pelaporan ini (Semester 1 2024), kami telah melakukan perubahan pada struktur pelaporan kami dengan tabel yang baru dan berbeda untuk memberikan wawasan yang lebih baik tentang upaya moderasi konten kami.
Per 1 Oktober 2024, kami memiliki 92,9 juta penerima aktif bulanan rata-rata (“AMAR”) aplikasi Snapchat di Uni Eropa. Artinya, rata-rata selama periode 6 bulan yang berakhir pada 30 September 2024, terdapat 90,9 juta pengguna terdaftar di Uni Eropa telah membuka aplikasi Snapchat setidaknya sekali selama satu bulan tertentu.
Angka ini dirinci berdasarkan Negara Anggota sebagai berikut:
Angka-angka berikut dihitung untuk memenuhi aturan DSA saat ini dan hanya dapat digunakan untuk tujuan DSA. Kami telah mengubah cara penghitungan angka ini dari waktu ke waktu, termasuk sebagai respons terhadap perubahan kebijakan internal, panduan regulator dan teknologi, dan angka ini tidak dimaksudkan untuk dibandingkan dari satu periode ke periode lainnya. Hal ini mungkin juga berbeda dengan perhitungan yang digunakan untuk angka pengguna aktif lainnya yang kami publikasikan untuk tujuan lain.
Sepanjang masa pelaporan ini (Semester 1 2024), kami menerima nol (0) perintah untuk mengambil tindakan terhadap konten ilegal yang diidentifikasi secara spesifik dari otoritas Anggota Negara Uni Eropa, termasuk yang dikeluarkan sesuai dengan DSA Pasal 9.
Karena angka ini nol (0), kami tidak dapat memberikan pembagian per jenis konten ilegal yang dikhawatirkan atau Negara Anggota mengeluarkan perintah, atau waktu rata-rata untuk mengakui penerimaan atau memberikan efek kepada pemberi perintah.
Selama masa pelaporan ini (Semester 1 2024), kami menerima perintah berikut untuk mengungkap data pengguna dari otoritas Negara Anggota Uni Eropa, termasuk negara-negara yang dikeluarkan sesuai dengan DSA Pasal 10:
Waktu rata-rata untuk memberi tahu otoritas terkait tentang penerimaan perintah penyedian informasi ini adalah 0 menit — kami memberikan respons otomatis yang mengonfirmasi penerimaan.
Waktu rata-rata untuk memberlakukan perintah penyediaan informasi ini adalah sekitar 7 hari. Metrik ini mencerminkan periode waktu dari sejak Snap menerima perintah hingga saat Snap menganggap masalah tersebut terselesaikan sepenuhnya, yang dalam kasus individual mungkin sebagian bergantung pada kecepatan respons otoritas Negara Anggota terhadap setiap permintaan klarifikasi dari Snap yang diperlukan untuk memproses perintah.
Perhatian, kami tidak memberikan rincian perintah di atas untuk memberikan informasi yang dikategorikan berdasarkan jenis konten ilegal yang dikhawatirkan karena informasi ini secara umum tidak tersedia bagi kami.
Semua konten di Snapchat harus mematuhi Panduan Komunitas dan Ketentuan Layanan kami. Konten tertentu juga harus mematuhi panduan dan kebijakan tambahan. Misalnya, konten yang dikirimkan untuk rekomendasi algoritmik kepada pemirsa yang lebih luas di siaran broadcast kami harus memenuhi standar tambahan yang lebih tinggi yang disediakan dalam Panduan Konten untuk Kelayakan Rekomendasi kami, sementara iklan harus mematuhi Kebijakan Periklanan kami.
Kami menjalankan kebijakan ini menggunakan peninjauan teknologi dan manusia. Kami juga menyediakan mekanisme bagi Snapchatter untuk melaporkan pelanggaran, termasuk konten dan aktivitas ilegal, secara langsung di dalam aplikasi atau melalui situs web kami. Mekanisme dan laporan pendeteksian proaktif akan mendorong peninjauan, yang kemudian memanfaatkan campuran alat otomatis dan moderator manusia untuk mengambil tindakan yang tepat sesuai dengan kebijakan kami.
Kami menyediakan informasi lebih lanjut tentang moderasi konten kami di siaran broadcast pada Semester 1 2024 di bawah ini.
Sesuai dengan DSA Pasal 16, Snap telah menerapkan mekanisme yang memungkinkan pengguna dan non-pengguna untuk memberi tahu Snap tentang keberadaan item informasi tertentu di Snapchat yang mereka anggap sebagai konten ilegal. Mereka dapat melakukannya dengan melaporkan konten atau akun tertentu, baik secara langsung di aplikasi Snapchat atau di situs web kami.
Selama periode pelaporan (Semester 1 2024), kami menerima pemberitahuan berikut yang dikirim sesuai dengan DSA Pasal 16 di Uni Eropa:
Di bawah ini, kami memberikan rincian yang mencerminkan cara pemrosesan pemberitahuan ini, yaitu melalui proses yang meliputi tinjauan oleh manusia atau secara otomatis saja:
Dalam mengirimkan pemberitahuan dalam aplikasi atau melalui situs web kami, pelapor dapat memilih alasan pelaporan secara khusus dari menu opsi yang mencerminkan kategori pelanggaran yang tercantum dalam Panduan Komunitas kami (misalnya, ujaran kebencian, penggunaan atau penjualan narkoba). Panduan Komunitas kami melarang konten dan aktivitas yang ilegal di Uni Eropa, sehingga alasan pelaporan kami pada umumnya mencerminkan kategori konten ilegal secara spesifik di Uni Eropa. Namun, sejauh pelapor di Uni Eropa yakin bahwa konten atau akun yang mereka laporkan adalah ilegal karena alasan yang tidak dirujuk secara khusus di menu pelaporan kami, mereka dapat melaporkannya sebagai "konten ilegal lainnya" dan diberi kesempatan untuk menjelaskan alasan yang membuat mereka yakin bahwa yang konten mereka laporkan adalah ilegal.
Jika, setelah ditinjau, kami menentukan bahwa konten atau akun yang dilaporkan telah melanggar Panduan Komunitas kami (termasuk alasan keilegalannya), kami dapat (i) menghapus konten yang melanggar, (ii) memperingatkan pemegang akun terkait dan menerapkan pemblokiran akun tersebut, dan/atau (iii) mengunci akun terkait, sejauh yang dijelaskan di Moderasi, Penegakan Hukum, dan Penjelasan Banding Snapchat.
Pada Semester 1 tahun 2024, kami mengambil tindakan penegakan hukum berikut setelah menerima pemberitahuan yang dikirim sesuai dengan DSA Pasal 16 di Uni Eropa:
Pada Semester 1 2024, semua laporan untuk "konten ilegal lainnya" yang kami tindak pada akhirnya ditegakkan berdasarkan Panduan Komunitas kami karena Panduan Komunitas kami melarang konten atau aktivitas terkait. Dengan demikian, kami mengategorikan penegakan hukum ini di bawah kategori pelanggaran Panduan Komunitas terkait dalam tabel di atas.
Selain penegakan hukum di atas, kami dapat mengambil tindakan terhadap konten yang diberitahukan kepada kami sesuai dengan kebijakan dan panduan Snap lainnya yang berlaku:
Sehubungan dengan konten di permukaan siaran publik kami, jika kami memutuskan bahwa konten yang dilaporkan tidak memenuhi standar Panduan Konten Kelayakan Rekomendasi kami yang lebih tinggi, kami dapat menolak konten rekomendasi algoritmik (jika konten tersebut tidak memenuhi kriteria kelayakan kami), atau kami dapat membatasi distribusi konten tersebut untuk mengecualikan penonton yang sensitif (jika konten tersebut memenuhi kriteria kelayakan rekomendasi kami tetapi bersifat sensitif atau sugestif).
Pada Semester 1 2024, kami mengambil tindakan berikut terkait konten di siaran publik Snapchat yang dilaporkan kepada kami di Uni Eropa, sesuai dengan Panduan Konten Kelayakan Rekomendasi kami:
Jika kami memutuskan bahwa iklan yang dilaporkan melanggar Kebijakan Periklanan kami, kami dapat menghapus iklan tersebut setelah meninjaunya.
Pada Semester 1 2024, kami mengambil tindakan berikut terkait dengan iklan yang dilaporkan kepada kami di Uni Eropa:
Selain meninjau pemberitahuan yang dikirimkan sesuai dengan DSA Pasal 16, Snap memoderasi, atas inisiatifnya sendiri, konten di permukaan publik Snapchat (misalnya, Spotlight, Discover). Di bawah ini, kami menyediakan informasi tentang moderasi konten yang dilakukan atas inisiatif Snap sendiri, termasuk penggunaan alat otomatis, tindakan yang diambil untuk menyediakan pelatihan dan bantuan kepada mereka yang bertanggung jawab atas moderasi konten, dan jumlah serta jenis pembatasan yang diberlakukan sebagai hasil dari upaya moderasi konten proaktif tersebut.
Penggunaan alat otomatis dalam moderasi yang dilakukan atas inisiatif Snap sendiri
Kami menugaskan alat otomatis untuk secara proaktif mendeteksi dan, dalam beberapa kasus, menegakkan pelanggaran ketentuan dan kebijakan kami yang dilakukan di permukaan konten publik. Hal ini termasuk alat pencocokan hash (termasuk PhotoDNA dan Google CSAI Match), model Pendeteksi Bahasa Kasar (yang mendeteksi dan menolak konten berdasarkan daftar kata kunci dan emoji kasar yang teridentifikasi dan diperbarui secara berkala), dan teknologi kecerdasan buatan/pembelajaran mesin. Alat otomatis kami dirancang untuk mendeteksi pelanggaran atas Panduan Komunitas kami (yang, antara lain, melarang konten ilegal) dan, jika berlaku, Panduan Konten untuk Kelayakan Rekomendasi dan Kebijakan Periklanan kami.
Pada Semester 1 2024, semua pendeteksian proaktif kami dilakukan menggunakan alat otomatis. Saat alat otomatis kami mendeteksi kemungkinan adanya pelanggaran terhadap kebijakan kami, alat tersebut secara otomatis akan mengambil tindakan sesuai dengan kebijakan kami, atau membuat tugas untuk ditinjau oleh manusia. Jumlah dan jenis pembatasan yang diberlakukan sebagai akibat dari proses ini dijelaskan di bawah ini.
Jumlah dan jenis pembatasan yang diberlakukan atas inisiatif Snap sendiri
Pada Semester 1 2024, Snap mengambil tindakan penegakan hukum berikut setelah secara proaktif mendeteksi, melalui penggunaan alat otomatis, pelanggaran Panduan Komunitas kami (termasuk pelanggaran yang merupakan konten dan aktivitas ilegal menurut hukum Uni Eropa dan Negara Anggota):
Selain itu, pada Semester 1 2024, sehubungan dengan konten di siaran publik kami, kami mengambil tindakan berikut setelah melakukan pendeteksian pelanggaran secara proaktif di Snapchat, melalui penggunaan alat otomatis, terhadap Panduan Konten Kelayakan Rekomendasi kami:
* Sebagaimana dinyatakan dalam Panduan Konten untuk Kelayanan Rekomendasi kami, akun yang berulang kali atau sering melanggar Panduan Konten untuk Kelayanan Rekomendasi kami dapat didiskualifikasi untuk sementara atau secara permanen dari rekomendasi di siaran publik kami. Kami menerapkan tindakan ini dalam konteks upaya moderasi proaktif kami.
Lebih jauh lagi, pada Semester 1 2024, kami mengambil tindakan berikut setelah melakukan pendeteksian pelanggaran Kebijakan Periklanan kami di Snapchat secara proaktif, melalui penggunaan alat otomatis:
Langkah-langkah yang diambil untuk menyediakan pelatihan dan bantuan kepada orang yang bertanggung jawab atas moderasi konten
Tim moderasi kami menerapkan kebijakan moderasi konten kami untuk membantu komunitas Snapchat kami. Mereka dilatih selama beberapa minggu, di mana anggota tim yang baru dididik tentang kebijakan, alat, dan prosedur eskalasi Snap. Tim moderasi kami secara berkala berpartisipasi dalam pelatihan penyegaran yang terkait dengan alur kerja mereka, terutama ketika kami menghadapi kasus-kasus yang berada dalam perbatasan kebijakan dan bergantung pada konteks. Kami juga menjalankan program peningkatan keterampilan, sesi sertifikasi, dan kuis guna memastikan semua moderator memiliki pengetahuan terkini dan mematuhi semua kebijakan terbaru. Terakhir, ketika tren konten yang mendesak muncul berdasarkan peristiwa terkini, kami dengan cepat menyebarkan klarifikasi kebijakan sehingga tim dapat merespons sesuai dengan kebijakan Snap.
Tim moderasi kami sediakan dengan dukungan dan sumber daya yang signifikan, termasuk dukungan kesehatan di tempat kerja dan akses mudah ke layanan kesehatan mental.
Pengguna yang akunnya dikunci oleh tim keamanan kami karena telah melakukan pelanggaran terhadap Panduan Komunitas kami (termasuk konten dan aktivitas ilegal) dapat mengajukan banding atas penguncian akun. Pengguna juga dapat mengajukan banding atas keputusan moderasi konten tertentu.
Selama periode pelaporan (Semester 1 2024), Snap telah memproses banding berikut (antara lain banding terhadap penguncian akun dan keputusan moderasi tingkat konten) yang diajukan melalui sistem penanganan pengaduan internal di Uni Eropa:
Deskripsi kualitatif dan tujuan
Sebagaimana dijelaskan di Bab 3(b) di atas, kami menggunakan alat otomatis untuk secara proaktif mendeteksi dan, dalam beberapa kasus, menegakkan hukum atas pelanggaran ketentuan dan kebijakan kami di permukaan konten publik kami. Hal ini termasuk alat pencocokan hash (termasuk PhotoDNA dan Google CSAI Match), model Pendeteksi Bahasa Kasar (yang mendeteksi dan menolak konten berdasarkan daftar kata kunci dan emoji kasar yang teridentifikasi dan diperbarui secara berkala), dan teknologi kecerdasan buatan/pembelajaran mesin. Alat otomatis kami dirancang untuk mendeteksi pelanggaran atas Panduan Komunitas kami (yang, antara lain, melarang konten ilegal) dan, jika berlaku, Panduan Konten untuk Kelayakan Rekomendasi dan Kebijakan Periklanan kami.
Saat alat otomatis kami mendeteksi kemungkinan adanya pelanggaran terhadap kebijakan kami, alat tersebut secara otoamtis mengambil tindakan sesuai dengan kebijakan kami, atau membuat tugas untuk ditinjau oleh manusia.
Indikator keakuratan dan kemungkinan tingkat kesalahan, dipecah berdasarkan Anggota Negara
Kami memantau keakuratan alat moderasi kami dengan memilih sampel tugas secara acak yang diproses oleh alat otomatis kami di permukaan publik kami dan mengirimkannya untuk ditinjau ulang oleh tim moderasi manusia kami. Tingkat akurasi adalah persentase tugas dari sampel acak yang disetujui oleh moderator manusia kami setelah dilakukannya peninjauan ulang. Tingkat kesalahan adalah perbedaan antara 100% dan tingkat akurasi yang dihitung sebagaimana dijelaskan di atas.
Berdasarkan pengambilan sampel, pada Semester 1 2024, indikator keakuratan dan kemungkinan tingkat kesalahan sarara otomatis yang digunakan pada semua kategori pelanggaran adalah sekitar 93% dan tingkat kesalahannya sekitar 7%.
Kami secara umum tidak melacak bahasa konten yang kami moderasi di Snapchat, dan oleh karena itu tidak dapat memberikan rincian akurasi dan tingkat kesalahan untuk alat moderasi otomatis kami untuk setiap bahasa resmi Negara Anggota. Sebagai pengganti informasi ini, di bawah ini kami memberikan perincian akurasi dan tingkat kesalahan untuk konten yang dimoderasi secara otomatis yang berasal dari setiap Negara Anggota.
Pengamanan
Kami menyadari dampak yang mungkin ditimbulkan oleh alat moderasi otomatis terhadap hak-hak dasar manusia, oleh karena itu kami menerapkan tindakan pengamanan untuk meminimalkan dampak tersebut.
Alat moderasi konten otomatis kami telah diuji sebelum digunakan di Snapchat. Model diuji secara luring untuk mengetahui kinerjanya dan disebarkan melalui pengujian A/B untuk memastikan model tersebut dapat berfungsi sebagaimana mestinya sebelum sepenuhnya diterapkan ke produksi. Kami melakukan peninjauan Penjaminan Kualitas (Quality Assurance - QA) prapeluncuran, tinjauan peluncuran, dan pemeriksaan QA presisi yang berkelanjutan selama peluncuran parsial (bertahap).
Setelah peluncuran alat otomatis kami, kami akan mengevaluasi kinerja dan keakuratan alat tersebut secara berkelanjutan, dan melakukan penyesuaian yang diperlukan. Proses ini melibatkan peninjauan kembali sampel tugas otomatis yang dilakukan oleh moderator manusia untuk mengidentifikasi model yang memerlukan penyesuaian untuk meningkatkan akurasinya. Kami juga memantau prevalensi bahaya tertentu, di Snapchat melalui pengambilan sampel Cerita Publik setiap hari secara acak, dan menggunakan informasi ini untuk mengidentifikasi area yang memerlukan peningkatan lebih lanjut.
Kebijakan dan sistem kami menggalakkan penindakan yang konsisten dan adil, termasuk oleh alat otomatis kami, memberikan kesempatan kepada Snapchatter untuk memperdebatkan hasil penindakan secara bermakna melalui proses pemberitahuan dan banding yang bertujuan untuk menjaga kepentingan komunitas kami sekaligus melindungi hak individu Snapchatter.
Kami berusaha untuk terus meningkatkan alat moderasi konten otomatis kami guna meningkatkan keakuratannya dan mendukung penegakan kebijakan kami secara konsisten dan adil.
Untuk periode pelaporan (Semester 1 2024), jumlah sengketa yang diserahkan kepada badan penyelesaian sengketa di luar pengadilan yang disertifikasi secara resmi, sesuai dengan DSA Pasal 21 adalah nol (0), dan kami tidak dapat memberikan rincian yang mencerminkan hasil, waktu penyelesaian median, atau bagian sengketa yang mengharuskan Snap untuk menerapkan keputusan badan penyelesaian sengketa di luar pengadilan.
Perhatian bahwa, pada Semester 1 2024, kami menerima dua (2) pemberitahuan sengketa yang diajukan kepada badan yang meminta sertifikasi sebagai badan penyelesaian sengketa di luar pengadilan berdasarkan DSA Pasal 21. Kami tidak menyertakan sengketa ini dalam penghitungan di atas karena badan yang mengirimkan pemberitahuan sengketa ini tidak dapat memverifikasi status sertifikasi mereka atas permintaan kami.
Penangguhan berdasarkan Pasal 23.1: penangguhan akun yang sering memberikan konten yang jelas-jelas ilegal
Sebagaimana dijelaskan dalam Moderasi, Penegakan Hukum, dan Banding Snapchat kami, akun yang kami anggap digunakan terutama untuk melanggar Panduan Komunitas (termasuk melalui penyediaan konten yang jelas-jelas ilegal) dan akun yang melakukan tindakan berbahaya serius akan dinonaktifkan dengan segera. Untuk semua pelanggaran lainnya terhadap Panduan Komunitas kami, Snap umumnya menerapkan proses penegakan tiga bagian:
Langkah pertama: konten yang melanggar dihapus.
Langkah kedua: Snapchatter menerima pemberitahuan, yang menunjukkan bahwa mereka telah melanggar Panduan Komunitas kami, bahwa konten mereka telah dihapus, dan pelanggaran berulang akan mengakibatkan tindakan penegakan tambahan, termasuk akun mereka dinonaktifkan.
Langkah ketiga: tim kami mencatat teguran terhadap akun Snapchatter.
Informasi mengenai jumlah teguran (misalnya peringatan) dan penguncian yang diterapkan dalam Semester 1 2024 pada akun-akun di Uni Eropa sehubungan dengan konten atau aktivitas di siaran broadcast Snapchat dapat ditemukan di atas, di Bab 3(a) dan 3(b).
Penangguhan berdasarkan Pasal 23.2: penangguhan pemrosesan pemberitahuan dan keluhan dari individu, entitas, dan pengadu yang sering mengirim pemberitahuan atau keluhan yang jelas-jelas tidak berdasar
Dengan menerapkan definisi internal kami tentang pemberitahuan dan keluhan yang "jelas-jelas tidak berdasar", dan ambang batas internal kami untuk yang kami anggap sering mengajukan pemberitahuan dan keluhan tersebut, jumlah penangguhan atas pemrosesan pemberitahuan dan keluhan yang diberlakukan dalam Semester 1 2024 sesuai dengan DSA Pasal 23.2 adalah sebagai berikut:
Tim moderasi konten kami beroperasi di seluruh dunia, sehingga memungkinkan kami menjaga keamanan Snapchatters selama 24/7. Di bawah ini, Anda akan menemukan sumber daya manusia yang dibagi berdasarkan spesialisasi bahasa moderator (harap diperhatikan bahwa beberapa moderator memiliki spesialisasi dalam beberapa bahasa) per 30 Juni 2024:
Tabel di atas mencakup semua sumber daya manusia yang ditugaskan secara khusus untuk memoderasi konten, yang mendukung bahasa resmi Negara Anggota Uni Eropa per 30 Juni 2024. Dalam situasi ketika kami memerlukan dukungan bahasa tambahan, kami akan menggunakan layanan penerjemahan.
Moderator direkrut menggunakan deskripsi pekerjaan standar yang mencakup persyaratan penguasaan bahasa (tergantung kebutuhan). Persyaratan bahasa menyatakan bahwa kandidat harus dapat menunjukkan kecakapan dalam menulis dan berbicara menggunakan bahasa tertentu dan memiliki pengalaman kerja selama setidaknya satu tahun untuk posisi tingkat awal. Kandidat juga harus memenuhi persyaratan pendidikan dan latar belakang untuk dapat dipertimbangkan dalam perekrutan. Kandidat juga harus menunjukkan pemahaman tentang peristiwa terkini untuk negara atau wilayah moderasi konten yang akan mereka tangani.
Lihat informasi di atas mengenai pelatihan dan dukungan yang diberikan oleh Snap kepada moderator konten, yang secara terpisah diwajibkan berdasarkan DSA Pasal 15(1)(c) dan dengan demikian termasuk dalam Bab 3(b), dalam subbagian terakhir yang berjudul: “Tindakan yang diambil untuk menyediakan pelatihan dan bantuan kepada mereka yang bertanggung jawab dalam moderasi konten”
Latar Belakang
Eksploitasi seksual terhadap anggota mana pun dari komunitas kami, terutama anak-anak di bawah umur, adalah ilegal, menjijikkan, dan dilarang oleh Panduan Komunitas kami. Mencegah, mendeteksi, dan memberantas Eksploitasi dan Pelecehan Seksual Anak atau Child Sexual Exploitation and Abuse (CSEA) di platform kami adalah prioritas utama bagi Snap, dan kami terus mengembangkan kemampuan kami untuk memerangi hal ini serta jenis kejahatan lainnya.
Kami menggunakan pencocokan hash yang canggih dari PhotoDNA dan Child Sexual Abuse Imagery (CSAI) Match dari Google untuk mengidentifikasi gambar dan video pelecehan seksual anak yang diketahui ilegal dan melaporkannya ke U.S. National Center for Missing and Exploited Children (NCMEC), sebagaimana diwajibkan oleh hukum. NCMEC kemudian akan berkoordinasi dengan penegak hukum dalam negeri atau internasional, sesuai keharusan.
Laporan
Data di bawah ini didasarkan pada hasil pemindaian proaktif menggunakan PhotoDNA dan/atau media CSAI Match yang diunggah dari Rol Kamera pengguna ke Snapchat.
Menghentikan eksploitasi seksual anak adalah prioritas utama. Snap mencurahkan sumber daya yang signifikan untuk hal ini dan tidak memiliki toleransi untuk perilaku tersebut. Pelatihan khusus diperlukan untuk meninjau banding CSE, dan ada tim agen terbatas yang menangani tinjauan ini karena sifat konten yang eksplisit. Selama musim gugur tahun 2023, Snap menerapkan perubahan kebijakan yang memengaruhi konsistensi penindakan CSE tertentu, dan kami telah menindaklanjuti ketidakkonsistenan ini melalui pelatihan ulang agen dan jaminan kualitas yang ketat. Kami berharap bahwa laporan transparansi berikutnya akan mengungkapkan kemajuan dalam meningkatkan waktu respons untuk banding CSE dan meningkatkan ketepatan penindakan awal.
Perlindungan Moderasi Konten
Perlindungan yang diterapkan untuk Pemindaian Media CSEA ditetapkan dalam bagian “Perlindungan Moderasi Konten” di atas berdasarkan Laporan DSA kami.
Diterbitkan: 17 Juni 2024
Pembaruan Terakhir: 17 Juni 2024
Laporan Transparansi ini diterbitkan sesuai dengan Pasal 7(2) dan 7(3) Peraturan 2021/784 Parlemen Eropa dan Dewan Uni Eropa, yang membahas penyebaran konten teroris secara daring (Peraturan). Laporan ini mencakup periode pelaporan 1 Januari - 31 Desember 2023.
Pasal 7(3)(a): informasi mengenai tindakan penyedia layanan hosting terkait dengan identifikasi dan penghapusan atau penonaktifan akses ke konten teroris
Pasal 7(3)(b): informasi tentang langkah-langkah penyedia layanan hosting untuk menangani kemunculan kembali materi yang sebelumnya telah dihapus atau aksesnya telah dinonaktifkan karena dianggap sebagai konten teroris, khususnya ketika alat otomatis digunakan
Teroris, organisasi teroris, dan ekstremis kekerasan dilarang menggunakan Snapchat. Konten yang menganjurkan, mempromosikan, mengagungkan, atau mementingkan terorisme atau tindak kekerasan atau kriminal lainnya dilarang berdasarkan Panduan Komunitas kami. Pengguna dapat melaporkan konten yang melanggar Panduan Komunitas kami melalui menu pelaporan dalam aplikasi kami dan Situs Dukungan kami. Kami juga menggunakan deteksi proaktif untuk mencba mengidentifikasi konten yang melanggar di permukaan publik seperti Spotlight dan Discover.
Terlepas dari cara kami mengetahui adanya konten yang melanggar, tim Kepercayaan & Keamanan kami, melalui kombinasi otomatisasi dan moderasi manusia, segera meninjau konten yang diidentifikasi dan mengambil keputusan penegakan hukum. Penegakan hukum dapat mencakup penghapusan konten, peringatan atau penguncian akun yang melanggar tersebut, dan, jika diperlukan, pelaporan akun tersebut kepada penegak hukum. Untuk mencegah munculnya kembali teroris atau konten ekstremis kekerasan lainnya di Snapchat, selain bekerja sama dengan penegak hukum, kami mengambil langkah-langkah untuk memblokir perangkat yang terkait dengan akun yang melanggar tersebut dan mencegah penggunanya membuat akun Snapchat lain.
Rincian tambahan terkait langkah-langkah kami untuk mengidentifikasi dan menghapus konten teroris dapat ditemukan di Penjelasan mengenai Konten yang Mengandung Kebencian, Terorisme, dan Ekstremisme Kekerasan dan Penjelasan mengenai Moderasi, Penegakan Hukum, dan Banding.
Pasal 7(3)(c): jumlah item konten teroris yang dihapus atau aksesnya telah dinonaktifkan setelah adanya perintah penghapusan atau langkah-langkah tertentu, dan jumlah perintah penghapusan di mana konten tersebut tidak dihapus atau aksesnya tidak dinonaktifkan sesuai dengan subparagraf pertama Pasal 3(7) dan subparagraf pertama Pasal 3(8), beserta alasan yang mendasarinya
Selama periode pelaporan, Snap tidak menerima perintah penghapusan apa pun, dan kami juga tidak diwajibkan untuk menerapkan tindakan khusus apa pun sesuai dengan Pasal 5 Peraturan. Oleh karena itu, kami tidak diwajibkan untuk mengambil tindakan penegakan hukum berdasarkan Peraturan.
Tabel berikut mendeskripsikan tindakan penegakan hukum yang diambil berdasarkan laporan pengguna dan pendeteksian proaktif terhadap konten dan akun, baik di Uni Eropa maupun di tempat lain di seluruh dunia, yang melanggar Panduan Komunitas kami yang berkaitan dengan terorisme dan konten ekstremisme kekerasan
Pasal 7(3)(d): jumlah dan hasil pengaduan yang ditangani oleh penyedia layanan hosting sesuai dengan Pasal 10
Article 7(3)(g): jumlah kasus di mana penyedia layanan hosting memulihkan konten atau akses tersebut setelah adanya pengaduan dari penyedia konten
Karena kami tidak melakukan tindakan penegakan hukum yang diwajibkan berdasarkan Peraturan selama periode pelaporan sebagaimana disebutkan di atas, kami tidak menangani pengaduan apa pun berdasarkan Pasal 10 Peraturan dan tidak melakukan pemulihan yang terkait dengannya.
Tabel berikut berisi informasi yang berkaitan dengan banding dan pemulihan, baik di Uni Eropa maupun di tempat lain di seluruh dunia, yang melibatkan konten teroris dan konten ekstremis kekerasan yang ditegakkan berdasarkan Panduan Komunitas kami.
Pasal 7(3)(e): jumlah dan hasil peninjauan administratif atau peradilan yang diajukan oleh penyedia layanan hosting
Pasal 7(3)(f): jumlah kasus di mana penyedia layanan hosting diwajibkan memulihkan konten atau akses ke konten tersebut sebagai hasil dari proses peninjauan administratif atau peradilan
Karena kami tidak melakukan tindakan penegakan hukum yang diwajibkan berdasarkan Regulasi selama masa pelaporan, sebagaimana disebutkan di atas, kami tidak memiliki proses peninjauan administratif atau peradilan terkait, dan kami tidak diwajibkan untuk memulihkan konten sebagai hasil dari proses tersebut.
Laporan ini telah disiapkan untuk mematuhi kewajiban Snap berdasarkan Pasal 34 dan 35 Peraturan (UE) 2022/2065 serta memberikan hasil penilaian kami terhadap risiko sistem yang berasal dari desain, fungsi, dan penggunaan platform daring Snapchat, serta metodologi yang digunakan untuk menilai risiko tersebut dan langkah-langkah mitigasi yang diterapkan untuk mengatasi risiko tersebut.
Laporan Penilaian Mitigasi dan Risiko DSA | Snapchat | Agustus 2023 (PDF)
Laporan-laporan ini telah disiapkan untuk mematuhi kewajiban Snap berdasarkan Pasal 37 Peraturan (UE) 2022/2065 dan memberikan: (i) hasil audit independen atas kepatuhan Snap terhadap kewajiban yang ditetapkan dalam Bab III Peraturan (UE) 2022/2065 dan (ii) langkah-langkah yang diambil untuk menerapkan rekomendasi operasional dari audit independen tersebut.
Laporan Audit Independen DSA | Snapchat | Agustus 2024 (PDF)
Laporan Implementasi Audit DSA | Snapchat | September 2024 (PDF)
Kode Praktik VSP UE
Snap adalah penyedia “layanan platform berbagi video” (“VSP”) sesuai dengan Pasal 1(1)(aa) AVMSD. Kode Etik ("Kode") ini telah disiapkan untuk menggambarkan bagaimana Snap memenuhi kewajibannya sebagai VSP di bawah Undang-Undang Media Belanda (“DMA”) dan Directive (UE) 2010/13 (sebagaimana diubah oleh Directive (UE) 2018/1808 (“Panduan Layanan Media Audiovisual" atau "AVMSD")). Kode ini berlaku di seluruh Uni Eropa serta Wilayah Ekonomi Eropa.