Uni Eropa
1 Juli 2023 – 31 Desember 2023

Dirilis:

25 April 2024

Diperbarui:

25 April 2024

Selamat datang di halaman transparansi Uni Eropa (UE), di mana kami mempublikasikan informasi spesifik UE yang diperlukan oleh EU Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD), dan Dutch Media Act (DMA). Harap diperhatikan bahwa versi paling mutakhir dari Laporan Transparansi ini tersedia dalam bahasa Inggris AS.

Perwakilan Hukum 

Snap Group Limited telah menunjuk Snap B.V. sebagai Perwakilan Hukumnya untuk tujuan DSA. Anda dapat menghubungi perwakilan di dsa-enquiries [at] snapchat.com untuk DSA, di vsp-enquiries [at] snapchat.com untuk AVMSD dan DMA, melalui Situs Dukungan kami [di sini], atau di:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Belanda

Jika Anda adalah lembaga penegak hukum, harap ikuti langkah-langkah yang diuraikan di sini.

Badan Pengawas

Untuk DSA, kami diatur oleh Komisi Eropa dan Authority for Consumers and Markets (ACM)/Otoritas untuk Konsumen dan Pasar Belanda. Untuk AVMSD dan DMA, kami diatur oleh Otoritas Media Belanda (CvdM).

Laporan Transparansi DSA

Snap diwajibkan oleh Pasal 15, 24 dan 42 DSA untuk mempublikasikan laporan yang berisi informasi tentang moderasi konten Snap untuk layanan Snapchat yang dianggap sebagai “platform online”, yaitu, Spotlight, Untuk Anda, Profil Publik, Peta, Lensa, dan Periklanan. Laporan ini harus dipublikasikan setiap 6 bulan, mulai tanggal 25 Oktober 2023.

Snap menerbitkan laporan transparansi dua kali dalam setahun untuk memberikan wawasan tentang upaya keamanan Snap serta sifat dan volume konten yang dilaporkan di platform kami. Laporan terbaru kami untuk H2 2023 (1 Juli - 31 Desember) dapat ditemukan di sini. Metrik khusus untuk Undang-Undang Layanan Digital, dapat ditemukan di halaman ini.

Rata-rata Penerima Aktif Bulanan 
(DSA Pasal 24.2 dan 42.3)

Per 31 Desember 2023, terdapat 90,9 juta penerima aktif bulanan rata-rata (“AMAR”) dari aplikasi Snapchat di UE. Ini berarti bahwa rata-rata selama 6 bulan terakhir, 90,9 juta pengguna terdaftar di Uni Eropa telah membuka aplikasi Snapchat setidaknya satu kali selama satu bulan tertentu.

Angka ini dirinci berdasarkan Negara Anggota sebagai berikut:

Angka berikut dihitung untuk memenuhi aturan DSA saat ini dan hanya dapat digunakan untuk tujuan DSA. Kami telah mengubah cara kami menghitung angka ini dari waktu ke waktu, termasuk sebagai respons terhadap perubahan kebijakan internal, panduan regulator dan teknologi, dan angka tidak dimaksudkan untuk dibandingkan antar periode. Hal ini mungkin juga berbeda dengan perhitungan yang digunakan untuk angka pengguna aktif lainnya yang kami publikasikan untuk tujuan lain.


Permintaan Pihak Berwenang Negara Anggota
(DSA Pasal 15.1(a))

Permintaan Penghapusan 

Selama periode ini, kami telah menerima 0 permintaan penghapusan dari negara anggota UE sesuai dengan DSA Pasal 9. 

Permintaan Informasi 

Selama periode ini, kami telah menerima permintaan informasi dari negara anggota UE sesuai dengan DSA Pasal 10 sebagai berikut:

Median waktu penyelesaian untuk memberi tahu pihak berwenang tentang penerimaan Permintaan Informasi adalah 0 menit — kami memberikan respons otomatis yang mengonfirmasi tanda terima. Median waktu penyelesaian untuk memberikan efek pada Permintaan Informasi adalah ~ 10 hari. Metrik ini mencerminkan periode waktu sejak Snap menerima IR hingga ketika Snap yakin bahwa permintaan tersebut telah diselesaikan sepenuhnya. Dalam beberapa kasus, lama proses ini sebagian tergantung pada kecepatan penegak hukum merespons setiap permintaan klarifikasi dari Snap yang diperlukan untuk memproses permintaan mereka.

Moderasi Konten 


Semua konten di Snapchat harus mematuhi Panduan Komunitas dan Ketentuan Layanan kami, serta ketentuan, panduan, dan penjelasan pendukung. Mekanisme pendeteksian dan laporan proaktif untuk konten atau akun yang melanggar atau ilegal akan segera ditinjau, di mana, sistem alat kami memproses permintaan, mengumpulkan metadata yang relevan, dan mengarahkan konten yang relevan ke tim moderasi kami melalui antarmuka pengguna terstruktur yang dirancang untuk memfasilitasi operasi peninjauan yang efektif dan efisien. Ketika tim moderasi kami menentukan, baik melalui peninjauan manusia atau peninjauan otomatis, bahwa pengguna telah melanggar Ketentuan, kami dapat menghapus konten atau akun yang melanggar, mengakhiri atau membatasi visibilitas akun tersebut, dan/atau memberi tahu penegak hukum sebagaimana dijelaskan dalam Penjelasan tentang Moderasi, Penindakan, dan Banding Snapchat kami.  Pengguna yang akunnya dikunci oleh tim keamanan kami karena pelanggaran Panduan Komunitas, dapat mengajukan banding terhadap akun yang dikunci, dan pengguna dapat mengajukan banding terhadap penindakan konten tertentu.

Pemberitahuan Konten dan Akun (DSA Pasal 15.1(b))

Snap telah menerapkan mekanisme untuk memungkinkan pengguna dan non-pengguna untuk memberi tahu Snap tentang konten dan akun yang melanggar Panduan Komunitas dan Ketentuan Layanan kami di platform, termasuk yang mereka anggap ilegal sesuai dengan DSA Pasal 16.  Mekanisme pelaporan ini tersedia di aplikasi itu sendiri (yaitu langsung dari konten) dan di situs web kami.

Selama periode yang relevan, kami menerima pemberitahuan konten dan akun berikut di UE:

Dalam H2’23, kami menangani 664.896 pemberitahuan hanya melalui cara otomatis. Semua hal ini ditegakkan berdasarkan Panduan Komunitas kami karena Panduan Komunitas kami memblokir konten ilegal. 

Selain konten dan akun yang dibuat pengguna, kami memoderasi iklan jika mereka melanggar kebijakan platform kami. Di bawah ini adalah total iklan yang dilaporkan dan dihapus di UE. 

Pemberitahuan Pelapor Tepercaya (Pasal 15.1(b))

Untuk periode Laporan Transparansi terbaru kami (H2 2023), tidak ada Pelapor Tepercaya yang ditunjuk secara resmi berdasarkan DSA. Akibatnya, jumlah pemberitahuan yang dikirimkan oleh Pelapor Tepercaya tersebut adalah nol (0) untuk periode ini.

Moderasi Konten Proaktif (Pasal 15.1(c))

Selama periode yang relevan, Snap menegakkan konten dan akun berikut di UE setelah melibatkan moderasi konten atas inisiatifnya sendiri:

Semua upaya moderasi inisiatif Snap sendiri memanfaatkan manusia atau otomatisasi. Di permukaan konten publik kami, konten umumnya melalui moderasi otomatis dan peninjauan manusia sebelum memenuhi syarat untuk didistribusikan ke pemirsa yang lebih luas. Berkaitan dengan alat otomatis, hal ini mencakup:

  • Deteksi proaktif terhadap konten ilegal dan melanggar menggunakan machine learning;

  • Alat pencocokan hash (seperti PhotoDNA dan CSAI Match Google);

  • Deteksi Bahasa Kasar untuk menolak konten berdasarkan daftar kata kunci kasar yang diidentifikasi dan diperbarui secara rutin, termasuk emoji


Banding (Pasal 15.1(d))

Selama periode yang relevan, Snap memproses banding konten dan akun berikut di UE melalui sistem penanganan keluhan internal:


* Menghentikan eksploitasi seksual anak adalah prioritas utama. Snap mencurahkan sumber daya yang signifikan untuk hal ini dan tidak memiliki toleransi untuk perilaku tersebut.  Pelatihan khusus diperlukan untuk meninjau banding CSE, dan ada tim agen terbatas yang menangani tinjauan ini karena sifat konten yang eksplisit.  Selama musim gugur tahun 2023, Snap menerapkan perubahan kebijakan yang memengaruhi konsistensi penindakan CSE tertentu, dan kami telah menindaklanjuti ketidakkonsistenan ini melalui pelatihan ulang agen dan jaminan kualitas yang ketat.  Kami berharap bahwa laporan transparansi berikutnya akan mengungkapkan kemajuan dalam meningkatkan waktu respons untuk banding CSE dan meningkatkan ketepatan penindakan awal. 

Cara otomatis untuk moderasi konten (Pasal 15.1(d))

Di permukaan konten publik kami, konten umumnya melalui moderasi otomatis dan peninjauan manusia sebelum memenuhi syarat untuk didistribusikan ke pemirsa yang lebih luas. Berkaitan dengan alat otomatis, hal ini mencakup:

  • Deteksi proaktif terhadap konten ilegal dan melanggar menggunakan machine learning;

  • Alat pencocokan hash (seperti PhotoDNA dan CSAI Match Google);

  • Deteksi Bahasa Kasar untuk menolak konten berdasarkan pada daftar kata kunci kasar yang diidentifikasi dan diperbarui secara rutin, termasuk emoji.


Keakuratan teknologi moderasi otomatis untuk semua bahaya adalah sekitar 96,61% dan tingkat kesalahan adalah sekitar 3,39%.


Perlindungan Moderasi Konten (Pasal 15.1(d))

Kami menyadari ada risiko yang terkait dengan moderasi konten, termasuk risiko terhadap kebebasan berekspresi dan berkumpul yang mungkin disebabkan oleh bias moderator otomatis dan manusia serta penyalahgunaan laporan, seperti oleh pemerintah, konstituen politik, atau organisasi lainnya. Snapchat umumnya bukan tempat untuk konten politik atau aktivis, khususnya di ruang publik kami. 


Tapi, untuk melindungi dari risiko ini, Snap memiliki pengujian dan pelatihan serta memiliki prosedur yang konsisten dan kuat untuk menangani laporan konten yang melanggar atau ilegal, termasuk dari penegak hukum dan otoritas pemerintah. Kami terus mengevaluasi dan mengembangkan algoritma moderasi konten kami. Meski potensi bahaya terhadap kebebasan berekspresi sulit untuk dideteksi, kami tidak menemukan adanya masalah yang signifikan, dan kami membuka kesempatan bagi pengguna untuk melaporkan kesalahan jika hal tersebut terjadi. 


Kebijakan dan sistem kami mendukung penindakan yang konsisten dan adil serta, sebagaimana dijelaskan di atas, memberikan kesempatan kepada Snapchatter untuk memperdebatkan hasil penindakan secara bermakna melalui proses Pemberitahuan dan Banding yang bertujuan untuk menjaga kepentingan komunitas kami sekaligus melindungi hak individu Snapchatter.

Kami terus berupaya untuk meningkatkan kebijakan dan proses penindakan kami serta telah mengambil langkah besar dalam memerangi konten dan aktivitas yang berpotensi berbahaya dan ilegal di Snapchat. Hal ini ditunjukkan oleh tren peningkatan dalam angka pelaporan dan penindakan yang dimuat di Laporan Transparansi terbaru kami serta penurunan tingkat prevalensi pelanggaran di Snapchat secara keseluruhan.


Penyelesaian di Luar Pengadilan (Pasal 24.1(a))

Untuk periode Laporan Transparansi terbaru kami (H2 2023), tidak ada badan penyelesaian sengketa di luar pengadilan yang ditunjuk berdasarkan DSA. Akibatnya, jumlah sengketa yang diajukan ke badan tersebut adalah nol (0) untuk periode ini, dan kami tidak dapat memberikan hasil, median waktu penyelesaian untuk penyelesaian, dan bagian sengketa di mana kami menerapkan keputusan badan tersebut. 



Penangguhan Akun (Pasal 24.1(a))

Selama H2 2023,  kami tidak memiliki penangguhan akun yang diberlakukan sesuai dengan Pasal 23. Tim Kepercayaan & Keamanan Snap memiliki prosedur untuk membatasi kemungkinan akun pengguna yang sering mengirimkan pemberitahuan atau keluhan yang jelas tidak berdasar. Prosedur ini termasuk membatasi pembuatan laporan duplikat dan penggunaan filter email untuk mencegah pengguna yang sering mengirimkan laporan yang tidak berdasar untuk terus melakukan hal tersebut. Snap melakukan tindakan yang sesuai terhadap akun sebagaimana dijelaskan dalam Penjelasan tentang Moderasi, Penindakan, dan Banding Snapchat dan informasi mengenai tingkat penindakan akun Snap dapat ditemukan dalam Laporan Transparansi kami (H2 2023). Langkah-langkah tersebut akan terus ditinjau dan diulang.


Sumber Daya, Keahlian, dan Dukungan Moderator (Pasal 42.2)

Tim moderasi konten kami beroperasi di seluruh dunia, memungkinkan kami untuk membantu menjaga keamanan Snapchatter 24/7. Di bawah ini, Anda akan menemukan perincian sumber daya moderasi manusia kami berdasarkan spesialisasi bahasa moderator (harap diperhatikan bahwa beberapa moderator mengkhususkan diri dalam berbagai bahasa) per bulan 31 Desember 2023:

Tabel di atas mencakup semua moderator yang mendukung bahasa negara anggota UE per 31 Desember 2023. Dalam situasi ketika kami memerlukan dukungan bahasa tambahan, kami akan menggunakan layanan penerjemahan.

Moderator direkrut menggunakan deskripsi pekerjaan standar yang mencakup persyaratan bahasa (tergantung pada kebutuhan). Persyaratan bahasa menyatakan bahwa kandidat harus dapat menunjukkan kecakapan dalam menulis dan berbicara menggunakan bahasa tertentu dan memiliki pengalaman kerja selama setidaknya satu tahun untuk posisi tingkat awal. Kandidat juga harus memenuhi persyaratan pendidikan dan latar belakang untuk dapat dipertimbangkan dalam perekrutan. Kandidat juga harus menunjukkan pemahaman tentang peristiwa terkini untuk negara atau wilayah moderasi konten yang akan mereka tangani.

Tim moderasi kami menerapkan kebijakan dan langkah-langkah penindakan untuk membantu melindungi komunitas Snapchat. Pelatihan dilakukan dalam periode beberapa minggu, yang dalam prosesnya anggota tim baru diajari tentang kebijakan, alat, dan prosedur eskalasi Snap. Setelah pelatihan, setiap moderator harus lulus ujian sertifikasi sebelum diizinkan untuk meninjau konten. Tim moderasi kami secara berkala mengikuti pelatihan penyegaran yang relevan dengan alur kerja mereka, terutama ketika kami menghadapi kasus yang berada di ambang batas kebijakan dan kasus yang bergantung pada konteks. Kami juga menjalankan program peningkatan keterampilan, sesi sertifikasi, dan kuis guna memastikan semua moderator memiliki pengetahuan terkini dan mematuhi semua kebijakan terbaru. Terakhir, ketika tren konten yang mendesak muncul berdasarkan peristiwa terkini, kami dengan cepat menyebarkan klarifikasi kebijakan sehingga tim dapat merespons sesuai dengan kebijakan Snap.

Tim moderasi konten kami – “tim reaksi cepat digital” Snap – dibekali dengan dukungan dan sumber daya yang signifikan, termasuk dukungan kesehatan di tempat kerja dan akses mudah ke layanan kesehatan mental. 

Laporan Pemindaian Media Eksploitasi dan Pelecehan Seksual Anak (CSEA)


Latar Belakang

Eksploitasi seksual terhadap anggota mana pun dari komunitas kami, terutama anak-anak di bawah umur, adalah ilegal, menjijikkan, dan dilarang oleh Panduan Komunitas kami. Mencegah, mendeteksi, dan memberantas Eksploitasi dan Citra Pelecehan Seksual Anak atau Child Sexual Exploitation and Abuse Imagery (CSEAI) di platform kami adalah prioritas utama bagi Snap, dan kami terus mengembangkan kemampuan kami untuk memerangi hal ini serta jenis kejahatan lainnya.


Kami menggunakan pencocokan hash yang canggih dari PhotoDNA dan Child Sexual Abuse Imagery (CSAI) Match dari Google untuk mengidentifikasi gambar dan video pelecehan seksual anak yang diketahui ilegal dan melaporkannya ke U.S. National Center for Missing and Exploited Children (NCMEC), sebagaimana diwajibkan oleh hukum. NCMEC kemudian akan berkoordinasi dengan penegak hukum dalam negeri atau internasional, sesuai keharusan. 


Laporan

Data di bawah ini didasarkan pada hasil pemindaian proaktif menggunakan PhotoDNA dan/atau media CSAI Match yang diunggah dari Rol Kamera pengguna ke Snapchat.

Menghentikan eksploitasi seksual anak adalah prioritas utama. Snap mencurahkan sumber daya yang signifikan untuk hal ini dan tidak memiliki toleransi untuk perilaku tersebut.  Pelatihan khusus diperlukan untuk meninjau banding CSE, dan ada tim agen terbatas yang menangani tinjauan ini karena sifat konten yang eksplisit.  Selama musim gugur tahun 2023, Snap menerapkan perubahan kebijakan yang memengaruhi konsistensi penindakan CSE tertentu, dan kami telah menindaklanjuti ketidakkonsistenan ini melalui pelatihan ulang agen dan jaminan kualitas yang ketat.  Kami berharap bahwa laporan transparansi berikutnya akan mengungkapkan kemajuan dalam meningkatkan waktu respons untuk banding CSE dan meningkatkan ketepatan penindakan awal.

Perlindungan Moderasi Konten

Perlindungan yang diterapkan untuk Pemindaian Media CSEA ditetapkan dalam bagian “Perlindungan Moderasi Konten” di atas berdasarkan Laporan DSA kami.


Laporan Pemindaian Media Eksploitasi dan Pelecehan Seksual Anak (CSEA)


Latar Belakang

Eksploitasi seksual terhadap anggota mana pun dari komunitas kami, terutama anak-anak di bawah umur, adalah ilegal, menjijikkan, dan dilarang oleh Panduan Komunitas kami. Mencegah, mendeteksi, dan memberantas Eksploitasi dan Citra Pelecehan Seksual Anak atau Child Sexual Exploitation and Abuse Imagery (CSEAI) di platform kami adalah prioritas utama bagi Snap, dan kami terus mengembangkan kemampuan kami untuk memerangi hal ini serta jenis kejahatan lainnya.


Kami menggunakan pencocokan hash yang canggih dari PhotoDNA dan Child Sexual Abuse Imagery (CSAI) Match dari Google untuk mengidentifikasi gambar dan video pelecehan seksual anak yang diketahui ilegal dan melaporkannya ke U.S. National Center for Missing and Exploited Children (NCMEC), sebagaimana diwajibkan oleh hukum. NCMEC kemudian akan berkoordinasi dengan penegak hukum dalam negeri atau internasional, sesuai keharusan. 


Laporan

Data di bawah ini didasarkan pada hasil pemindaian proaktif menggunakan PhotoDNA dan/atau media CSAI Match yang diunggah dari Rol Kamera pengguna ke Snapchat.

Menghentikan eksploitasi seksual anak adalah prioritas utama. Snap mencurahkan sumber daya yang signifikan untuk hal ini dan tidak memiliki toleransi untuk perilaku tersebut.  Pelatihan khusus diperlukan untuk meninjau banding CSE, dan ada tim agen terbatas yang menangani tinjauan ini karena sifat konten yang eksplisit.  Selama musim gugur tahun 2023, Snap menerapkan perubahan kebijakan yang memengaruhi konsistensi penindakan CSE tertentu, dan kami telah menindaklanjuti ketidakkonsistenan ini melalui pelatihan ulang agen dan jaminan kualitas yang ketat.  Kami berharap bahwa laporan transparansi berikutnya akan mengungkapkan kemajuan dalam meningkatkan waktu respons untuk banding CSE dan meningkatkan ketepatan penindakan awal.

Perlindungan Moderasi Konten

Perlindungan yang diterapkan untuk Pemindaian Media CSEA ditetapkan dalam bagian “Perlindungan Moderasi Konten” di atas berdasarkan Laporan DSA kami.


Menghentikan eksploitasi seksual anak adalah prioritas utama. Snap mencurahkan sumber daya yang signifikan untuk hal ini dan tidak memiliki toleransi untuk perilaku tersebut.  Pelatihan khusus diperlukan untuk meninjau banding CSE, dan ada tim agen terbatas yang menangani tinjauan ini karena sifat konten yang eksplisit.  Selama musim gugur tahun 2023, Snap menerapkan perubahan kebijakan yang memengaruhi konsistensi penindakan CSE tertentu, dan kami telah menindaklanjuti ketidakkonsistenan ini melalui pelatihan ulang agen dan jaminan kualitas yang ketat.  Kami berharap bahwa laporan transparansi berikutnya akan mengungkapkan kemajuan dalam meningkatkan waktu respons untuk banding CSE dan meningkatkan ketepatan penindakan awal.

Perlindungan Moderasi Konten

Perlindungan yang diterapkan untuk Pemindaian Media CSEA ditetapkan dalam bagian “Perlindungan Moderasi Konten” di atas berdasarkan Laporan DSA kami.