Membagikan Tanggapan kami kepada Grup Masyarakat Sipil tentang Integritas Pemilu

22 April 2024

Awal bulan ini, Snap, bersama dengan perusahaan teknologi besar lainnya, menerima surat dari lebih dari 200 organisasi masyarakat sipil, peneliti, dan jurnalis yang mendesak kami untuk meningkatkan upaya dalam melindungi integritas pemilu tahun 2024. Kami menghargai advokasi mereka dan berbagi komitmen untuk memastikan bahwa orang-orang di seluruh dunia dapat berpartisipasi dalam pemilu dan kami berusaha untuk membantu melindungi demokrasi.

Mengingat pentingnya masalah ini, dan tanggung jawab mendalam yang kami rasakan kepada ratusan juta orang yang menggunakan Snapchat untuk berkomunikasi dengan teman dan keluarga mereka serta mempelajari lebih lanjut tentang dunia melalui konten, kami merasa penting untuk mengeluarkan respons kami secara terbuka. Anda dapat membaca surat kami di bawah ini, dan mempelajari lebih lanjut tentang rencana kami untuk pemilihan tahun ini di sini.

***

21 April 2024

Organisasi masyarakat sipil yang terhormat:

Terima kasih atas kewaspadaan dan advokasi Anda yang sedang berlangsung di tahun ini terkait aktivitas elektoral yang belum pernah terjadi sebelumnya di seluruh dunia. Kami berterima kasih atas kesempatan yang diberikan untuk membagikan lebih banyak tentang cara Snap melakukan pendekatan terhadap tanggung jawab kami di lingkungan ini, dan bagaimana upaya ini sesuai dengan nilai-nilai yang telah lama dianut perusahaan kami. 

Ikhtisar Pendekatan Snapchat

Pendekatan kami terhadap integritas platform terkait pemilihan umum sifatnya berlapis. Pada tingkat tinggi, elemen inti meliputi:

  • Perlindungan produk yang disengaja;

  • Kebijakan yang jelas dan bijaksana; 

  • Pendekatan cermat terhadap iklan politik;

  • Operasi yang kolaboratif dan terkoordinasi; dan

  • Menawarkan alat dan sumber daya untuk memberdayakan Snapchatter.


Secara keseluruhan, pilar ini mendukung pendekatan kami untuk mengurangi berbagai risiko terkait pemilu, sambil juga memastikan Snapchatter memiliki akses ke alat dan informasi yang mendukung partisipasi dalam proses demokrasi di seluruh dunia. 

1. Perlindungan Produk yang Disengaja

Sejak awal, Snapchat dirancang secara berbeda dari media sosial tradisional. Snapchat tidak menghadirkan umpan konten yang tak ada habisnya, dan tidak memungkinkan orang untuk melakukan streaming langsung. 

Kami telah lama menyadari bahwa ancaman terbesar dari disinformasi digital yang berbahaya berasal dari kecepatan dan skala di mana beberapa platform digital memungkinkannya untuk menyebar. Kebijakan dan arsitektur platform kami membatasi peluang untuk konten yang tidak diawasi atau tidak dimoderasi untuk mencapai skala yang berarti tanpa terkendali. Namun, kami memoderasi konten terlebih dahulu sebalum dapat diperkuat ke pemirsa yang lebih besar dan secara luas membatasi distribusi berita dan informasi politik kecuali berasal dari penerbit dan kreator tepercaya (termasuk, misalnya, organisasi media seperti The Wall Street Journal dan The Washington Post di AS, Le Monde di Prancis, dan Times Now di India). 

Selama setahun terakhir, pengenalan fitur AI generatif di Snapchat telah dipenuhi dengan tingkat intensi yang sama. Kami membatasi kemampuan produk AI kami untuk menghasilkan konten atau gambar yang dapat digunakan untuk merusak proses sipil atau menipu pemilih. Chatbot kami, My AI, dapat memberikan informasi tentang peristiwa politik atau konteks seputar masalah sosial; chatbot ini diprogram untuk tidak menawarkan pendapat tentang kandidat politik atau mendorong Snapchatter untuk memilih dengan hasil tertentu. Dan dalam fitur teks-ke-gambar, kami telah mengadopsi pembatasan tingkat sistem pada pembuatan kategori konten berisiko, termasuk kemiripan tokoh politik. 

Selama lebih dari satu dekade, dan di beberapa siklus pemilu, arsitektur produk kami telah memainkan peran sentral dalam menciptakan lingkungan yang sangat tidak ramah bagi pelaku yang bekerja untuk mengganggu proses sipil atau merusak lingkungan informasi. Dan bukti menunjukkan bahwa ini berjalan dengan baik. Data terbaru kami menunjukkan bahwa dari 1 Januari hingga 30 Juni 2023, jumlah total penegakan hukum secara global untuk informasi palsu yang berbahaya (termasuk risiko terhadap integritas pemilu) mewakili 0,0038% dari total konten yang ditegakkan, termasuk dalam kategori kemungkinan bahaya paling rendah di platform kami.

Kami akan terus membawa pendekatan produk ke depan ke dalam upaya integritas platform kami pada tahun 2024, termasuk komitmen kami sebagai penandatangan Kesepakatan Teknologi untuk Memerangi Penggunaan AI yang Menipu dalam Pemilu 2024.

2. Kebijakan yang Jelas dan Bijaksana

Untuk melengkapi perlindungan produk, kami telah menerapkan berbagai kebijakan yang berfungsi untuk meningkatkan keamanan dan integritas dalam konteks peristiwa penting seperti pemilu. Panduan Komunitas kami secara tegas melarang, misalnya, informasi palsu yang berbahaya, ujaran kebencian, dan ancaman atau seruan untuk melakukan kekerasan. 

Pada topik konten berbahaya sehubungan dengan pemilu, kebijakan eksternal kami bersifat kuat dan diinformasikan oleh peneliti terkemuka di bidang integritas informasi. Mereka menguraikan kategori spesifik konten berbahaya yang dilarang, termasuk:

  • Gangguan prosedural: informasi yang salah terkait dengan prosedur pemilu atau sipil yang sebenarnya, seperti salah mengartikan tanggal dan waktu penting atau persyaratan kelayakan untuk berpartisipasi;

  • Gangguan partisipasi: konten yang mencakup intimidasi terhadap keselamatan pribadi atau menyebarkan desas-desus untuk menghalangi partisipasi dalam proses pemilu atau sipil;

  • Partisipasi curang atau melanggar hukum: konten yang mendorong orang untuk menampilkan diri secara tidak benar untuk berpartisipasi dalam proses sipil atau memberikan atau menghancurkan surat suara secara ilegal; dan

  • Delegitimasi proses sipil: konten yang bertujuan untuk mendelegitimasi institusi demokrasi berdasarkan klaim palsu atau menyesatkan tentang hasil pemilu, misalnya.

Kembali ke Berita
1 Perlu dicatat bahwa membagikan konten yang dihasilkan AI atau yang disempurnakan AI di Snapchat tidak melanggar kebijakan kami, dan tentu saja bukan sesuatu yang kami pahami sebagai hal yang berbahaya secara inheren. Selama bertahun-tahun, Snapchatter telah menemukan kegembiraan dalam memanipulasi gambar dengan Lensa yang menyenangkan dan pengalaman AR lainnya, dan kami bersemangat melihat komunitas kami dapat menggunakan AI untuk mengekspresikan diri secara kreatif. Namun, jika konten tersebut menipu (atau berbahaya), kami tentu saja akan menghapusnya, terlepas dari sejauh mana teknologi AI mungkin telah berperan dalam pembuatannya.