Chia sẻ phản hồi của chúng tôi với các Nhóm Xã hội Dân sự về Liêm chính trong Bầu cử

Ngày 22 tháng 4 năm 2024

Đầu tháng này, Snap cùng với các công ty công nghệ lớn khác đã nhận được thư từ hơn 200 tổ chức xã hội dân sự, nhà nghiên cứu và nhà báo kêu gọi chúng tôi tăng cường nỗ lực bảo vệ tính liêm chính của các cuộc bầu cử vào năm 2024. Chúng tôi đánh giá cao sự ủng hộ của họ và chia sẻ nỗ lực của họ trong việc đảm bảo rằng mọi người trên khắp thế giới có thể tham gia vào cuộc bầu cử, đồng thời làm mọi thứ có thể để giúp bảo vệ nền dân chủ của chúng ta.

Do tầm quan trọng của những vấn đề này và trách nhiệm sâu sắc của chúng tôi đối với hàng trăm triệu người sử dụng Snapchat để liên lạc với bạn bè và gia đình của họ cũng như tìm hiểu thêm về thế giới thông qua nội dung của chúng tôi, chúng tôi cảm thấy điều quan trọng là phải đưa ra phản hồi của mình một cách công khai. Bạn có thể đọc thư của chúng tôi bên dưới và tìm hiểu thêm về kế hoạch của chúng tôi cho cuộc bầu cử năm nay tại đây.

***

Ngày 21 tháng 4 năm 2024

Kính thưa các tổ chức xã hội dân sự:

Xin chân thành cảm ơn quý cơ quan vì đã cẩn trọng và ủng hộ liên tục trong năm hoạt động bầu cử chưa từng có trên toàn thế giới này. Chúng tôi rất biết ơn vì có cơ hội chia sẻ nhiều hơn về cách Snap tiếp cận trách nhiệm của chúng tôi trong môi trường này và cách những nỗ lực này hướng tới các giá trị lâu dài của công ty chúng tôi.

Tổng quan về phương pháp tiếp cận Snapchat

Phương pháp tiếp cận của chúng tôi đối với tính liêm chính của nền tảng liên quan đến bầu cử được chia thành nhiều lớp. Ở cấp độ cao, các yếu tố cốt lõi bao gồm:

  • Các biện pháp bảo vệ sản phẩm có chủ định;

  • Chính sách rõ ràng và chu đáo; 

  • Cách tiếp cận tận tâm đối với quảng cáo chính trị;

  • Hoạt động hợp tác, phối hợp; và

  • Cung cấp các công cụ và tài nguyên để hỗ trợ người dùng Snapchat.


Tóm lại, những trụ cột này củng cố cách tiếp cận của chúng tôi nhằm giảm thiểu nhiều rủi ro liên quan đến bầu cử, đồng thời đảm bảo người dùng Snapchat có quyền truy cập vào các công cụ và thông tin hỗ trợ việc tham gia vào các quy trình dân chủ trên toàn thế giới.

1. Các biện pháp bảo vệ sản phẩm có chủ định

Ngay từ đầu, Snapchat đã được thiết kế khác với mạng xã hội truyền thống. Snapchat không mở ra nguồn cấp nội dung vô tận, chưa được kiểm duyệt và ứng dụng này không cho phép mọi người phát trực tiếp.

Từ lâu, chúng tôi đã nhận ra rằng mối đe dọa lớn nhất từ thông tin kỹ thuật số sai lệch gây hại bắt nguồn từ tốc độ và quy mô mà một số nền tảng kỹ thuật số cho phép nó lan truyền. Kiến trúc và chính sách nền tảng của chúng tôi hạn chế cơ hội để nội dung chưa được kiểm duyệt hoặc chưa được kiểm duyệt đạt được quy mô đáng kể mà không bị kiểm soát. Thay vào đó, chúng tôi kiểm duyệt trước nội dung trước khi nội dung đó có thể được phổ biến tới lượng lớn khán giả và hạn chế phổ biến việc phân phối tin tức và thông tin chính trị trừ khi nội dung đó đến từ các nhà xuất bản và người sáng tạo đáng tin cậy (ví dụ: bao gồm các tổ chức truyền thông như The Wall Street JournalThe Washington Post ở Mỹ, Le Monde ở Pháp và Times Now ở Ấn Độ). 

Trong năm qua, việc giới thiệu các tính năng AI tổng quát trên Snapchat đã đạt được mục đích tương tự. Chúng tôi hạn chế khả năng tạo ra nội dung hoặc hình ảnh của các sản phẩm AI có thể được sử dụng để phá hoại các quy trình dân sự hoặc đánh lừa cử tri. Ví dụ: chatbot của chúng tôi, My AI, có thể cung cấp thông tin về các sự kiện chính trị hoặc bối cảnh xung quanh các vấn đề xã hội; nó được lập trình để không đưa ra ý kiến về các ứng cử viên chính trị hoặc khuyến khích người dùng Snapchat bỏ phiếu cho một kết quả cụ thể. Và trong các tính năng chuyển văn bản thành hình ảnh, chúng tôi đã áp dụng các hạn chế cấp hệ thống đối với việc tạo các danh mục nội dung rủi ro, bao gồm ảnh chân dung của các nhân vật chính trị nổi tiếng.

Trong hơn một thập kỷ nay và qua nhiều chu kỳ bầu cử, cấu trúc sản phẩm của chúng tôi đã đóng vai trò trung tâm trong việc tạo ra một môi trường hết sức khắc nghiệt cho những kẻ hoạt động nhằm phá vỡ các quy trình dân sự hoặc phá hoại môi trường thông tin. Và bằng chứng cho thấy nó hoạt động tốt. Dữ liệu gần đây nhất của chúng tôi cho thấy rằng từ ngày 1 tháng 1 đến ngày 30 tháng 6 năm 2023, tổng số biện pháp thực thi trên toàn cầu đối với thông tin sai lệch có hại (bao gồm rủi ro về liêm chính trong bầu cử) chiếm 0,0038% tổng số nội dung được thực thi, thuộc loại có khả năng gây hại thấp nhất đối với nền tảng của chúng tôi.

Chúng tôi sẽ tiếp tục áp dụng cách tiếp cận hướng tới sản phẩm cho các nỗ lực đảm bảo tính liêm chính trên nền tảng của mình vào năm 2024, bao gồm cả các cam kết của chúng tôi với tư cách là các bên ký kết Hiệp định Công nghệ nhằm chống lại hành vi sử dụng AI lừa đảo trong các cuộc bầu cử năm 2024.

2. Chính sách rõ ràng và chu đáo

Để bổ sung cho các biện pháp bảo vệ sản phẩm của mình, chúng tôi đã triển khai một loạt chính sách nhằm nâng cao tính an toàn và tính liêm chính trong bối cảnh diễn ra các sự kiện quan trọng như bầu cử. Nguyên tắc Cộng đồng của chúng tôi nghiêm cấm một cách rõ ràng, chẳng hạn như thông tin sai lệch có hại, lời nói căm thù và các mối đe dọa hoặc kêu gọi bạo lực.

Về chủ đề nội dung có hại liên quan đến bầu cử, các chính sách đối ngoại của chúng tôi rất mạnh mẽ và được trau dồi bởi các nhà nghiên cứu hàng đầu trong lĩnh vực liêm chính thông tin. Các nguyên tắc này nêu rõ các danh mục nội dung có hại cụ thể bị cấm, bao gồm:

  • Can thiệp về thủ tục: thông tin sai lệch về cuộc bầu cử hoặc các thủ tục công dân, ví dụ như thông tin sai lệch về các mốc thời gian quan trọng hoặc điều kiện đủ để tham gia.

  • Can thiệp sự tham gia: Can thiệp về sự tham gia: những nội dung bao gồm hành vi đe dọa đến an toàn cá nhân hoặc phát tán tin đồn để ngăn cản sự tham gia vào quá trình bầu cử hoặc quá trình công dân;

  • Tham gia gian lận hoặc bất hợp pháp: những nội dung khuyến khích mọi người đưa thông tin sai lệch về bản thân mình để tham gia quá trình công dân hoặc bỏ phiếu hoặc hủy phiếu bất hợp pháp; và

  • Bác bỏ tính hợp pháp hóa của các quy trình công dân: ví dụ những nội dung nhằm bác bỏ tính hợp pháp hóa của các thể chế dân chủ dựa trên những tuyên bố sai lệch hoặc gây hiểu nhầm về kết quả bầu cử.

Quay lại mục Tin Tức
1 Điều đáng lưu ý là việc chia sẻ nội dung do AI tạo hoặc được nâng cao bởi AI trên Snapchat không trái với chính sách của chúng tôi và chắc chắn không phải là điều mà chúng tôi xác định bản chất là có hại. Trong nhiều năm nay, người dùng Snapchat đã tìm thấy niềm vui trong việc xử lý hình ảnh bằng Ống kính thú vị và các trải nghiệm AR khác, đồng thời chúng tôi rất vui mừng về những cách mà cộng đồng của chúng tôi có thể sử dụng AI để thể hiện bản thân một cách sáng tạo. Tuy nhiên, nếu nội dung đó mang tính lừa đảo (hoặc có hại), tất nhiên chúng tôi sẽ xóa nội dung đó, bất kể mức độ mà công nghệ AI mang đến trong việc tạo ra nội dung đó.