25 tháng 10 năm 2024
17 tháng 12, 2024
Chào mừng bạn đến với trang minh bạch của Liên minh châu Âu (EU) của chúng tôi, nơi chúng tôi công khai thông tin cụ thể của EU theo Đạo luật Dịch vụ Kỹ thuật số (DSA), Chỉ thị Dịch vụ Truyền thông Nghe nhìn (AVMSD), Đạo luật Truyền thông Hà Lan (DMA) và Quy định Trực tuyến về Nội dung Khủng bố (TCO). Xin lưu ý rằng bạn có thể xem phiên bản cập nhật mới nhất của Báo cáo minh bạch này trong phần ngôn ngữ Anh-Mỹ.
Snap Group Limited đã bổ nhiệm Snap B.V. làm Đại diện Pháp lý cho các mục đích của DSA. Bạn có thể liên hệ người đại diện của DSA qua dsa-enquiries@snapchat.com, AVMSD cùng DMA qua vsp-enquiries@snapchat.com, TCO qua tco-enquiries@snapchat.com trên Trang web Hỗ trợ của chúng tôi tại [đây] hoặc tại:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Hà Lan
Nếu bạn là cơ quan thực thi luật pháp, vui lòng thực hiện theo các bước được quy định tại đây.
Vui lòng sử dụng tiếng tiếng Anh hoặc tiếng Hà Lan khi liên hệ với chúng tôi.
Đối với DSA, chúng tôi chịu sự quản lý của Ủy ban châu Âu và Cơ quan Quản lý Người tiêu dùng và Thị trường Hà Lan (ACM). Đối với AVMSD và DMA, chúng tôi chịu sự quản lý của Cơ quan Truyền thông Hà Lan (CvdM). Đối với TCO, chúng tôi chịu sự quản lý của Cơ quan Quản lý Hà Lan về phòng chống Nội dung khủng bố trực tuyến và Tư liệu Lạm dụng Tình dục Trẻ em (ATKM).
Cập nhật lần cuối: Ngày 25 tháng 10 năm 2024
Chúng tôi công bố bản báo cáo này liên quan đến các nỗ lực kiểm duyệt nội dung của chúng tôi trên Snapchat theo các yêu cầu báo cáo minh bạch trong Điều 15,24 và 42 của Đạo luật Dịch vụ Kỹ thuật số của Liên minh Châu Âu (EU) (Quy định (EU) 2022/2065) ("DSA"). Trừ khi có ghi chú khác, thông tin trong báo cáo này là cho giai đoạn báo cáo từ ngày 1 tháng 1 năm 2024 đến ngày 30 tháng 6 năm 2024 (nửa đầu năm 2024) và bao gồm việc kiểm duyệt nội dung trên các tính năng của Snapchat được quy định bởi DSA.
Chúng tôi liên tục cố gắng cải thiện báo cáo của mình. Trong giai đoạn báo cáo này (nửa đầu năm 2024), chúng tôi đã thực hiện các thay đổi đối với cấu trúc của bản báo cáo với các bảng mới và khác biệt hơn để cung cấp cái nhìn sâu sắc hơn về các nỗ lực kiểm duyệt nội dung của chúng tôi.
Tính đến ngày 1 tháng 10 năm 2024, chúng tôi có 92,9 triệu người dùng hoạt động trung bình hàng tháng (“AMAR”) của ứng dụng Snapchat ở EU. Điều này có nghĩa là, trung bình trong giai đoạn 6 tháng kết thúc nagyf 30 tháng 9 năm 2024, 92,9 triệu người dùng đã đăng ký tại EU đã mở ứng dụng Snapchat ít nhất một lần trong một tháng nhất định.
Con số này được chia theo từng nước thành viên như sau:
Những con số này được tính toán để đáp ứng các yêu cầu DSA hiện tại và chỉ nên được sử dụng cho các mục đích DSA. Chúng tôi đã thay đổi cách chúng tôi tính toán con số này theo thời gian, bao gồm cả việc phản hồi lại thay đổi chính sách nội bộ, hướng dẫn và công nghệ của cơ quan quản lý, và các số liệu không nhằm mục đích so sánh giữa các giai đoạn. Số liệu này cũng khác so với các tính toán được sử dụng cho các số liệu người dùng hoạt động khác cho các mục đích khác.
Trong thời gian báo cáo này (nửa đầu năm 2024), chúng tôi đã nhận được không (0) lệnh hành động chống lại các nội dung bất hợp pháp được xác định cụ thể từ các cơ quan có thẩm quyền của các Quốc gia Thành viên EU, bao gồm cả các lệnh được ban hành theo Điều 9 của DSA
Bởi vì con số này là không (0), nên chúng tôi không thể cung cấp bản phân tích theo loại nội dung bất hợp pháp liên quan hoặc Quốc gia Thành viên ban hành lệnh, hoặc thời gian trung bình để xác nhận đã nhận hoặc ban hành hiệu lực cho các lệnh.
Trong thời gian báo cáo này (nửa đầu năm 2024), chúng tôi đã nhận được các lệnh sau đây để tiết lộ dữ liệu người dùng từ các cơ quan có thẩm quyền của các Quốc gia Thành viên EU, bao gồm cả những lệnh được ban hành theo Điều 10 của DSA:
Thời gian trung bình để thông báo cho các cơ quan có thẩm quyền liên quan về việc nhận các đơn đặt hàng này để cung cấp thông tin là 0 phút - chúng tôi cung cấp một phản hồi xác nhận tự động.
Thời gian trung bình để cung cấp thông tin có hiệu lực cho các đơn đặt hàng này là ~ 7 ngày. Số liệu này phản ánh khoảng thời gian từ khi Snap nhận được đơn đặt hàng đến khi Snap xem xét giải quyết vấn đề hoàn toàn, trong các trường hợp riêng lẻ có thể phụ thuộc một phần vào tốc độ mà cơ quan có thẩm quyền liên quan của Quốc gia Thành viên phản hồi về bất kỳ yêu cầu xác thực cần thiết nào từ Snap để xử lý đơn đặt hàng.
Lưu ý, chúng tôi không cung cấp bản phân tích của các đơn hàng trên để cung cấp thông tin được phân loại theo loại nội dung bất hợp pháp liên quan bởi vì chúng tôi thường không có sẵn thông tin này.
Mọi nội dung trên Snapchat đều phải tuân thủ Nguyên tắc Cộng đồng và Điều khoản dịch vụ của chúng tôi. Một số nội dung nhất định cũng phải tuân thủ các chính sách và nguyên tắc bổ sung. Ví dụ, những nội dung được gửi để đề xuất theo thuật toán cho nhiều đối tượng hơn trên các bề mặt phát sóng công khai của chúng tôi phải đáp ứng các tiêu chuẩn bổ sung cao hơn được cung cấp trong Nguyên tắc Nội dung của chúng tôi về Điều kiện Đề xuất, trong khi các quảng cáo phải tuân theo Các Chính sách Quảng cáo.
Chúng tôi thực thi các chính sách này bằng cách sử dụng công nghệ và đánh giá của con người. Chúng tôi cũng cung cấp cơ chế để người dùng Snapchat báo cáo các vi phạm, bao gồm cả nội dung và hoạt động bất hợp pháp, trực tiếp trong ứng dụng hoặc thông qua trang web của chúng tôi. Các cơ chế phát hiện chủ động và báo cáo sẽ nhanh chóng xem xét, sau đó tự động kết hợp các công cụ tự động và người kiểm duyệt để thực hiện hành động phù hợp theo chính sách của chúng tôi.
Chúng tôi cung cấp thêm thông tin về nội dung kiểm duyệt của chúng tôi trên các nền tảng công khai trong nửa đầu năm 2024 dưới đây
Theo Điều 16 của DSA, Snap đưa ra các cơ chế cho phép người dùng và người không phải người dùng thông báo đến Snap về các mục thông tin cụ thể mà họ cho là nội dung bất hợp pháp. Họ có thể làm vậy bằng cách báo cáo các mẩu nội dung hoặc tài khoản cụ thể, trực tiếp qua ứng dụng Snapchat hoặc trên website của chúng tôi.
Trong suốt báo cáo giai đoạn (H1 2024), chúng tôi đã nhận được những thông báo được báo cáo theo Điều 16 của DSA ở EU sau:
Dưới đây, chúng tôi cung cấp một phân tích phản ánh cách các thông báo này được xử lý- tức là, thông qua một quá trình bao gồm đánh giá con người hoặc chỉ thông qua các phương tiện tự động:
Khi gửi thông báo trong ứng dụng hoặc thông qua trang web của chúng tôi, những người báo cáo có thể chọn một lý do báo cáo cụ thể từ một menu gồm các tuỳ chọn phản ánh các loại vi phạm được liệt kê trong Nguyên tắc Cộng đồng của chúng tôi (ví dụ: phát ngôn thù địch, sử dụng ma tuý hoặc bán hàng). Nguyên tắc Cộng đồng của chúng tôi nghiêm cấm các nội dung và hoạt động bất hợp pháp ở EU, vì vậy lý do báo cáo của chúng tôi chủ yếu phản ánh các danh mục nội dung bất hợp pháp cụ thể ở EU. Tuy nhiên, trong trường hợp một người báo cáo ở EU tin rằng nội dung hoặc tài khoản họ đang báo cáo là bất hợp pháp vì những lý do không được tham chiếu cụ thể trong menu báo cáo của chúng tôi, họ có thể báo cáo cho "nội dung bất hợp pháp khác" và được cung cấp cơ hội giải thích lý do tại sao họ tin rằng những gì họ đang báo cáo là bất hợp pháp.
Nếu sau khi xem xét, chúng tôi xác định rằng nội dung hoặc tài khoản được báo cáo vi phạm Nguyên tắc Cộng đồng (bao gồm cả lý do bất hợp pháp), chúng tôi có thể (i)xoá nội dung vi phạm, (ii) cảnh cáo chủ tài khoản có liên quan và áp dụng một cuộc đình công đối với tài khoản, và/ hoặc (iii) khoá tài khoản có liên quan, như đã giải thích thêm trong phần Giải thích về Kiểm duyệt, Thực thi và Khiếu nại của Snapchat.
Trong nửa đầu năm 2024, chúng tôi đã thực hiện các hành động thực thi sau đây sau khi nhận được các thông báo được gửi theo Điều 16 của DSA ở EU:
Trong nửa đầu năm 2024, tất cả các báo cáo về "nội dung bất hợp pháp khác" mà chúng tôi xử lý cuối cùng đều được thực thi theo Nguyên tắc Cộng đồng của chúng tôi bởi vì Nguyên tắc Cộng đồng của chúng tôi cấm các nội dung hoặc hoạt động tương tự. Do đó, chúng tôi đã phân loại các biện pháp cưỡng chế này theo danh mục tương tự của vi phạm Nguyên tắc Cộng đồng trong bảng trên.
Ngoài các biện pháp cưỡng chế nêu trên, chúng tôi có thể thực hiện hành động đối với nội dung được thông báo cho chúng tôi theo các chính sách và hướng dẫn hiện hành khác của Snap:
Đối với nội dung trên các nền tảng phát sóng công khai của chúng tôi, nếu chúng tôi xác định rằng nội dung được báo cáo không đáp ứng các tiêu chuẩn cao hơn của Nguyên tắc Cộng đồng về Điều kiện Đề xuất, chúng tôi có thể từ chối nội dung cho đề xuất theo thuật toán (nếu nội dung không đáp ứng các tiêu chí đủ điều kiện của chúng tôi), hoặc chúng tôi có thể giới hạn việc phân phối nội dung để loại trừ các đối tượng nhạy cảm (nếu nội dung đáp ứng các tiêu chí đủ điều kiện của chúng tôi để đề xuất nhưng nhạy cảm hoặc mang tính gợi ý).
Trong nửa đầu năm 2024, chúng tôi đã thực hiện các hành động sau đây liên quan đến nội dung trên các nền tảng phát sóng công khai của Snapchat được báo cáo cho chúng tôi ở EU, phù hợp với Nguyên tắc Nội dung cho Điều kiện Đề xuất:
Nếu chúng tôi xác định rằng một quảng cáo được báo cáo vi phạm Chính sách Quảng cáo của chúng tôi, chúng tôi có thể xoá nó sau khi xem xét.
Trong nửa đầu năm 2024, chúng tôi đã thực hiện các hành động sau đây liên quan đến các quảng cáo được báo cáo cho chúng tôi ở EU:
Ngoài việc xem xét các thông báo được gửi theo Điều 16 của DSA, Snap kiểm duyệt nội dung, theo sáng kiến riêng của mình trên các nền tảng công khai của Snapchat( ví dụ như Spotlight, Discover). Dưới đây chúng tôi cung cấp thông tin về việc kiểm duyệt nội dung được thực hiện theo sáng kiến riêng của Snap, bao gồm việc sử dụng các công cụ tự động, các phương thức được thực hiện để đào tạo và hỗ trợ những người chịu trách nhiệm kiểm duyệt nội dung, và số lượng và các loại hạn chế được áp dụng cho những nỗ lực kiểm duyệt nội dung chủ động đó.
Sử dụng các công cụ tự động trong kiểm duyệt sáng kiến của riêng Snap
Chúng tôi triển khai các công cụ tự động để chủ động phát hiện và, trong một số trường, cưỡng chế vi phạm các điều khoản và chính sách của chúng tôi trên các nền tảng nội dung công khai của chúng tôi. Điều này bao gồm các công cụ khớp mã hàm băm ( bao gồm PhotoDNA và Google CSAI Match), các mô hình Phát hiện Lạm dụng Ngôn Ngữ (phát hiện và từ chối nội dung dựa trên danh sách các từ khoá và biểu tượng cảm xúc lạm dụng được xác định và cập nhật thường xuyên), và công nghệ trí tuệ nhân tạo/ học máy. Các công cụ tự động của chúng tôi được thiếy kế để phát hiện các vi phạm Cẩm nang Cộng đồng của chúng tôi (trong đó, trong những lĩnh vực khác, nghiêm cấm nội dung bất hợp pháp) và, nếu có, Cẩm nang Cộng đồng về Điều kiện Đề xuất và Chính sách Quảng cáo.
Trong nửa dầu năm 2024, tất cả các phát hiện chủ động của chúng tôi được thực hiện bằng các công cụ tự động. Khi các công cụ tự động của chúng tôi phát hiện ra khả năng vi phạm chính sách của chúng tôi, chúng sẽ tự động thực hiện hành động theo chính sách của chúng tôi, hoặc chúng tạo ra một nhiệm vụ để đánh giá theo cách con người. Số lượng và loại hạn chế được áp đặt như là kết quả của quá trình được mô tả dưới đây.
Số lượng và loại hạn chế được áp dụng theo sáng kiến riêng của Snap
Trong nửa đầu năm 2024, Snap đã thực hiện các hành động cưỡng chế sau đây sau khi chủ động phát hiện, thông qua việc sử dụng các công cụ tự động, vi phạm Nguyên tắc Cộng đồng của chúng tôi (bao gồm các vi phạm liên quan đến nội dung và hoạt động bất hợp pháp theo luật của EU và các Quốc gia Thành viên):
Ngoài ra, trong nửa đầu năm 2024, đối với các nội dung trên các nền tảng phát sóng công khai của chúng tôi, chúng tôi đã thực hiện các hành động sau đây sau khi chủ động phát hiện trên Snapchat, thông qua việc sử dụng các công cụ tự động, các hành vi vi phạm Nguyên tắc Cộng đồng về Điều kiện Đề xuất:
* Như đã nêu trong Nguyên tắc Nội dung về Điều kiện Đề xuất, các tài khoản vi phạm nhiều lần hoặc vi phạm nghiêm trọng Nguyên tắc Nội dung về Điều kiện Đề xuất của chúng tôi có thể bị loại bỏ tạm thời hoặc vĩnh viễn khỏi các đề xuất trên các nền tảng phát sóng công khai của chúng tôi. Chúng tôi áp dụng hành động này trên những nội dung về các nỗ lực kiểm duyệt chủ động của chúng tôi.
Hơn nữa, trong nửa đầu năm 2024, chúng tôi đã thực hiện các hành động sau đây sau khi chủ động phát hiện trên Snapchat, thông qua việc sử dụng các công cụ tự động, vi phạm Chính sách Quảng cáo của chúng tôi:
Các biện pháp được thực hiện để đào tạo và hỗ trợ những người chịu trách nhiệm kiểm duyệt nội dung
Đội ngũ kiểm duyệt nội dung của chúng tôi áp dụng các chính sách kiểm duyệt nội dung nhằm bảo vệ cộng đồng Snapchat của chúng tôi. Họ được đào tạo trong nhiều tuần, trong thời gian đó, các thành viên mới của đội ngũ sẽ được tập huấn về các chính sách, công cụ và quy trình khi có sự cố của Snap. Các nhóm kiểm duyệt của chúng tôi thường xuyên tham gia vào các buổi huấn luyện phù hợp với quy trình làm việc của họ, đặc biệt khi chúng tôi gặp phải các trường hợp phụ thuộc vào chính sách và ranh giới Chúng tôi cũng tổ chức các chương trình nâng cao kỹ năng, các đợt lấy chứng chỉ và các buổi hỏi đáp để đảm bảo mọi quản trị viên luôn cập nhật và tuân thủ với các chính sách mới nhất. Cuối cùng, khi các xu hướng nội dung khẩn cấp xuất hiện dựa trên các sự kiện đang diễn ra, chúng tôi nhanh chóng phổ biến và làm rõ chính sách để các đội ngũ có thể phản hồi theo đúng chính sách của Snap.
Chúng tôi cung cấp cho đội ngũ kiểm duyệt nội dung của chúng tôi sự hỗ trợ và các nguồn lựuc đáng kể, bao gồm hỗ trợ sức khoẻ tại chỗ và dễ dàng truy cập vào các dịch vụ sức khoẻ tinh thần.
Người dùng có tài khoản bị khoá bởi đội ngũ an ninh của chúng tôi vì vi phạm Nguyên tắc Cộng đồng (bao gồm nội dung và hoạt động bất hợp pháp) có thể gửi khiếu nại tài khoản bị khoá. Người dùng cũng có thể khiếu nại các quyết định kiểm duyệt nội dung nhất định.
Trong thời gian báo cáo (nửa đầu năm 2024), Snap đã xử lý các khiếu nại sau đây (bao gồm khiếu nại về khoá tài khoản và quyết định kiểm duyệt cấp độ nội dung) được gửi qua hệ thống xử lý khiếu nại nội bộ ở EU:
Mô tả và mục đích định tính
Như đã giải thích trên Mục 3(b), chúng tôi triển khai các công cụ tự động để chủ động phát hiện và, trong một số trường hợp, cưỡng chế các hành vi vi phạm các điều khoản và chính sách của chúng tôi về nội dung trên các nền tảng công khai. Điều này bao gồm các công cụ khớp mã hàm băm ( bao gồm PhotoDNA và Google CSAI Match), các mô hình Phát hiện Lạm dụng Ngôn Ngữ (phát hiện và từ chối nội dung dựa trên danh sách các từ khoá và biểu tượng cảm xúc lạm dụng được xác định và cập nhật thường xuyên), và công nghệ trí tuệ nhân tạo/ học máy. Các công cụ tự động của chúng tôi được thiếy kế để phát hiện các vi phạm Nguyên tắc Cộng đồng của chúng tôi (trong đó, trong những lĩnh vực khác, nghiêm cấm nội dung bất hợp pháp) và, nếu có, Nguyên tắc Nội dung về Điều kiện Đề xuất và Chính sách Quảng cáo.
Khi các công cụ tự động của chúng tôi phát hiện ra khả năng vi phạm chính sách của chúng tôi, chúng sẽ tự động thực hiện hành động theo chính sách của chúng tôi, hoặc chúng tạo ra một nhiệm vụ để đánh giá theo cách con người.
Các đánh giá về độ chính xác và tỷ lệ lỗi có thể, được chia nhỏ bởi Quốc gia Thành viên
Chúng tôi giám sát độ chính xác của những công cụ kiểm duyệt tự động bằng cách chọn ngẫu nhiên các mẫu nhiệm vụ được xử lý bởi các công cụ tự động của chúng tôi trên các nền tảng công khai và gửi chúng để đội ngũ nhân viên kiểm duyệt của chúng tôi xem xét lại. Tỷ lệ chính xác là tỷ lệ phần trăm của nhiệm vụ từ các mẫu ngẫu nhiên này được những người kiểm duyệt của chúng tôi duy trì xem xét lại. Tỷ lệ lỗi là sự khác biệt giữa 100% và tỷ lệ chính xác được tính toán như mô tả ở trên.
Dựa vào việc lấy mẫu, trong nửa đầu năm 2024, các chỉ số về độ chính xác và tỷ lệ lỗi có thể của các phương thức tự động được sử dụng cho tất cả các loại vi phạm là khoảng 93% và tỷ lệ lỗi là khoảng 7%.
Chúng tôi thường không theo dõi ngôn ngữ của nội dung mà chúng tôi kiểm duyệt trên Snapchat, và do đó không thể cung cấp phân tích về độ chính xác và tỷ lệ lỗi cho các công cụ kiểm duyệt tự động của chúng tôi cho từng ngôn ngữ chính thức của các Quốc gia Thành viên. Là một uỷ quyền cho thông tin này, chúng tôi cung cấp dưới đây một phân tích về độ chính xác và tỷ lệ lỗi cho nội dung được kiểm duyệt tự động có nguồn gốc từ mỗi Quốc gia Thành viên.
Các biện pháp bảo vệ
Chúng tôi chú ý đến tác động tiềm năng của các công cụ kiểm duyệt tự động đối với các quyền cơ bản, và chúng tôi triển khai các biện pháp bảo vệ để giảm thiểu tác động đó.
Các công cụ kiểm duyệt nội dung tự động của chúng tôi được thử nghiệm trước khi được triển khai trên Snapchat. Các mô hình được thử nghiệm ngoại tuyến về hiệu suất và được triển khai thông qua thử nghiệm A/B nhằm đảm bảo chúng được hoạt động bình thường trước khi được đưa vào sản xuất theo từng giai đoạn. Chúng tôi thực hiện các Đánh giá Chất lượng (QA) trước khi ra mắt, đánh giá khởi chạy, và kiểm tra độ chính xác liên tục trong suốt các phần triển khai (theo từng giai đoạn).
Sau khi ra mắt các công cụ tự động, chúng tôi đánh giá hiệu xuất và độ chính xác của chúng dựa trên cơ sở liên tục, và thực hiện các điều chỉnh khi cần thiết. Quá trình này bao gồm việc người kiểm duyệt của chúng tôi xem xét lại các mẫu nhiệm vụ tự động để xác định các mô hình cần điều chỉnh để cải thiện độ chính xác. Chúng tôi cũng theo dõi mức độ phổ biến của các tác hại cụ thể trên Snapchat thông qua việc lấy mẫu ngẫu nhiên hàng ngày của các Câu chuyện Công khai, và tận dụng thông tin này để xác định các lĩnh vực cần cải thiện thêm.
Các chính sách và hệ thống của chúng tôi thúc đẩy việc thực thi nhất quán và công bằng, bao gồm bằng các công cụ tự động của chúng tôi, và cung cấp cho các Tín đồ Snapchat một cơ hội để khiêu nại kết quả thực thi một cách có ý nghĩa thông qua quá trình Thông báo và Khiếu nại nhằm bảo vệ lợi ích của Cộng đồng đồng thời bảo vệ các quyền cá nhân của các Tín đồ Snapchat.
Chúng tôi cố gắng liên tục cải thiện các công cụ kiểm duyệt nội dung tự động để cải thiện độ chính xác và hỗ trợ việc thực thi nhất quán và công bằng các chính sách của chúng tôi.
Trong giai đoạn báo cáo (nửa đầu năm 2024), số lượng tranh chấp được gửi tới các cơ quan giải quyết tranh chấp ngoài toà án được chứng nhận chính thức theo Điều 21 của DSA bàng không (0), và chúng tôi không thể cung cấp một phân tích phản ánh kết quả, thời gian hoàn thành trung bình, hoặc tỷ lệ tranh chấp trong đó Snap thực hiện các quyết định của một cơ quan giải quyết tranh chấp ngoài toà án.
Lưu ý rằng, trong nửa đầu năm 2024, chúng tôi đã nhận được hai (2) thông báo về các tranh chấp được gửi đến một cơ quan đang tìm kiếm chứng nhận là cơ quan giải quyết tranh chấp ngoài toà án theo Điều 21 của DSA. Chúng tôi không đưa ra những tranh chấp này trong số lượng trên vì cơ quan đã chuyển các thông báo tranh chấp này không thể xác minh tình trạng chứng nhận của họ khi chúng tôi yêu cầu.
Đình chỉ theo Điều 23.1: đình chỉ các tài khoản thường xuyên cung cấp nội dung bất hợp pháp rõ ràng
Như đã giải thích trong Trình giải thích về Kiểm duyệt, Thực thi và Khiếu nại của Snapchat, các tài khoản mà chúng tôi xác định được sử dụng chủ yếu để vi phạm Nguyên tắc Cộng đồng của chúng tôi (bao gồm thông qua việc cung cấp nội dung bất hợp pháp rõ ràng) và các tài khoản gây ra tác hại nghiêm trọng sẽ bị vô hiệu hoá ngay lập tức. Đối với các hành vi vi phạm Nguyên tắc Cộng đồng khác của chúng tôi, Snap thường áp dụng biện pháp thực thi gồm ba phần:
Bước một: nội dung vi phạm bị xóa.
Bước hai: Tín đồ Snapchatter nhận được thông báo cho biết họ đã vi phạm Nguyên tắc Cộng đồng của chúng tôi, nội dung của họ đã bị xóa và việc vi phạm nhiều lần sẽ dẫn đến các hành động thực thi bổ sung, bao gồm cả việc tài khoản của họ bị tắt.
Bước ba: nhóm của chúng tôi ghi nhận một cảnh cáo đối với tài khoản của Tín đồ Snapchatter.
Thông tin về số lượng cảnh cáo (tức là cảnh báo) và các lệnh khoá được áo dụng trong nửa đầu năm 2024 trên các tài khoản ở EU liên quan đến nội dung hoặc các hoạt động trên các nền tảng công khai của Snapchat có thể được tìm thấy ở trên, trong Phần 3(a) và 3(b).
Đình chỉ theo Điều 23.2: đình chỉ về việc xử lý các thông báo và khiếu nại từ các cá nhân, tổ chức và những người khiếu nại thường xuyên gửi thông báo hoặc khiếu nại rõ ràng là vô căn cứ
Áp dụng định nghĩa nội bộ của chúng tôi về các thông báo và khiếu nại "rõ ràng vô căn cứ", và các ngưỡng nội bộ về những gì chúng tôi xem xét là tần suất gửi các thông báo và khiếu nại đó, số lần đình chỉ xử lý thông báo và khiếu nại được áp dụng trong nửa đầu năm 2024 theo Điều 23.3 của DSA như sau:
Đội ngũ kiểm duyệt nội dung của chúng tôi hoạt động trên toàn cầu, cho phép chúng tôi giữ an toàn cho Tín đồ Snapchat 24/7. Dưới đây, bạn sẽ tìm thấy phân tích về đội ngũ nhân viên kiểm duyệt của chúng tôi theo từng ngôn ngữ của người kiểm duyệt (lưu ý rằng một số người kiểm duyệt chuyên nhiều ngôn ngữ) kể từ ngày 30 tháng 6 năm 2024:
Bảng trên bao gồm tất cả các nguồn nhân lực dành riêng cho kiểm duyệt nội dung hỗ trợ các ngôn ngữ chính thức của các Quốc gia Thành viên EU kể từ ngày 30 tháng Sáu năm 2024. Trong những trường hợp chúng tôi cần hỗ trợ thêm về ngôn ngữ, chúng tôi sử dụng dịch vụ dịch thuật.
Quản trị viên được tuyển dụng bằng cách sử dụng bản mô tả công việc tiêu chuẩn bao gồm yêu cầu về ngôn ngữ (tùy theo nhu cầu). Yêu cầu về ngôn ngữ quy định rằng ứng viên cần thể hiện được khả năng đọc, viết lưu loát bằng ngôn ngữ được yêu cầu và có ít nhất một năm kinh nghiệm đối với vị trí ở cấp tối thiểu. Ứng viên phải đạt đủ điều kiện về trình độ học vấn và hoàn cảnh để được xem xét. Ứng viên cũng cần thể hiện sự hiểu biết về các sự kiện đang diễn ra tại đất nước hoặc vùng nơi mình phụ trách quản trị nội dung.
Xem thông tin trên về việc đào tạo và hỗ trợ mà Snap cung cấp cho người kiểm duyệt, được yêu cầu riêng theo Điều 15(1)(c) của DSA và do đó được bao gồm trong Mục 3(b), trong phần phụ cuối cùng được nhắc đến: "Các biện pháp được thực hiện để đào tạo và hỗ trợ những người chịu trách nhiệm kiểm duyệt nội dung"
Bối cảnh
Việc xâm hại tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm nang Cộng đồng của chúng tôi. Việc ngăn chặn, phát hiện và xóa Hình ảnh Lạm dụng và Xâm hại Tình dục Trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap và chúng tôi liên tục phát triển khả năng của mình để chống lại loại tội phạm này, cũng như các loại tội phạm khác.
Chúng tôi sử dụng công cụ đối sánh băm mạnh mẽ của PhotoDNA và Đối sánh Dữ liệu Hình ảnh Lạm dụng Tình dục Trẻ em (CSAI) của Google để xác định các hình ảnh và video bị xem là bất hợp pháp, và báo cáo cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC), theo yêu cầu của pháp luật. NCMEC sau đó sẽ phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế theo yêu cầu.
Báo cáo
Dữ liệu dưới đây dựa trên kết quả của việc quét chủ động bằng PhotoDNA và/hoặc CSAI Match đối với nội dung phương tiện do người dùng tải từ cuộn camera lên Snapchat.
Ngăn chặn hành vi bóc lột tình dục trẻ em là ưu tiên hàng đầu. Snap dành nhiều nguồn lực đáng kể cho việc này và không khoan nhượng đối với hành vi này. Nhân sự được đào tạo đặc biệt để xem xét khiếu nại CSE và có một đội ngũ đại diện nhất định xử lý các đánh giá này do tính chất nhạy cảm của nội dung. Trong mùa thu năm 2023, Snap đã thực hiện các thay đổi chính sách ảnh hưởng đến tính nhất quán của một số biện pháp thực thi CSE, và chúng tôi đã duy trì sự nhất quán bằng cách đào tạo lại đại diện và đảm bảo chất lượng nghiêm ngặt. Chúng tôi hy vọng rằng báo cáo minh bạch tiếp theo sẽ tiết lộ tiến trình cải thiện thời gian phản hồi đối với khiếu nại CSE và cải thiện độ chính xác của các biện pháp thực thi ban đầu.
Biện pháp an toàn trong quản trị nội dung
Các biện pháp an toàn được áp dụng để quét nội dung CSEA được nêu trong phần “Biện pháp an toàn trong quản trị nội dung” ở trên trong Báo cáo DSA.
Xuất bản: Ngày 17 Tháng 6 năm 2024
Cập nhật Lần cuối: ngày 17 Tháng 6 năm 2024
Báo cáo Minh bạch này được công bố theo Điều 7(2) và 7(3) của Quy định 2021/784 của Nghị viện Châu Âu và của Hội đồng Liên minh Châu Âu, giải quyết việc phổ biến nội dung khủng bố trực tuyến (Quy chế). Nó bao gồm thời gian báo cáo từ ngày 1 đến ngày 31 tháng 12 năm 2023.
Điều 7(3)(a): thông tin về các biện pháp của nhà cung cấp dịch vụ lưu trữ liên quan đến việc xác định và xoá bỏ hoặc vô hiệu hoá quyền tru cập vào nội dung khủng bố
Điều 7(3)(b): thông tin về các biện pháp của nhà cung cấp dịch vụ lưu trữ để giải quyết việc tái xuất hiện tài liệu trực tuyến đã bị xoá trước đó hoặc quyền truy cập đã bị vô hiệu hoá vì bị coi là nội dung khủng bố, đặc biệt là khi các công cụ tự động đã được sử dụng
Những kẻ khủng bố, các tổ chức khủng bố, và những kẻ cực đoan bạo lực bị cấm sử dụng Snapchat. Các nội dung ủng hộ, quảng bá, ca ngợi hoặc thúc đẩy khủng bố hoặc các hành vi bạo lực, tội phạm khác bị cấm theo Nguyên tắc Cộng đồng của chúng tôi. Người dùng có thể báo cáo nội dung vi phạm Nguyên tắc Cộng đồng của chúng tôi thông qua menu báo cáo trong ứng dụng và Trang web Hỗ trợ của chúng tôi. Chúng tôi cũng sử dụng tính năng phát hiện chủ động để cố gắng xác định nội dung vi phạm trên các nền tảng công khai như Spotlight và Discover.
Bất kể chúng tôi có thể nhận thức được các nội dung vi phạm bằng cách nào, các nhóm Tin cậy và An Ninh của chúng tôi, thông qua kết hợp kiểm duyệt tự động và con người, xem xét kịp thời nội dung được xác định và đưa ra các quyết định cưỡng chế. Các biện pháp cưỡng chế có thể bao gồm xoá nội dung, cảnh cáo hoặc khoá tài khoản bạo lực, và, nếu được phép, báo cáo tài khoản cho cơ quan thực thi pháp luật. Để ngăn chặn sự tái xuất hiện của nội dung khủng bố hoặc bạo lực cực đoan trên Snapchat, ngoài việc làm việc với cơ quan thực thi pháp luật, chúng tôi còn thực hiện các bước để chặn thiết bị liên kết với tài khoản vi phạm và ngăn chặn người dùng tạo một tài khoản Snapchat khác.
Các chi tiết bổ sung liên quan đến các biện pháp của chúng tôi nhằm xác định và loại bỏ những nội dung khủng bố có thể được tìm thấy trong Phần Giải thích về Nội dung Thù hằn, Khủng bố và Bạo lực Cực đoan và phần Giải thích về Kiểm duyệt, Thực thi và Khiếu nại.
Điều 7(3)(c): số mục có nội dung khủng bố bị xoá hoặc quyền truy cập bị vô hiệu hoá theo các lệnh gỡ hoặc các biện pháp cụ thể, và số lệnh gỡ trong đó nội dung chưa bị xoá hoặc quyền truy cập chưa bị vô hiệu hoá theo tiểu mục đầu tiên của Điều 3(7) và tiểu mục đầu tiên của Điều 3(8), cùng với các căn cứ
Trong thời gian báo cáo, Snap không nhận được bất kỳ lệnh loại bỏ nào, cũng như chúng tôi không bắt buộc phải thực hiện bất kỳ biện pháp cụ thể nào theo Điều 5 của Quy chế. Theo đó, chúng tôi không bắt buộc phải thực hiện biện pháp cưỡng chế nào theo Quy định.
Bảng sau đây mô tả các biện pháp cưỡng chế được thực hiện dựa trên báo cáo người dùng và chủ động phát hiện nội dung và tài khoản, cả ở EU và các nơi khác trên thế giới, vi phạm Cẩm nang Cộng đồng của chúng tôi liên quan đến nội dung khủng bố và bạo lực cực đoan
Điều 7(3)(d): số lượng và kết quả của các khiếu nại do nhà cung cấp dịch vụ lưu trữ xử lý theo Điều 10
Điều 7(3)(g): Số trường hợp trong đó nhà cung cấp dịch vụ lưu trữ khôi phục nội dung hoặc quyền truy cập vào nội dung đó sau khi có khiếu nại của nhà cung cấp nội dung
Vì chúng tôi không có biện pháp cưỡng chế nào được yêu cầu theo Quy định trong thoài gian báo cáo như đã lưu ý ở trên, nên chúng tôi không xử lý khiếu nại nào theo Điều 10 của Quy định và không có biện pháp phục hồi liên quan.
Bảng sau đây chứa các thông tin liên quan đến khiếu nại và khôi phục, ở cả EU và các nơi khác trên thế giới, liên quan đến nội dung khủng bố và bạo lực cực đoan được thi hành theo Nguyên tắc Cộng đồng của chúng tôi.
Điều 7(3)(e): số lượng và kết qủa của thủ tục tố tụng xem xét hành chính hoặc tư pháp do nhà cung cấp dịch vụ lưu trữ cung cấp
Điều 7(3)(f): số lượng trường hợp trong đó nhà cung cấp dịch vụ lưu trữ được yêu cầu khôi phục nội dung hoặc quyền truy cập do thủ tục tố tụng hành chính hoặc tư pháp
Vì chúng tôi không có biện pháp cưỡng chế nào được yêu cầu theo Quy định trong giai đoạn báo cáo, như đã lưu ý ở trên, nên chúng tôi không có thủ tục tố tụng hành chính hoặc xét xử tư pháp liên quan và chúng tôi không bắt buộc phải khôi phục nội dung do bất kỳ thủ tục tố tụng nào như vậy.
Báo cáo này đã được chuẩn bị để tuân thủ các nghĩa vụ của Snap theo Điều 34 và 35 của Quy định (Châu Âu) 2022/2065 và cung cấp kết quả đánh giá của chúng tôi về rủi ro hệ thống bắt nguồn từ thiết kế, chức năng và việc sử dụng các nền tảng trực tuyến của Snapchat, cùng với phương pháp được sử dụng để đánh giá các rủi ro đó và các biện pháp giảm thiểu được đưa ra để giải quyết những rủi ro đó.
Báo cáo đánh giá rủi ro và biện pháp giảm thiểu theo DSA | Snapchat | Tháng 8 năm 2023 (PDF)
Các báo cáo này đã được chuẩn bị để tuân thủ các nghĩa vụ của Snap theo Điều 37 của Quy định (Châu Âu) 2022/2065 và cung cấp: (i) kết quả kiểm toán độc lập về sự tuân thủ của Snap với các nghĩa vụ được nêu trong Chương III của Quy định (Châu Âu) 2022/2065 và (ii) các biện pháp được triển khai để thực hiện các khuyến nghị hành động từ cuộc kiểm toán độc lập đó.
Báo cáo kiểm toán độc lập theo DSA | Snapchat | Tháng 8 năm 2024 (PDF)
Báo cáo thực hiện khuyến nghị của kiểm toán theo DSA | Snapchat | Tháng 9 năm 2024 (PDF)
Bộ quy tắc thực hành VSP của EU
Snap là nhà cung cấp "dịch vụ nền tảng chia sẻ video" ("VSP") theo Điều 1(1)(aa) AVMSD. Bộ quy tắc hành vi ("Bộ quy tắc") này đã được chuẩn bị để mô tả cách Snap tuân thủ các nghĩa vụ của mình với tư cách là VSP theo Đạo luật truyền thông Hà Lan ("DMA") và Chỉ thị (EU) 2010/13 (được sửa đổi bởi Chỉ thị (EU) 2018/1808 ("Chỉ thị về dịch vụ truyền thông nghe nhìn" hoặc "AVMSD")). Bộ quy tắc này được áp dụng trên toàn Liên minh Châu Âu cũng như Khu vực Kinh tế Châu Âu.
Bộ quy tắc hành vi VSP của EU | Snapchat | Tháng 12 năm 2024 (PDF)