Snap Values
Báo Cáo Minh Bạch
Ngày 1 tháng 1 năm 2024 - Ngày 30 tháng 6 năm 2024

Phát hành:

Ngày 5 tháng 12 năm 2024

Cập nhật:

Ngày 5 tháng 12 năm 2024

Chúng tôi công bố báo cáo minh bạch này hai lần một năm để cung cấp thông tin chi tiết về những nỗ lực đảm bảo an toàn của Snap. Chúng tôi cam kết thực hiện những nỗ lực này và không ngừng phấn đấu để các báo cáo này toàn diện hơn và cung cấp nhiều thông tin hơn cho nhiều bên liên quan, những người quan tâm sâu sắc đến việc kiểm duyệt nội dung, các hoạt động thực thi pháp luật cũng như sự an toàn và phúc lợi của cộng đồng Snapchat. 

Báo cáo minh bạch này bao gồm nửa đầu năm 2024 (1 tháng 1 - 30 tháng 6). Giống như các báo cáo trước đây, chúng tôi chia sẻ dữ liệu về khối lượng nội dung trong ứng dụng trên toàn cầu và báo cáo cấp tài khoản mà các nhóm Tin cậy và An toàn của chúng tôi đã nhận được và thực thi theo các danh mục vi phạm Nguyên tắc Cộng đồng cụ thể; cách chúng tôi phản hồi các yêu cầu từ cơ quan thực thi pháp luật và chính phủ; và cách chúng tôi phản hồi các thông báo về vi phạm bản quyền và nhãn hiệu. Chúng tôi cũng cung cấp thông tin chi tiết theo từng quốc gia trong các tệp được liên kết ở cuối trang này.

Là một phần trong cam kết liên tục cải thiện các báo cáo minh bạch, chúng tôi cũng giới thiệu dữ liệu mới nêu bật những nỗ lực chủ động của mình nhằm phát hiện và xử lý nhiều hành vi vi phạm Nguyên tắc Cộng đồng hơn. Chúng tôi đã đưa dữ liệu này vào báo cáo này ở cả cấp độ toàn cầu và quốc gia và sẽ tiếp tục làm như vậy trong tương lai. Chúng tôi cũng đã sửa lỗi ghi nhãn trong các báo cáo trước đây: trước đây chúng tôi đề cập đến “Tổng số nội dung đã xử lý”, giờ chúng tôi đề cập đến “Tổng số hành động thực thi” để phản ánh thực tế rằng dữ liệu được cung cấp trong các cột có liên quan bao gồm cả các hành động thực thi ở cấp độ nội dung và cấp độ tài khoản.

Để biết thêm thông tin về chính sách của chúng tôi nhằm chống lại các tác hại tiềm ẩn trực tuyến và kế hoạch tiếp tục phát triển các hoạt động báo cáo, vui lòng đọc blog An toàn và Tác động gần đây của chúng tôi về Báo cáo Minh bạch này. Để tìm kiếm thêm các nguồn lực hỗ trợ an toàn và quyền riêng tư trên Snapchat, hãy xem tab Giới thiệu về Báo cáo Minh bạch ở cuối trang.

Xin lưu ý rằng phiên bản cập nhật nhất của Báo Cáo Minh Bạch này có thể được tìm thấy trong phần ngôn ngữ Anh-Mỹ.

Tổng quan về hành động của các nhóm Tin cậy và An toàn để Thực thi Nguyên tắc Cộng đồng của chúng tôi

Các nhóm Tin cậy và An toàn của chúng tôi thực thi Nguyên tắc Cộng đồng theo cả cách chủ động (thông qua việc sử dụng các công cụ tự động) và phản ứng (để phản hồi các báo cáo), sẽ được trình bày chi tiết hơn trong các phần sau của báo cáo này. Trong chu kỳ báo cáo này (nửa đầu 2024), các nhóm Tin cậy và An toàn của chúng tôi đã thực hiện các hành động thực thi sau: 

Tổng quan về Nội dung và Vi phạm Tài khoản

Từ ngày 1 tháng 7 đến ngày 31 tháng 12 năm 2023, Snap đã có biện pháp thực thi đối với 5.376.714 nội dung trên toàn cầu được báo cáo cho chúng tôi và vi phạm Cẩm nang Cộng đồng của chúng tôi.

Trong thời gian báo cáo, chúng tôi thấy Tỷ lệ lượt xem Vi phạm (VVR) là 0,01 phần trăm, có nghĩa là trong số 10.000 lượt xem Snap và Story trên Snapchat, có 1 lượt chứa nội dung bị phát hiện vi phạm chính sách của chúng tôi. Thời gian trung bình để có biện pháp thực thi với nội dung được báo cáo là ~ 10 phút.

Tổng quan về Nội dung và Vi phạm Tài khoản

Từ ngày 1 tháng 7 đến ngày 31 tháng 12 năm 2023, Snap đã có biện pháp thực thi đối với 5.376.714 nội dung trên toàn cầu được báo cáo cho chúng tôi và vi phạm Cẩm nang Cộng đồng của chúng tôi.

Trong thời gian báo cáo, chúng tôi thấy Tỷ lệ lượt xem Vi phạm (VVR) là 0,01 phần trăm, có nghĩa là trong số 10.000 lượt xem Snap và Story trên Snapchat, có 1 lượt chứa nội dung bị phát hiện vi phạm chính sách của chúng tôi. Thời gian trung bình để có biện pháp thực thi với nội dung được báo cáo là ~ 10 phút.

Tổng quan về Nội dung và Vi phạm Tài khoản

Từ ngày 1 tháng 7 đến ngày 31 tháng 12 năm 2023, Snap đã có biện pháp thực thi đối với 5.376.714 nội dung trên toàn cầu được báo cáo cho chúng tôi và vi phạm Cẩm nang Cộng đồng của chúng tôi.

Trong thời gian báo cáo, chúng tôi thấy Tỷ lệ lượt xem Vi phạm (VVR) là 0,01 phần trăm, có nghĩa là trong số 10.000 lượt xem Snap và Story trên Snapchat, có 1 lượt chứa nội dung bị phát hiện vi phạm chính sách của chúng tôi. Thời gian trung bình để có biện pháp thực thi với nội dung được báo cáo là ~ 10 phút.

Phân tích vi phạm về tài khoản và nội dung

Tỷ lệ báo cáo và thực thi tổng thể của chúng tôi vẫn khá giống với sáu tháng trước. Trong chu kỳ này, chúng tôi thấy tổng số báo cáo nội dung và tài khoản tăng khoảng 10%.

Cuộc xung đột Israel-Hamas bắt đầu trong giai đoạn này và kết quả là chúng tôi thấy có sự gia tăng nội dung vi phạm. Tổng số báo cáo liên quan đến ngôn từ kích động thù địch tăng ~61%, trong khi tổng số hành động thực thi với nội dung có ngôn từ kích động thù địch tăng ~97% và hành động thực thi đối với tài khoản duy nhất tăng ~124%. Các báo cáo về hành vi khủng bố và bạo lực cực đoan cũng tăng lên, mặc dù chúng chỉ chiếm <0,1% tổng số hành động thực thi đối với nội dung trên nền tảng của chúng tôi. Các đội ngũ Tin cậy & An toàn của chúng tôi tiếp tục cảnh giác khi các xung đột toàn cầu phát sinh để giúp giữ an toàn cho Snapchat. Chúng tôi cũng đã mở rộng báo cáo minh bạch để bao gồm nhiều thông tin hơn ở cấp toàn cầu và quốc gia về tổng số báo cáo, nội dung bị xử lý và các tài khoản duy nhất bị xử lý vì vi phạm chính sách của chúng tôi về khủng bố và bạo lực cực đoan.

Tổng quan về Nội dung và Vi phạm Tài khoản

Từ ngày 1 tháng 7 đến ngày 31 tháng 12 năm 2023, Snap đã có biện pháp thực thi đối với 5.376.714 nội dung trên toàn cầu được báo cáo cho chúng tôi và vi phạm Cẩm nang Cộng đồng của chúng tôi.

Trong thời gian báo cáo, chúng tôi thấy Tỷ lệ lượt xem Vi phạm (VVR) là 0,01 phần trăm, có nghĩa là trong số 10.000 lượt xem Snap và Story trên Snapchat, có 1 lượt chứa nội dung bị phát hiện vi phạm chính sách của chúng tôi. Thời gian trung bình để có biện pháp thực thi với nội dung được báo cáo là ~ 10 phút.

Chống Lạm dụng và Xâm hại Tình dục Trẻ em

Việc lạm dụng tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm nang Cộng đồng của chúng tôi. Việc ngăn chặn, phát hiện và xóa Hình ảnh Lạm dụng và Xâm hại Tình dục Trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap và chúng tôi liên tục phát triển khả năng của mình để chống lại loại tội phạm này, cũng như các loại tội phạm khác.

Chúng tôi sử dụng các công cụ phát hiện công nghệ tích cực, chẳng hạn như đối sánh băm mạnh mẽ của PhotoDNA và Đối sánh Dữ liệu Hình ảnh Lạm dụng Tình dục Trẻ em (CSAI) của Google để xác định các hình ảnh và video bất hợp pháp đã biết, và báo cáo cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC), theo yêu cầu của pháp luật. NCMEC sau đó sẽ phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế theo yêu cầu.

Trong nửa cuối năm 2023, chúng tôi đã chủ động phát hiện và xử lý 59% tổng số hành vi lạm dụng và xâm hại tình dục trẻ em được báo cáo. Con số này giảm tổng cộng 39% so với giai đoạn trước do các cải tiến trong các tùy chọn báo cáo của Tín đồ Snapchat, tăng khả năng phát hiện của chúng tôi về CSEA tiềm năng được gửi trên Snapchat.

* Lưu ý rằng mỗi bản nộp tới NCMEC có thể có nhiều nội dung. Tổng số nội dung phương tiện riêng lẻ được gửi tới NCMEC bằng với tổng nội dung được thực thi của chúng tôi. Chúng tôi cũng đã loại trừ các nội dung được gửi đến NCMEC nhưng bị rút lại khỏi số này.

Nội dung Tự làm đau và Tự tử

Chúng tôi quan tâm sâu sắc đến sức khỏe tinh thần và hạnh phúc của Tín đồ Snapchatter và liên tục thông báo về các quyết định của chúng tôi để xây dựng Snapchat một cách khác biệt. Là nền tảng được thiết kế để giao tiếp giữa những người bạn thực sự, chúng tôi tin rằng Snapchat có thể đóng một vai trò độc đáo trong việc tạo điều kiện cho bạn bè giúp đỡ nhau trong những giai đoạn khó khăn.

Khi nhóm Tin cậy & An toàn của chúng tôi biết có một Tín đồ Snapchatter đang gặp nạn, họ có thể chuyển tiếp các nguồn lực phòng ngừa tự hành xác và hỗ trợ, cũng như thông báo cho nhân viên phản ứng khẩn cấp khi thích hợp. Các tài nguyên chúng tôi chia sẻ có sẵn trên các nguồn danh sách an toàn toàn cầu và những nguồn này được cung cấp công khai cho tất cả Tín đồ Snapchat.

Khiếu nại

Trong báo cáo trước đây, chúng tôi đã giới thiệu các số liệu thống kê về khiếu nại, trong đó chúng tôi nêu bật số lần người dùng yêu cầu chúng tôi xem xét lại quyết định kiểm duyệt ban đầu của chúng tôi với tài khoản của họ. Trong báo cáo này, chúng tôi đã mở rộng yêu cầu để nắm bắt đầy đủ các danh mục chính sách của chúng tôi đối với các vi phạm cấp tài khoản.

* Ngăn chặn sự lan truyền của nội dung hoặc hoạt động liên quan đến lạm dụng tình dục trẻ em là ưu tiên hàng đầu. Snap dành nhiều nguồn lực đáng kể cho mục tiêu này và không khoan nhượng đối với hành vi như thế. Nhân sự được đào tạo đặc biệt để xem xét khiếu nại CSE và có một đội ngũ đại diện nhất định xử lý các đánh giá này do tính chất nhạy cảm của nội dung. Vào mùa thu năm 2023, Snap đã thực hiện các thay đổi chính sách ảnh hưởng đến tính nhất quán của một số biện pháp thực thi CSE và chúng tôi đã duy trì sự nhất quán bằng cách đào tạo lại đại diện và đảm bảo chất lượng nghiêm ngặt. Chúng tôi hy vọng rằng báo cáo minh bạch tiếp theo của Snap sẽ tiết lộ tiến trình cải thiện thời gian phản hồi đối với khiếu nại CSE và cải thiện độ chính xác của các hành động thực thi ban đầu.

Tổng quan về Khu vực và Quốc gia

Phần này cung cấp tổng quan về hành động của các nhóm Tin cậy và An toàn nhằm thực thi Nguyên tắc Cộng đồng của chúng tôi, mang tính chủ động và phản hồi về các báo cáo vi phạm trong ứng dụng, tại một số khu vực địa lý. Nguyên tắc Cộng đồng của chúng tôi áp dụng cho tất cả nội dung trên Snapchat và tất cả các Tín đồ Snapchatter trên toàn cầu, bất kể vị trí.

Bạn có thể tải xuống thông tin về các quốc gia riêng lẻ, bao gồm tất cả các Quốc gia Thành viên Châu Âu, qua tệp CSV đính kèm.

Tổng quan về hành động của các nhóm Tin cậy và An toàn để Thực thi Nguyên tắc Cộng đồng của chúng tôi 

Chống Lạm dụng và Xâm hại Tình dục Trẻ em

Việc lạm dụng tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm nang Cộng đồng của chúng tôi. Việc ngăn chặn, phát hiện và xóa Hình ảnh Lạm dụng và Xâm hại Tình dục Trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap và chúng tôi liên tục phát triển khả năng của mình để chống lại loại tội phạm này, cũng như các loại tội phạm khác.

Chúng tôi sử dụng các công cụ phát hiện công nghệ tích cực, chẳng hạn như đối sánh băm mạnh mẽ của PhotoDNA và Đối sánh Dữ liệu Hình ảnh Lạm dụng Tình dục Trẻ em (CSAI) của Google để xác định các hình ảnh và video bất hợp pháp đã biết, và báo cáo cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC), theo yêu cầu của pháp luật. NCMEC sau đó sẽ phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế theo yêu cầu.

Trong nửa cuối năm 2023, chúng tôi đã chủ động phát hiện và xử lý 59% tổng số hành vi lạm dụng và xâm hại tình dục trẻ em được báo cáo. Con số này giảm tổng cộng 39% so với giai đoạn trước do các cải tiến trong các tùy chọn báo cáo của Tín đồ Snapchat, tăng khả năng phát hiện của chúng tôi về CSEA tiềm năng được gửi trên Snapchat.

Chống Lạm dụng và Xâm hại Tình dục Trẻ em

Việc lạm dụng tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm nang Cộng đồng của chúng tôi. Việc ngăn chặn, phát hiện và xóa Hình ảnh Lạm dụng và Xâm hại Tình dục Trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap và chúng tôi liên tục phát triển khả năng của mình để chống lại loại tội phạm này, cũng như các loại tội phạm khác.

Chúng tôi sử dụng các công cụ phát hiện công nghệ tích cực, chẳng hạn như đối sánh băm mạnh mẽ của PhotoDNA và Đối sánh Dữ liệu Hình ảnh Lạm dụng Tình dục Trẻ em (CSAI) của Google để xác định các hình ảnh và video bất hợp pháp đã biết, và báo cáo cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC), theo yêu cầu của pháp luật. NCMEC sau đó sẽ phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế theo yêu cầu.

Trong nửa cuối năm 2023, chúng tôi đã chủ động phát hiện và xử lý 59% tổng số hành vi lạm dụng và xâm hại tình dục trẻ em được báo cáo. Con số này giảm tổng cộng 39% so với giai đoạn trước do các cải tiến trong các tùy chọn báo cáo của Tín đồ Snapchat, tăng khả năng phát hiện của chúng tôi về CSEA tiềm năng được gửi trên Snapchat.

Quản trị Quảng cáo

Snap cam kết đảm bảo rằng tất cả các quảng cáo đều tuân thủ đầy đủ các chính sách quảng cáo của chúng tôi. Chúng tôi tin vào cách tiếp cận có trách nhiệm và tôn trọng đối với quảng cáo, tạo ra một trải nghiệm an toàn và thú vị cho mọi người dùng. Dưới đây là thông tin chi tiết về sự kiểm duyệt của chúng tôi đối với các quảng cáo trả phí trên Snapchat. Xin lưu ý rằng các quảng cáo trên Snapchat có thể bị gỡ bỏ vì nhiều lý do khác nhau như được nêu trong Chính sách Quảng cáo của Snap, bao gồm cả nội dung lừa đảo, nội dung người lớn, nội dung bạo lực hoặc quấy rối, phát ngôn thù ghét, và vi phạm sở hữu trí tuệ. Thêm vào đó, giờ bạn có thể tìm thấy Thư viện Quảng cáo của Snapchat trong thanh điều hướng của báo cáo minh bạch này.