Snap Values
Báo cáo Minh bạch
Ngày 1 tháng 7 năm 2024 - Ngày 31 tháng 12 năm 2024

Phát hành:

Ngày 20 tháng 6 năm 2025

Cập nhật:

Ngày 1 tháng 7 năm 2025

Chúng tôi công bố báo cáo minh bạch này hai lần một năm để cung cấp cái nhìn chuyên sâu về những nỗ lực đảm bảo an toàn của Snap. Là một phần trong cam kết về an toàn và minh bạch, chúng tôi liên tục cố gắng để các báo cáo này toàn diện hơn và cung cấp nhiều thông tin hơn cho nhiều bên liên quan, những người quan tâm sâu sắc đến việc kiểm duyệt nội dung, các hoạt động thực thi pháp luật cũng như sự an toàn và hạnh phúc của cộng đồng Snapchat. 

Báo cáo Minh bạch này bao gồm nửa cuối năm 2024 (ngày 1 tháng 7 - ngày 31 tháng 12). Chúng tôi chia sẻ dữ liệu toàn cầu về các báo cáo của người dùng và phát hiện chủ động của Snap; hành động xử lý của các nhóm An toàn của chúng tôi trên các danh mục cụ thể về vi phạm Cẩm nang cộng đồng; cách chúng tôi phản hồi các yêu cầu từ cơ quan thực thi pháp luật và chính phủ; và cách chúng tôi phản hồi các thông báo về vi phạm bản quyền và nhãn hiệu. Chúng tôi cũng cung cấp thông tin chi tiết theo quốc gia trong một loạt các trang được liên kết.

Để tìm kiếm thêm các nguồn lực hỗ trợ an toàn và quyền riêng tư trên Snapchat, hãy xem tab Giới thiệu về Báo cáo Minh bạch ở cuối trang.

Vui lòng lưu ý rằng phiên bản cập nhật mới nhất của Báo cáo Minh bạch này là phiên bản tiếng Anh.

Tổng quan về hành động của các nhóm Tin cậy và An toàn để Thực thi Nguyên tắc Cộng đồng của chúng tôi

Các nhóm An toàn của chúng tôi thực thi Nguyên tắc cộng đồng bằng cả hình thức chủ động (thông qua việc sử dụng các công cụ phát hiện tự động) lẫn phản ứng (dựa trên các báo cáo), như được trình bày chi tiết hơn trong các phần tiếp theo của báo cáo này. Trong kỳ báo cáo này (nửa sau năm 2024), các nhóm An toàn của chúng tôi đã thực hiện xử lý các hành vi vi phạm với số lượng như sau:

Tổng số trường hợp xử lý

Tổng số tài khoản khác nhau đã xử lý

10.032.110

5.698.212

Dưới đây là phân tích chi tiết theo từng loại vi phạm Cẩm nang cộng đồng liên quan, bao gồm thời gian xử lý trung bình giữa thời điểm chúng tôi phát hiện vi phạm (chủ động hoặc sau khi nhận được báo cáo) và thời điểm chúng tôi thực hiện hành động cuối cùng đối với nội dung hoặc tài khoản có liên quan:

Lý do chính sách

Tổng số Hành động Thực thi

Tổng số Tài khoản Độc nhất Đã xử lý

Thời gian quay vòng trung bình (phút) từ khi phát hiện đến hành động cuối cùng

Nội dung Khiêu dâm

3.860.331

2.099.512

2

Bóc lột tình dục trẻ em

961.359

577.682

23

Quấy rối và Bắt nạt

2.716.966

2.019.439

7

Đe dọa và Bạo lực

199.920

156.578

8

Tự làm hại và Tự tử

15.910

14.445

10

Thông tin sai lệch

6.539

6.176

1

Mạo danh

8.798

8.575

2

Thư rác

357.999

248.090

1

Ma túy

1.113.629

718.952

6

Vũ khí

211.860

136.953

1

Các hàng hóa được kiểm soát khác

247.535

177.643

8

Lời nói thù hằn

324.478

272.025

27

Khủng bố và Bạo lực cực đoan

6.786

4.010

5

Trong thời gian báo cáo, chúng tôi thấy Tỷ lệ lượt xem vi phạm (VVR) là 0,01 phần trăm, điều này có nghĩa là trong mỗi 10.000 lượt xem Snap và Story trên Snapchat thì có 1 lượt xem chứa nội dung vi phạm Cẩm nang Cộng đồng của chúng tôi.

Vi phạm Nguyên tắc Cộng đồng được báo cáo cho các nhóm Tin cậy và An toàn của chúng tôi

Từ ngày 1 tháng 7 đến ngày 31 tháng 12 năm 2024, để phản hồi các báo cáo trong ứng dụng về hành vi vi phạm Cẩm nang cộng đồng, các nhóm An toàn của Snap đã xử lý tổng cộng 6.346.508 trường hợp trên toàn cầu, bao gồm việc xử lý 4.075.838 tài khoản khác nhau. Thời gian trung bình để các nhóm An toàn của chúng tôi thực hiện biện pháp xử lý và phản hồi các báo cáo đó là khoảng 6 phút. Dưới đây là thông tin chi tiết về từng danh mục báo cáo.

Tổng số Báo cáo về Nội dung & Tài khoản

Tổng số Hành động Thực thi

Tổng số Tài khoản Độc nhất đã Xử lý

19.379.848

6.346.508

4.075.838

Lý do chính sách

Báo cáo Nội dung & Tài khoản

Tổng số Hành động Thực thi

% Tổng số Nội dung Snap đã Xử lý

Tổng số Tài khoản Độc nhất đã Xử lý

Thời gian quay vòng trung bình (phút) từ khi phát hiện đến hành động cuối cùng

Nội dung Khiêu dâm

5.251.375

2.042.044

32,20%

1.387.749

4

Bóc lột tình dục trẻ em

1.224.502

469.389

7,40%

393.384

133

Quấy rối và Bắt nạt

6.377.555

2.702.024

42,60%

2.009.573

7

Đe dọa và Bạo lực

1.000.713

156.295

2,50%

129.077

8

Tự làm hại và Tự tử

307.660

15.149

0,20%

13.885

10

Thông tin sai lệch

536.886

6.454

0,10%

6.095

1

Mạo danh

678.717

8.790

0,10%

8.569

2

Thư rác

1.770.216

180.849

2,80%

140.267

1

Ma túy

418.431

244.451

3,90%

159.452

23

Vũ khí

240.767

6.473

0,10%

5.252

1

Các hàng hóa được kiểm soát khác

606.882

199.255

3,10%

143.560

8

Ngôn từ thù ghét

768.705

314.134

4,90%

263.923

27

Khủng bố và Bạo lực cực đoan

197.439

1.201

<0,1%

1.093

4

So với kỳ báo cáo trước đó, chúng tôi đã giảm thời gian xử trên tất cả các danh mục chính sách với mức trung bình là 90%. Sự giảm thiểu này phần lớn là nhờ vào nỗ lực phối hợp để tăng cường năng lực kiểm duyệt của chúng tôi, cũng như cải thiện việc ưu tiên các báo cáo dựa trên mức độ nghiêm trọng của hành vi vi phạm. Chúng tôi cũng thực hiện một số thay đổi có mục tiêu đối với các nỗ lực an toàn trong kỳ báo cáo, những thay đổi này có ảnh hưởng đến dữ liệu được báo cáo ở đây, bao gồm việc tăng cường xử lý các tài khoản có tên người dùng và tên hiển thị vi phạm Cẩm Nang Cộng Đồng, triển khai các cơ chế báo cáo và bảo vệ nâng cao cho các Cộng đồng trên Snapchat, cũng như bổ sung tùy chọn báo cáo cho nhiều loại nội dung hơn, chẳng hạn như tin nhắn thoại, được gửi trực tiếp tới chúng tôi trong ứng dụng 

Những thay đổi này, cùng với các nỗ lực an toàn và các yếu tố bên ngoài khác, có ảnh hưởng rõ rệt đến một số lĩnh vực chính sách so với kỳ báo cáo trước. Những danh mục chính sách này gồm: Nội dung bị nghi ngờ là có liên quan đến lạm dụng và bóc lột tình dục trẻ em (CSEA), Thông tin sai lệch gây hại và Nội dung spam. Cụ thể:

  • CSEA: Trong nửa cuối năm 2024, chúng tôi ghi nhận số lượng báo cáo liên quan đến CSEA giảm 12% và thời gian trung bình để phản hồi các báo cáo CSEA giảm 99%. Những xu hướng này chủ yếu được thúc đẩy bởi những tiến bộ liên tục trong nỗ lực phát hiện chủ động của chúng tôi, giúp chúng tôi gỡ bỏ nội dung CSEA trước khi chúng được báo cáo, cùng với những cải tiến trong quy trình xem xét và xử lý các báo cáo CSEA hiệu quả hơn. Ngay cả với những cải tiến này, thời gian xử lý CSEA của chúng tôi vẫn cao hơn các lĩnh vực chính sách khác vì nội dung này phải tuân theo một quy trình chuyên biệt, bao gồm việc được xem xét kỹ hai lần bởi một nhóm các chuyên viên được đào tạo đặc biệt.

  • Thông tin sai lệch gây hại: Chúng tôi ghi nhận khối lượng báo cáo liên quan đến Thông tin sai lệch gây hại tăng 26%, chủ yếu do các sự kiện chính trị gây ra, bao gồm Cuộc bầu cử tổng thống Hoa Kỳ vào tháng 11 năm 2024.

  • Nội dung spam: Trong kỳ báo cáo này, chúng tôi ghi nhận tổng số trường hợp bị xử lý giảm khoảng 50% và số lượng tài khoản bị xử lý giảm khoảng 46% do các báo cáo liên quan đến nội dung nghi ngờ là spam, phản ánh những cải tiến trong các công cụ phát hiện và xử lý chủ động của chúng tôi. Đây là sự tiếp nối trong nỗ lực của chúng tôi nhắm vào các nội dung spam thông qua các tín hiệu từ tài khoản và loại bỏ các đối tượng phát tán nội dung spam sớm hơn trong quá trình hoạt động của họ trên nền tảng. Nỗ lực này đã triển khai từ kỳ báo cáo trước, trong đó tổng số trường hợp và số lượng tài khoản bị xử lý do spam giảm lần lượt khoảng 65% và 60%.

Nỗ lực của Chúng tôi nhằm Chủ động Phát hiện và Xử lý Hành vi vi phạm Nguyên tắc Cộng đồng của Chúng tôi

Chủ động phát hiện và thực thi các Nguyên tắc Cộng đồng của chúng tôi


Chúng tôi sử dụng các công cụ tự động để chủ động phát hiện và trong một số trường hợp, xử lý các hành vi vi phạm Cẩm Nang Cộng Đồng của chúng tôi. Những công cụ này bao gồm công nghệ đối sánh mã băm (bao gồm PhotoNDA và Công nghệ nhận diện hình ảnh lạm dụng tình dục trẻ em (CSAI) của Google), API an toàn về nội dung của Google và các công nghệ tùy chỉnh khác được thiết kế để phát hiện văn bản và nội dung đa phương tiện có tính chất lạm dụng, đôi khi cũng ứng dụng trí tuệ nhân tạo và học máy.

Trong nửa cuối năm 2024, chúng tôi đã thực hiện các biện pháp xử lý sau đây sau khi chủ động phát hiện các vi phạm Cẩm Nang Cộng Đồng bằng các công cụ phát hiện tự động:

Tổng số trường hợp xử lý

Tổng số tài khoản khác nhau đã xử lý

3.685.602

1.845.125

Lý do chính sách

Tổng số Hành động Thực thi

Tổng số Tài khoản Độc nhất Đã xử lý

Thời gian quay vòng trung bình (phút) từ khi phát hiện đến hành động cuối cùng

Nội dung Khiêu dâm

1.818.287

828.590

<1

Bóc lột tình dục trẻ em

491.970

188.877

1

Quấy rối và Bắt nạt

14.942

11.234

8

Đe dọa và Bạo lực

43.625

29.599

9

Tự làm hại và Tự tử

761

624

9

Thông tin sai lệch

85

81

10

Mạo danh

8

6

19

Thư rác

177.150

110.551

<1

Ma túy

869.178

590.658

5

Vũ khí

205.387

133.079

<1

Các hàng hóa được kiểm soát khác

48.280

37.028

9

Lời nói thù hằn

10.344

8.683

10

Khủng bố và Bạo lực cực đoan

5.585

2.951

21

Chống Lạm dụng và Xâm hại Tình dục Trẻ em 

Việc lạm dụng tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm Nang Cộng Đồng. Ngăn ngừa, phát hiện và xóa bỏ hành vi Lạm dụng và bóc lột tình dục trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap, và chúng tôi không ngừng phát triển năng lực của mình để chống lại loại tội phạm này cũng như các hành vi phạm pháp khác.

Chúng tôi sử dụng các công cụ với công nghệ phát hiện chủ động để giúp xác định nội dung liên quan đến CSEA. Những công cụ này bao gồm các công cụ đối sánh mã băm (bao gồm PhotoDNA và CSAI Match của Google, lần lượt dùng để xác định các hình ảnh và video bất hợp pháp đã được nhận diện có liên quan đến CSEA) và API an toàn về nội dung của Google (để xác định hình ảnh bất hợp pháp mới, chưa từng được gắn mã băm trước đó). Ngoài ra, trong một số trường hợp, chúng tôi sử dụng các tín hiệu hành vi để chống lại các hoạt động bị nghi ngờ có liên quan đến CSEA. Chúng tôi báo cáo nội dung liên quan đến CSEA cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC) theo yêu cầu của pháp luật. NCMEC sau đó phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế nếu cần thiết.

Trong nửa cuối năm 2024, chúng tôi đã thực hiện các hành động sau khi xác định CSEA trên Snapchat (chủ động hoặc sau khi nhận được báo cáo):


Tổng số Nội dung đã Xử lý

Tổng số Tài khoản đã bị Vô hiệu

Tổng Số bản nộp tới NCMEC*

1.228.929

242.306

417.842

* Lưu ý rằng mỗi bản nộp tới NCMEC có thể có nhiều nội dung. Tổng số nội dung phương tiện riêng lẻ được gửi tới NCMEC bằng với tổng nội dung được thực thi của chúng tôi.

Nỗ lực của chúng tôi nhằm cung cấp tài nguyên và sự hỗ trợ cho Tín đồ Snapchatter đang cần được giúp đỡ

Snapchat trao quyền cho bạn bè giúp đỡ nhau trong những thời điểm khó khăn bằng cách cung cấp tài nguyên và sự hỗ trợ cho những người dùng Snapchat đang cần được giúp đỡ. 

Công cụ tìm kiếm Here For You của chúng tôi cung cấp các tài nguyên từ các chuyên gia khi người dùng tìm kiếm các chủ đề nhất định liên quan đến sức khỏe tâm thần, lo âu, trầm cảm, căng thẳng, ý định tự tử, đau buồn và nạn bắt nạt. Chúng tôi cũng đã phát triển một trang dành riêng cho thủ đoạn đe dọa tống tiền bằng hình ảnh nhạy cảm và các rủi ro, tác hại tình dục khác trong nỗ lực hỗ trợ những người đang gặp nạn. Danh sách các nguồn lực an toàn toàn toàn cầu của chúng tôi được cung cấp công khai cho tất cả Tín đồ Snapchatter tại Trung tâm Quyền riêng tư, An toàn và Chính sách của chúng tôi. 
Khi các nhóm an toàn của chúng tôi biết được một Tín đồ Snapchatter đang gặp khó khăn, họ được trang bị để cung cấp các nguồn lực phòng ngừa và hỗ trợ chống tự gây hại, cũng như thông báo cho các dịch vụ khẩn cấp khi cần thiết. Các nguồn lực mà chúng tôi chia sẻ đều có sẵn trong danh sách các nguồn lực an toàn toàn cầu của chúng tôi và được cung cấp công khai cho tất cả Tín đồ Snapchatter.

Tổng số lần các tài nguyên liên quan đến tự tử được chia sẻ

64.094

Khiếu nại

Dưới đây chúng tôi cung cấp thông tin về khiếu nại chúng tôi nhận được từ người dùng yêu cầu xem xét lại quyết định khóa tài khoản của họ trong nửa cuối năm 2024:

Lý do chính sách

Tổng số Khiếu nại

Tổng số Khôi phục

Tổng số Quyết định được Duy trì

Thời gian Trung bình (ngày) để Xử lý Khiếu nại

TỔNG CỘNG

493.782

35.243

458.539

5

Nội dung Khiêu dâm

162.363

6.257

156.106

4

Bóc lột tình dục trẻ em

102.585

15.318

87.267

6

Quấy rối và Bắt nạt

53.200

442

52.758

7

Đe dọa và Bạo lực

4.238

83

4.155

5

Tự làm hại và Tự tử

31

1

30

5

Thông tin sai lệch

3

0

3

<1

Mạo danh

847

33

814

7

Thư rác

19.533

5.090

14.443

9

Ma túy

133.478

7.598

125.880

4

Vũ khí

4.678

136

4.542

6

Các hàng hóa được kiểm soát khác

9.153

168

8.985

6

Ngôn từ thù ghét

3.541

114

3.427

7

Khủng bố và Bạo lực cực đoan

132

3

129

9

Tổng quan về Khu vực và Quốc gia

Phần này cung cấp tổng quan về các hành động của nhóm An toàn nhằm thực thi Cẩm nang cộng đồng, cả chủ động và để phản hồi các báo cáo vi phạm trong ứng dụng, lấy mẫu từ các khu vực địa lý. Nguyên tắc Cộng đồng của chúng tôi áp dụng cho tất cả nội dung trên Snapchat và cho tất cả các Tín đồ Snapchatter trên toàn cầu, bất kể vị trí.

Bạn có thể tải xuống thông tin về các quốc gia riêng lẻ, bao gồm tất cả các Quốc gia Thành viên Châu Âu, qua tệp CSV đính kèm.


Tổng quan hoạt động của các nhóm An Ninh về việc thực thi Cẩm Nang Cộng Đồng của chúng tôi 

Khu vực

Tổng số Hành động Thực thi

Tổng số Tài khoản Độc nhất đã Xử lý

Bắc Mỹ

3.828.389

2.117.048

Châu Âu

2.807.070

1.735.054

Phần Còn Lại Của Thế Giới

3.396.651

1.846.110

Tổng số

10.032.110

5.698.212

Các hành vi vi phạm Nguyên tắc cộng đồng được báo cáo cho các nhóm An toàn của chúng tôi

Khu vực

Báo cáo Nội dung & Tài khoản

Tổng số Hành động Thực thi

Tổng số Tài khoản Độc nhất đã Xử lý

Bắc Mỹ

5.916.815

2.229.465

1.391.304

Châu Âu

5.781.317

2.085.109

1.378.883

Phần Còn Lại Của Thế Giới

7.681.716

2.031.934

1.319.934

Tổng số

19.379.848

6.346.508

4.090.121

Chủ động phát hiện và xử lý theo Nguyên tắc cộng đồng của chúng tôi

Tổng số trường hợp xử lý

Tổng số Tài khoản Độc nhất đã Xử lý

1.598.924

837.012

721.961

417.218

1.364.717

613.969

3.685.602

1.868.199

Quản trị Quảng cáo

Snap cam kết đảm bảo rằng tất cả các quảng cáo đều tuân thủ đầy đủ các chính sách quảng cáo của chúng tôi. Chúng tôi tin vào cách tiếp cận có trách nhiệm với quảng cáo, tạo ra trải nghiệm an toàn cho tất cả Tín Đồ Snapchatter. Tất cả các quảng cáo phải được chúng tôi xem xét và phê duyệt. Ngoài ra, chúng tôi có quyền xóa quảng cáo, bao gồm cả việc trả lời lại phản hồi của người dùng, điều mà chúng tôi rất coi trọng. 


Dưới đây, chúng tôi đã đưa ra thông tin chi tiết về hoạt động kiểm duyệt của chúng tôi đối với các quảng cáo trả phí được báo cáo sau khi chúng được đăng trên Snapchat. Xin lưu ý rằng các quảng cáo trên Snapchat có thể bị gỡ bỏ vì nhiều lý do khác nhau như được nêu trong Chính sách Quảng cáo của Snap, bao gồm cả nội dung lừa đảo, nội dung người lớn, nội dung bạo lực hoặc quấy rối, phát ngôn thù ghét, và vi phạm sở hữu trí tuệ. Ngoài ra, giờ đây bạn có thể tìm thấy Thư viện quảng cáo của Snapchat trong trung tâm minh bạch của Snap, có thể truy cập trực tiếp qua thanh điều hướng.

Tổng số quảng cáo bị cáo cáo

Tổng số quảng cáo bị xóa

43.098

17.833