Liên Minh Châu Âu
Ngày 1/7/2023 - 31/12/2023

Phát hành:

Ngày 25/04/2024

Cập nhật:

Ngày 25/04/2024

Chào mừng bạn đến với trang minh bạch của Liên minh châu Âu (EU) của chúng tôi, nơi chúng tôi công khai thông tin cụ thể của EU theo Đạo luật Dịch vụ Kỹ thuật số (DSA), Chỉ thị Dịch vụ Truyền thông Nghe nhìn (AVMSD), Đạo luật Truyền thông Hà Lan (DMA) và Quy định Trực tuyến về Nội dung Khủng bố (TCO). Xin lưu ý rằng bạn có thể xem phiên bản cập nhật mới nhất của Báo cáo minh bạch này trong phần ngôn ngữ Anh-Mỹ.

Đại diện pháp lý 

Snap Group Limited đã bổ nhiệm Snap B.V. làm Đại diện Pháp lý cho các mục đích của DSA. Bạn có thể liên hệ người đại diện của DSA qua dsa-enquiries@snapchat.com, AVMSD cùng DMA qua vsp-enquiries@snapchat.com, TCO qua tco-enquiries@snapchat.com trên Trang web Hỗ trợ của chúng tôi tại [đây] hoặc tại:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Hà Lan

Nếu bạn là cơ quan thực thi luật pháp, vui lòng thực hiện theo các bước được quy định tại đây.

Vui lòng sử dụng tiếng tiếng Anh hoặc tiếng Hà Lan khi liên hệ với chúng tôi.

Các cơ quan quản lý pháp luật

Đối với DSA, chúng tôi chịu sự quản lý của Ủy ban châu Âu và Cơ quan Quản lý Người tiêu dùng và Thị trường Hà Lan (ACM). Đối với AVMSD và DMA, chúng tôi chịu sự quản lý của Cơ quan Truyền thông Hà Lan (CvdM). Đối với TCO, chúng tôi chịu sự quản lý của Cơ quan Quản lý Hà Lan về phòng chống Nội dung khủng bố trực tuyến và Tư liệu Lạm dụng Tình dục Trẻ em (ATKM).

Báo cáo Minh bạch DSA

Theo Điều 15, 24 và 42 của DSA, Snap phải xuất bản các báo cáo có chứa thông tin theo quy định liên quan đến việc kiểm duyệt nội dung từ Snap cho các dịch vụ của Snapchat được coi là “nền tảng trực tuyến”, tức là, Tâm điểm, Dành cho Bạn, Hồ sơ công khai, Bản đồ, Ống kính và Quảng cáo. Báo cáo này phải được công bố 6 tháng một lần, kể từ ngày 25 tháng 10 năm 2023.

Snap xuất bản báo cáo minh bạch hai lần một năm để cung cấp cái nhìn sâu sắc về các nỗ lực an toàn của Snap cũng như tính chất và khối lượng nội dung được báo cáo trên nền tảng của chúng tôi. Bạn có thể tìm thấy báo cáo mới nhất của chúng tôi cho nửa đầu năm 2023 (Ngày 1/7 đến 31/12) tại đây (số liệu Người sử dụng Dịch vụ Tích cực Trung bình Hàng tháng cập nhật từ ngày 1/8/2024 – xem ở cuối trang này). Bạn có thể xem các số liệu thống kê cụ thể cho Đạo luật Dịch vụ Kỹ thuật số trên trang này.

Người sử dụng tích cực trung bình hằng tháng 
(Điều 24.2 và 42.3 của DSA)

Tại thời điểm ngày 31/12/2023, chúng tôi có 90,9 triệu người sử dụng tích cực trung bình hằng tháng (AMAR) trên ứng dụng Snapchat ở Liên minh châu Âu. Điều đó có nghĩa là trung bình trong 6 tháng qua, 90,9 triệu người dùng đã đăng ký tại Liên minh Châu Âu (EU) đã mở ứng dụng Snapchat ít nhất một lần trong một tháng đã nêu.

Con số này được chia theo từng nước thành viên như sau:

Những con số này được tính toán để đáp ứng các quy tắc DSA hiện tại và chỉ nên được sử dụng cho các mục đích DSA. Chúng tôi đã thay đổi cách chúng tôi tính toán con số này theo thời gian, bao gồm cả việc phản hồi lại thay đổi chính sách nội bộ, hướng dẫn và công nghệ của cơ quan quản lý, và các số liệu không nhằm mục đích so sánh giữa các giai đoạn. Số liệu này cũng khác so với các tính toán được sử dụng cho các số liệu người dùng hoạt động khác cho các mục đích khác.


Yêu cầu của cơ quan có thẩm quyền của các nước thành viên
(DSA Điều 15.1(a))

Yêu cầu gỡ xuống 

Trong thời gian này, chúng tôi đã nhận được 0 yêu cầu gỡ xuống từ các quốc gia thành viên EU theo Điều 9 của DSA. 

Yêu cầu thông tin 

Trong thời gian này, chúng tôi đã nhận được các yêu cầu thông tin sau đây từ các quốc gia thành viên EU theo Điều 10 của DSA:

Thời gian quay vòng trung bình để thông báo cho cơ quan chức năng về việc nhận yêu cầu là 0 phút - chúng tôi cung cấp phản hồi tự động xác nhận. Thời gian quay vòng trung bình để Yêu cầu thông tin có hiệu lực là ~10 ngày. Số liệu này phản ánh khoảng thời gian từ khi Snap nhận được IR đến khi Snap tin rằng yêu cầu được giải quyết hoàn toàn. Trong một số trường hợp, thời gian của quá trình này phụ thuộc vào một phần vào tốc độ mà cơ quan thực thi pháp luật bất kỳ yêu cầu làm rõ nào từ Snap cần thiết để xử lý yêu cầu của họ.

Kiểm duyệt nội dung


Tất cả nội dung trên Snapchat phải tuân thủ Cẩm nang Cộng đồngĐiều khoản Dịch vụ của chúng tôi, cũng như các điều khoản, nguyên tắc và trình giải thích hỗ trợ. Các cơ chế phát hiện và báo cáo về nội dung hoặc tài khoản bất hợp pháp hoặc vi phạm sẽ được xem xét, tại thời điểm đó, hệ thống công cụ của chúng tôi xử lý yêu cầu, thu thập siêu dữ liệu liên quan và định tuyến nội dung liên quan cho nhóm kiểm duyệt của chúng tôi thông qua giao diện người dùng có cấu trúc được thiết kế để tạo điều kiện cho các hoạt động xem xét hiệu quả. Khi nhóm kiểm duyệt của chúng tôi xác định, thông qua đánh giá của con người hoặc phương tiện tự động, rằng người dùng đã vi phạm Điều khoản của chúng tôi, chúng tôi có thể xóa nội dung hoặc tài khoản vi phạm, chấm dứt hoặc hạn chế khả năng hiển thị của tài khoản liên quan và/hoặc thông báo cho cơ quan thực thi pháp luật như đã giải thích trong Trình giải thích về Kiểm duyệt, Thực thi và Khiếu nại của Snapchat.  Người dùng có tài khoản bị khóa bởi nhóm an toàn của chúng tôi vì vi phạm Cẩm nang Cộng đồng có thể gửi khiếu nại tài khoản bị khóa và người dùng có thể khiếu nại một số hành vi xử lý nội dung nhất định.

Thông báo về nội dung và tài khoản (Điều 15.1(b))

Snap đã đưa ra các cơ chế để cho phép người dùng và những người không phải người dùng thông báo cho Snap về nội dung và tài khoản vi phạm Cẩm nang Cộng đồng và Điều khoản Dịch vụ của chúng tôi trên nền tảng, bao gồm cả những tài khoản mà họ coi là bất hợp pháp theo Điều 16 của DSA.  Các cơ chế báo cáo này có sẵn trong chính ứng dụng (tức là trực tiếp từ nội dung) và trên trang web của chúng tôi.

Trong thời gian liên quan, chúng tôi đã nhận được các thông báo về nội dung và tài khoản sau đây ở EU:

Trong nửa sau năm 2023, chúng tôi đã xử lý 664.896 thông báo chỉ thông qua các phương tiện tự động. Tất cả những điều này được thực thi theo Cẩm nang Cộng đồng của chúng tôi vì Cẩm nang Cộng đồng của chúng tôi đóng gói nội dung bất hợp pháp. 

Ngoài nội dung và tài khoản do người dùng tạo, chúng tôi kiểm duyệt các quảng cáo nếu chúng vi phạm chính sách nền tảng của chúng tôi. Dưới đây là tổng số quảng cáo đã được báo cáo và xóa ở EU. 

Thông báo Người Báo Cáo Uy Tín (Điều 15.1(b))

Trong giai đoạn của Báo cáo minh bạch mới nhất của chúng tôi (nửa sau năm 2023), không có Người gắn cờ đáng tin cậy nào được chỉ định chính thức theo DSA. Do đó, số lượng thông báo được gửi bởi những Người Báo Cáo Uy Tín này là (0) trong giai đoạn này.

Kiểm duyệt nội dung chủ động (Điều 15.1(c))

Trong thời gian liên quan, Snap đã thực thi các nội dung và tài khoản sau đây ở EU sau khi tham gia kiểm duyệt nội dung theo sáng kiến của mình:

Tất cả các nỗ lực kiểm duyệt sáng kiến của riêng Snap đều thúc đẩy con người hoặc tự động hóa. Trên các bề mặt nội dung công khai của chúng tôi, nội dung thường trải qua cả kiểm duyệt tự động và đánh giá của con người trước khi đủ điều kiện để phân phối cho nhiều đối tượng. Liên quan đến các công cụ tự động, chúng bao gồm:

  • Chủ động phát hiện nội dung bất hợp pháp và vi phạm bằng cách sử dụng máy học;

  • Các công cụ khớp mã băm (chẳng hạn như PhotoDNA và CSAI Match của Google);

  • Phát hiện Ngôn ngữ Lạm dụng để từ chối nội dung dựa trên danh sách các từ khóa lạm dụng được xác định và cập nhật thường xuyên, bao gồm cả biểu tượng cảm xúc


Khiếu nại (Điều 15.1(d))

Trong thời gian liên quan, Snap đã xử lý các khiếu nại về nội dung và tài khoản sau đây ở EU thông qua các hệ thống xử lý khiếu nại nội bộ của mình:


* Ngăn chặn hành vi bóc lột tình dục trẻ em là ưu tiên hàng đầu. Snap dành nhiều nguồn lực đáng kể cho việc này và không khoan nhượng đối với hành vi này. Nhân sự được đào tạo đặc biệt để xem xét khiếu nại CSE và có một đội ngũ đại diện nhất định xử lý các đánh giá này do tính chất nhạy cảm của nội dung. Trong mùa thu năm 2023, Snap đã thực hiện các thay đổi chính sách ảnh hưởng đến tính nhất quán của một số biện pháp thực thi CSE và chúng tôi đã duy trì sự nhất quán bằng cách đào tạo lại đại diện và đảm bảo chất lượng nghiêm ngặt. Chúng tôi hy vọng rằng báo cáo minh bạch tiếp theo sẽ tiết lộ tiến trình cải thiện thời gian phản hồi đối với khiếu nại CSE và cải thiện độ chính xác của các biện pháp thực thi ban đầu. 

Phương tiện tự động để kiểm duyệt nội dung (Điều 15.1(e))

Trên các bề mặt nội dung công khai của chúng tôi, nội dung thường trải qua cả kiểm duyệt tự động và đánh giá của con người trước khi đủ điều kiện để phân phối cho nhiều đối tượng. Liên quan đến các công cụ tự động, chúng bao gồm:

  • Chủ động phát hiện nội dung bất hợp pháp và vi phạm bằng cách sử dụng máy học;

  • Các công cụ khớp mã băm (như PhotoDNA và CSAI Match của Google);

  • Phát hiện Ngôn ngữ Lạm dụng để từ chối nội dung dựa trên danh sách các từ khóa lạm dụng được xác định và cập nhật thường xuyên, bao gồm cả biểu tượng cảm xúc.


Độ chính xác của các công nghệ kiểm duyệt tự động với tất cả các mối nguy hại là khoảng 96,61% và tỷ lệ lỗi là khoảng 3,39%.


Các biện pháp bảo vệ kiểm duyệt nội dung (Điều 15.1(e))

Chúng tôi hiểu rằng có những rủi ro liên quan đến việc quản trị nội dung, bao gồm cả rủi ro về quyền tự do bày tỏ và hội họp, đây là những rủi ro có thể gây ra bởi thiên kiến của cả quản trị viên tự động và quản trị viên con người, cũng như bởi các báo cáo bị lạm dụng bởi chính phủ, khu vực chính trị hoặc các cá nhân có tổ chức. Nhìn chung Snapchat không phải là nơi dành cho nội dung chính trị hoặc cho các nhà hoạt động, nhất là ở những không gian cộng đồng của chúng tôi.


Dù vậy, để đảm bảo an toàn trước các rủi ro này, Snap có sẵn những thử nghiệm và tập huấn với quy trình vững chắc, nhất quán trong việc xử lý các báo cáo về nội dung bất hợp pháp hoặc vị phạm, bao gồm cả những nội dung từ các cơ quan thực thi pháp luật và cơ quan chính phủ. Chúng tôi không ngừng đánh giá và phát triện thuật toán quản trị nội dung của mình. Dù những hiểm họa tiềm tàng đối với quyền tự do ngôn luận là rất khó phát hiện, chúng tôi chưa thấy vấn đề nghiêm trọng nào và chúng tôi cung cấp công cụ để người dùng báo cáo lỗi khi xảy ra.


Chính sách và hệ thống của chúng tôi thúc đẩy việc thực thi nhất quán và công bằng, và cung cấp cho các Snapchatter cơ hội để khiếu nại kết quả thực thi một cách có ý nghĩa thông qua quá trình Thông Báo và Khiếu Nại nhằm bảo vệ lợi ích của cộng đồng chúng tôi bằng cách bảo vệ quyền lợi của mỗi Snapchatter.

Chúng tôi không ngừng phấn đấu phát triển chính sách và quy trình thực thi và đã đạt được những bước tiến dài trong việc chống lại các nội dụng và các hoạt động có thể gây hại hoặc bất hợp pháp trên Snapchat. Điều này được thể hiện trong xu hướng tăng trong các con số về báo cáo và thực thi của chúng tôi, được thể hiện trong Báo Cáo Minh Bạch mới nhất của chúng tôi, cũng như trong xu hướng giảm phổ biến của các vi phạm trên Snapchat nói chung.


Giải quyết ngoài tòa án (Điều 24.1(a))

Trong giai đoạn của Báo cáo minh bạch mới nhất của chúng tôi (nửa sau năm 2023), không có phương thức giải quyết ngoài tòa án nào được chính thức chỉ định theo DSA. Do đó, số lượng tranh chấp được gửi tới các cơ quan như vậy là (0) trong giai đoạn này và chúng tôi không thể đưa ra kết quả, thời gian giải quyết trung bình cũng như tỷ lệ tranh chấp trong đó chúng tôi thực hiện các quyết định của cơ quan. 



Đình chỉ tài khoản (Điều 24.1(b))

Trong nửa sau năm 2023, chúng tôi không đình chỉ bất kỳ tài khoản nào theo Điều 23. Đội ngũ Tin cậy & An toàn của Snap có các quy trình có sẵn nhằm hạn chế khả năng tài khoản người dùng thường xuyên gửi thông báo hoặc khiếu nại vô căn cứ hiển nhiên. Các quy trình này bao gồm hạn chế tạo báo cáo trùng lặp và sử dụng bộ lọc email để ngăn người dùng thường xuyên gửi báo cáo vô căn cứ hiển nhiên tiếp tục làm như vậy. Snap thực thi các hành động cần thiết đối với các tài khoản như đã giải thích trong Giải thích về Quản trị, Thực thi và Khiếu nại của Snapchat và thông tin về mức độ thực thi với tài khoản Snap có thể tìm thấy trong Báo Cáo Minh Bạch của chúng tôi (nửa đầu năm 2023). Các biện pháp như vậy sẽ tiếp tục được xem xét và lặp lại.


Nguồn lực , chuyên môn và sự hỗ trợ của Quản trị viên (Điều 42.2)

Đội ngũ kiểm duyệt nội dung của chúng tôi hoạt động trên toàn cầu, cho phép chúng tôi giúp giữ an toàn cho Tín đồ Snapchat 24/7. Dưới đây, bạn sẽ tìm thấy phân tích về đội ngũ nhân viên kiểm duyệt của chúng tôi theo từng ngôn ngữ của người kiểm duyệt (lưu ý rằng một số người kiểm duyệt chuyên nhiều ngôn ngữ) kể từ 31 tháng 12 năm 2023:

Bảng trên bao gồm tất cả kiểm duyệt viên hỗ trợ các ngôn ngữ của nhà nước thành viên Châu Âu vào ngày 31 tháng 12 năm 2023. Trong những trường hợp chúng tôi cần hỗ trợ thêm về ngôn ngữ, chúng tôi sử dụng dịch vụ dịch thuật.

Quản trị viên được tuyển dụng bằng cách sử dụng bản mô tả công việc tiêu chuẩn bao gồm yêu cầu về ngôn ngữ (tùy theo nhu cầu). Yêu cầu về ngôn ngữ quy định rằng ứng viên cần thể hiện được khả năng đọc, viết lưu loát bằng ngôn ngữ được yêu cầu và có ít nhất một năm kinh nghiệm đối với vị trí ở cấp tối thiểu. Ứng viên phải đạt đủ điều kiện về trình độ học vấn và hoàn cảnh để được xem xét. Ứng viên cũng cần thể hiện sự hiểu biết về các sự kiện đang diễn ra tại đất nước hoặc vùng nơi mình phụ trách quản trị nội dung.

Đội ngũ quản trị của chúng tôi áp dụng các chính sách và biện pháp thực thi của chúng tôi để giúp bảo vệ cộng đồng Snapchat. Việc đào tạo sẽ được tiến hành trong nhiều tuần, trong thời gian đó các thành viên mới của đội ngũ sẽ được tập huấn về các chính sách, công cụ và quy trình khi có sự cố của Snap. Sau đợt tập huấn, mỗi quản trị viên phải có kết quả đạt trong bài thi chứng chỉ trước khi được phép kiểm duyệt nội dung. Đội ngũ quản trị của chúng tôi thường xuyên tham gia vào các buổi tập huấn ôn lại liên quan đến quy trình làm việc của họ, nhất là khi chúng tôi gặp phải những giới hạn về chính sách và những trường hợp phụ thuộc vào hoàn cảnh. Chúng tôi cũng tổ chức các chương trình nâng cao kỹ năng, các đợt lấy chứng chỉ và các buổi hỏi đáp để đảm bảo mọi quản trị viên luôn cập nhật và tuân thủ với các chính sách mới nhất. Cuối cùng, khi các xu hướng nội dung khẩn cấp xuất hiện dựa trên các sự kiện đang diễn ra, chúng tôi nhanh chóng phổ biến và làm rõ chính sách để các đội ngũ có thể phản hồi theo đúng chính sách của Snap.

Chúng tôi cung cấp cho đội quản trị nội dung của chúng tôi - những "người ứng phó kỹ thuật số đầu tiên" của Snap - sự hỗ trợ và nguồn lực lớn, bao gồm và việc hỗ trợ sức khỏe tại nơi làm việc và việc dễ dàng tiếp cận các dịch vụ sức khỏe tâm thần.

Báo cáo về việc quét nội dung Bóc lột và Lạm dụng Tình dục Trẻ em (CSEA)


Bối cảnh

Việc xâm hại tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm nang Cộng đồng của chúng tôi. Việc ngăn chặn, phát hiện và xóa Hình ảnh Lạm dụng và Xâm hại Tình dục Trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap và chúng tôi liên tục phát triển khả năng của mình để chống lại loại tội phạm này, cũng như các loại tội phạm khác.


Chúng tôi sử dụng công cụ đối sánh băm mạnh mẽ của PhotoDNA và Đối sánh Dữ liệu Hình ảnh Lạm dụng Tình dục Trẻ em (CSAI) của Google để xác định các hình ảnh và video bị xem là bất hợp pháp, và báo cáo cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC), theo yêu cầu của pháp luật. NCMEC sau đó sẽ phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế theo yêu cầu.


Báo cáo

Dữ liệu dưới đây dựa trên kết quả của việc quét chủ động bằng PhotoDNA và/hoặc CSAI Match đối với nội dung phương tiện do người dùng tải từ cuộn camera lên Snapchat.

Ngăn chặn hành vi bóc lột tình dục trẻ em là ưu tiên hàng đầu. Snap dành nhiều nguồn lực đáng kể cho việc này và không khoan nhượng đối với hành vi này.  Nhân sự được đào tạo đặc biệt để xem xét khiếu nại CSE và có một đội ngũ đại diện nhất định xử lý các đánh giá này do tính chất nhạy cảm của nội dung.  Trong mùa thu năm 2023, Snap đã thực hiện các thay đổi chính sách ảnh hưởng đến tính nhất quán của một số biện pháp thực thi CSE, và chúng tôi đã duy trì sự nhất quán bằng cách đào tạo lại đại diện và đảm bảo chất lượng nghiêm ngặt.  Chúng tôi hy vọng rằng báo cáo minh bạch tiếp theo sẽ tiết lộ tiến trình cải thiện thời gian phản hồi đối với khiếu nại CSE và cải thiện độ chính xác của các biện pháp thực thi ban đầu.

Biện pháp an toàn trong quản trị nội dung

Các biện pháp an toàn được áp dụng để quét nội dung CSEA được nêu trong phần “Biện pháp an toàn trong quản trị nội dung” ở trên trong Báo cáo DSA.


Báo cáo về việc quét nội dung Bóc lột và Lạm dụng Tình dục Trẻ em (CSEA)


Bối cảnh

Việc xâm hại tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm nang Cộng đồng của chúng tôi. Việc ngăn chặn, phát hiện và xóa Hình ảnh Lạm dụng và Xâm hại Tình dục Trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap và chúng tôi liên tục phát triển khả năng của mình để chống lại loại tội phạm này, cũng như các loại tội phạm khác.


Chúng tôi sử dụng công cụ đối sánh băm mạnh mẽ của PhotoDNA và Đối sánh Dữ liệu Hình ảnh Lạm dụng Tình dục Trẻ em (CSAI) của Google để xác định các hình ảnh và video bị xem là bất hợp pháp, và báo cáo cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC), theo yêu cầu của pháp luật. NCMEC sau đó sẽ phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế theo yêu cầu.


Báo cáo

Dữ liệu dưới đây dựa trên kết quả của việc quét chủ động bằng PhotoDNA và/hoặc CSAI Match đối với nội dung phương tiện do người dùng tải từ cuộn camera lên Snapchat.

Ngăn chặn hành vi bóc lột tình dục trẻ em là ưu tiên hàng đầu. Snap dành nhiều nguồn lực đáng kể cho việc này và không khoan nhượng đối với hành vi này.  Nhân sự được đào tạo đặc biệt để xem xét khiếu nại CSE và có một đội ngũ đại diện nhất định xử lý các đánh giá này do tính chất nhạy cảm của nội dung.  Trong mùa thu năm 2023, Snap đã thực hiện các thay đổi chính sách ảnh hưởng đến tính nhất quán của một số biện pháp thực thi CSE, và chúng tôi đã duy trì sự nhất quán bằng cách đào tạo lại đại diện và đảm bảo chất lượng nghiêm ngặt.  Chúng tôi hy vọng rằng báo cáo minh bạch tiếp theo sẽ tiết lộ tiến trình cải thiện thời gian phản hồi đối với khiếu nại CSE và cải thiện độ chính xác của các biện pháp thực thi ban đầu.

Biện pháp an toàn trong quản trị nội dung

Các biện pháp an toàn được áp dụng để quét nội dung CSEA được nêu trong phần “Biện pháp an toàn trong quản trị nội dung” ở trên trong Báo cáo DSA.


Ngăn chặn hành vi bóc lột tình dục trẻ em là ưu tiên hàng đầu. Snap dành nhiều nguồn lực đáng kể cho việc này và không khoan nhượng đối với hành vi này.  Nhân sự được đào tạo đặc biệt để xem xét khiếu nại CSE và có một đội ngũ đại diện nhất định xử lý các đánh giá này do tính chất nhạy cảm của nội dung.  Trong mùa thu năm 2023, Snap đã thực hiện các thay đổi chính sách ảnh hưởng đến tính nhất quán của một số biện pháp thực thi CSE, và chúng tôi đã duy trì sự nhất quán bằng cách đào tạo lại đại diện và đảm bảo chất lượng nghiêm ngặt.  Chúng tôi hy vọng rằng báo cáo minh bạch tiếp theo sẽ tiết lộ tiến trình cải thiện thời gian phản hồi đối với khiếu nại CSE và cải thiện độ chính xác của các biện pháp thực thi ban đầu.

Biện pháp an toàn trong quản trị nội dung

Các biện pháp an toàn được áp dụng để quét nội dung CSEA được nêu trong phần “Biện pháp an toàn trong quản trị nội dung” ở trên trong Báo cáo DSA.


DSA của EU: Người nhận tích cực trung bình hàng tháng (Tháng 8 năm 2024)
(Điều 24.2 và 42.3 của DSA)

Tính đến ngày 1 tháng 8 năm 2024, chúng tôi có 92,4 triệu người nhận hoạt động trung bình hàng tháng (“AMAR”) của ứng dụng Snapchat ở EU. Điều này có nghĩa là, trung bình trong 6 tháng qua, 92,4 triệu người dùng đã đăng ký tại EU đã mở ứng dụng Snapchat ít nhất một lần trong một tháng nhất định.

Con số này được chia theo từng nước thành viên như sau: