Snap Values
ইউরোপীয় ইউনিয়ন

Welcome to our European Union (EU) transparency page, where we publish EU specific information required by the Digital Services Act (DSA), the Audiovisual Media Service Directive (AVMSD), the Dutch Media Act (DMA), and the Terrorist Content Online Regulation (TCO). Please note that the most up-to-date version of these Transparency Reports can be found in the en-US locale.

Legal Representative 

Snap Group Limited has appointed Snap B.V. as its Legal Representative for purposes of the DSA. You can contact the representative at dsa-enquiries [at] snapchat.com for the DSA, at vsp-enquiries [at] snapchat.com for AVMSD and DMA, at tco-enquiries [at] snapchat.com for TCO, through our Support Site [here], or at:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

If you are a law enforcement agency, please follow the steps outlined here.

Please communicate in English or Dutch when contacting us.

Regulatory Authorities

For DSA, we are regulated by the European Commission, and the Netherlands Authority for Consumers and Markets (ACM). For AVMSD and the DMA, we are regulated by the Dutch Media Authority (CvdM). For TCO, we are regulated by the Netherlands Authority for the prevention of Online Terrorist Content and Child Sexual Abuse Material (ATKM).

Child Sexual Exploitation and Abuse (CSEA) Media Scanning Report

Released: 30 January 2026

Last Updated: 30 January 2026 


This report covers the period starting on 1 January 2025 and ending on 31 December 2025.


Background

The sexual exploitation of any member of our community, especially minors, is illegal, abhorrent, and prohibited by our Community Guidelines. Preventing, detecting, and eradicating Child Sexual Exploitation and Abuse (CSEA) on our platform is a top priority for Snap, and we continually evolve our capabilities to combat these and other crimes.


The technologies we use include (a) PhotoDNA robust hash-matching and Google’s Child Sexual Abuse Imagery (CSAI) Match to identify known illegal images and videos of CSEA, respectively; and (b) Google’s Content Safety API to identify novel, "never-before-hashed" CSEA imagery. We report CSEA imagery to the U.S. National Center for Missing and Exploited Children (NCMEC), as required by law. NCMEC, in turn, coordinates with law enforcement in the U.S. and other countries, as needed.


Report

The chart below includes data about proactive detection and resulting enforcements against EU users for CSEA imagery during 2025. (Note: some enforcements resulting from proactive scanning in 2025 may still be subject to appeal as of when this report was compiled, and therefore would not be reflected in the appeals and reinstatements data below.)


EU Data 

Totals

Total content identified as potential CSEA imagery through proactive scanning 

189,057

Total enforcements for violation of Snap’s policies against CSEA

61,774

Total appealed

12,246

Total appeals reviewed 

12,246

Total enforcements overturned following appeal

1,012

Rate of enforcements overturned following appeal (Total enforcements overturned / Total appeals reviewed)

8.26%

Detected CSEA retention period

730 days

1.  This category reports enforcements for violations of Snap’s Community Guidelines prohibiting child sexual exploitation.  Proactively detected content that is enforced for other violations of Snap’s Community Guidelines is not reported here.

2.  An enforcement can be overturned if we determine it was erroneous based on our policies in effect at the time of enforcement, or if we determine it was correctly enforced originally, but our applicable policy has changed at the time of reviewing the appeal.

Content Moderation Safeguards

The safeguards applied for CSEA Media Scanning are set out in the above EU DSA Transparency Report.


DSA ঝুঁকির মূল্যায়ন

এই প্রতিবেদনগুলি রেগুলেশন (EU) 2022/2065-এর আর্টিকেল 34 ও 35-এর অধীনে Snap-এর বাধ্যবাধকতা মেনে চলার জন্য প্রস্তুত করা হয়েছে এবং Snapchat-এর অনলাইন প্ল্যাটফর্মগুলির ডিজাইন, কার্যকারিতা ও ব্যবহার থেকে উদ্ভূত সিস্টেম ঝুঁকির আমাদের বার্ষিক মূল্যায়নের ফলাফল প্রদান করে, সেই সাথে সেই ঝুঁকিগুলি মূল্যায়নের জন্য ব্যবহৃত পদ্ধতি এবং সেই ঝুঁকিগুলি মোকাবেলার জন্য প্রশমন ব্যবস্থাগুলিও প্রদান করে।

DSA অডিট এবং অডিট বাস্তবায়ন

এই রিপোর্টটি রেগুলেশন (EU) 2022/2065-এর অনুচ্ছেদ 37-এর অধীনে Snap-এর বাধ্যবাধকতা মেনে চলার জন্য প্রস্তুত করা হয়েছে এবং এটি (i) রেগুলেশন (EU) 2022/2065-এর অধ্যায় III-এ উল্লেখ করা বাধ্যবাধকতাগুলো Snap-এর মেনে চলার ব্যাপারে স্বতন্ত্র অডিটের ফলাফল প্রদান করে এবং (ii) ওই স্বতন্ত্র অডিটে যে কার্য পরিচালনা সংক্রান্ত সুপারিশ করা হয়েছে, সেগুলো বাস্তবায়ন করতে গৃহীত পদক্ষেপগুলি সম্পর্কে তথ্য প্রদান করে।

ইউরোপীয় ইউনিয়নের VSP কোড অফ প্র্যাকটিস

Snap হল “ভিডিও শেয়ারিং-প্ল্যাটফর্ম পরিষেবা”(”VSP”) প্রদানকারী যা AVMSD-এর অনুচ্ছেদ 1(1)(aa) অনুসরণ করে। ডাচ মিডিয়া অ্যাক্ট ("DMA") এবং নির্দেশিকা (EU) 2010/13 (যেমনটা নির্দেশিকা (EU) 2018/1808 ("অডিওভিজ্যুয়াল মিডিয়া পরিষেবা নির্দেশিকা" বা "AVMSD") দ্বারা সংশোধিত হয়েছে) সেটির অধীনে Snap কীভাবে VSP হিসাবে তার বাধ্যবাধকতাগুলি মেনে চলে তা বর্ণনা করার জন্য এই কোড অফ কন্ডাক্ট ("কোড") প্রস্তুত করা হয়েছে। কোডটি ইউরোপীয় ইউনিয়নের পাশাপাশি ইউরোপীয় অর্থনৈতিক অঞ্চল জুড়ে প্রযোজ্য।

ইউরোপীয় ইউনিয়ন VSP কোড অফ কন্ডাক্ট | Snapchat | মার্চ 2025 (PDF)

বুলগেরিয়ান | ক্রোয়েশিয়ান | চেক | ড্যানিশ | ডাচ | এস্তোনীয় | ফিনিশ | ফরাসি | জার্মান | গ্রীক | হাঙ্গেরীয় | আইরিশ | ইতালীয় | লাটভিয়ান | লিথুয়ানিয়ান | মাল্টিজ | পোলিশ | পর্তুগীজ | রোমানীয় | স্লোভাক | স্লোভেনীয় | স্প্যানিশ | সুইডিশ