Welkom op onze transparantiepagina voor de Europese Unie (EU), waar we EU-specifieke informatie publiceren zoals vereist door de Verordening digitale diensten (DSA), de Richtlijn audiovisuele mediadiensten (AVMSD), de Nederlandse Mediawet (DMA) en de Richtlijn terroristische online-inhoud (TCO). Houd er rekening mee dat de meest recente versie van dit transparantieverslag te vinden is in de landinstelling en-US.
Snap Group Limited heeft Snap B.V. aangewezen als wettelijke vertegenwoordiger voor doeleinden met betrekking tot de Verordening digitale diensten (DSA). Je kunt contact opnemen met de vertegenwoordiger via dsa-enquiries [at] snapchat.com voor de DSA, via vsp-enquiries [at] snapchat.com voor de AVMSD en DMA en tco-enquiries [at] snapchat.com, voor de TCO, via onze Ondersteuningssite [hier], of met:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland
Wetshandhavende instanties kunnen de stappen volgen die hier worden beschreven.
Gebruik Engels of Nederlands wanneer je contact met ons opneemt.
De regelgevende instanties voor de DSA zijn de Europese Commissie en de Nederlandse Autoriteit Consument & Markt (ACM). De regelgevende instantie voor de AVMSD en de DMA is het Nederlandse Commissariaat voor de Media (CvdM). De regelgevende instantie voor de TCO is de Nederlandse Autoriteit online Terroristisch en Kinderpornografisch Materiaal (ATKM).
Gepubliceerd: 30 januari 2026
Laatst bijgewerkt: 30 januari 2026
Dit rapport heeft betrekking op de periode van 1 januari 2025 tot 31 december 2025.
Achtergrond
Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdaden te bestrijden.
We maken onder meer gebruik van technologieën als (a) de robuuste hash-matching van PhotoDNA en de Child Sexual Abuse Imagery (CSAI) Match van Google om bekende illegale afbeeldingen en video's van CSEA te identificeren; en (b) de Content Safety API van Google om nieuwe, nooit eerder gehasht CSEA-beeldmateriaal te identificeren. We melden CSEA-beeldmateriaal aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), conform onze wettelijke verplichtingen. Het NCMEC werkt samen met wetshandhavers in de VS en andere landen, indien dat nodig is.
Rapport
Het onderstaande schema bevat gegevens over proactieve detectie en de daaruit voortvloeiende handhaving tegen EU-gebruikers inzake CSEA-beeldmateriaal in 2025. (Opmerking: Sommige handhavingsmaatregelen ten gevolge van het proactief scannen in 2025 kunnen nog onderwerp van een actieve beroepsprocedure zijn geweest bij het samenstellen van dit rapport. Deze maatregelen zijn niet opgenomen in de onderstaande cijfers met betrekking tot beroepen en herstellingen.)
EU-gegevens
Totalen
Totale content die door proactief scannen is geïdentificeerd als potentiële CSEA-beelden
189.057
Totaal aantal handhavingsmaatregelen voor schending van het beleid van Snap tegen CSEA
61.774
Totaal
12.246
Totaal aantal beoordeelde beroepen
12.246
Totaal aantal handhavingsmaatregelen na beroep nietig verklaard
1.012
Percentage handhavingsmaatregelen herroepen na beroep (Totaal aantal handhavingsmaatregelen herroepen / Totaal aantal beoordeelde beroepen)
8,26%
Gedetecteerde CSEA-bewaarperiode
730 dagen
1. Deze categorie meldt handhavingsmaatregelen wegens schendingen van de Communityrichtlijnen van Snap, die seksuele uitbuiting van kinderen verbiedt. Proactief gedetecteerde content die wordt gehandhaafd voor andere schendingen van de Communityrichtlijnen van Snap, wordt hier niet gerapporteerd.
2. Een handhaving kan worden teruggedraaid als we vaststellen dat het onterecht was op basis van ons beleid dat van kracht was op het moment van handhaving, of als we vaststellen dat het aanvankelijk correct is gehandhaafd, maar ons toepasselijke beleid is veranderd op het moment van het beoordelen van het beroep.
Veiligheidsmaatregelen voor contentmoderatie
De veiligheidsmaatregelen met betrekking tot CSEA-mediascanning worden vermeld in het bovenstaande DSA-transparantieverslag.
Deze rapporten zijn opgesteld om te voldoen aan Snaps verplichtingen op grond van artikel 34 en 35 van Verordening (EU) 2022/2065 en bevatten de resultaten van onze jaarlijkse beoordelingen van systeemrisico's die voortvloeien uit het ontwerp, de werking en het gebruik van de online platforms van Snapchat, samen met de methodologie die is gebruikt om deze risico's te beoordelen en de maatregelen die zijn genomen om deze risico's te beperken.
Deze rapporten zijn opgesteld om te voldoen aan de verplichtingen van Snap op grond van artikel 37 van Verordening (EU) 2022/2065 en bevatten: (i) de resultaten van de onafhankelijke audit van de naleving door Snap van de verplichtingen op grond van hoofdstuk III van Verordening (EU) 2022/2065 en (ii) de maatregelen die zijn genomen om de operationele aanbevelingen van die onafhankelijke audit uit te voeren.
Snap is een 'videoplatformdienst' ('VSP') op grond van artikel 1, lid 1, onder aa AVMSD. Deze Gedragscode is opgesteld om te beschrijven hoe Snap voldoet aan haar verplichtingen als VSP onder de Nederlandse Mediawet ('MW') en richtlijn (EU) 2010/13 (zoals gewijzigd door richtlijn (EU) 2018/1808 ['Richtlijn audiovisuele mediadiensten' of 'AVMSD']). De Gedragscode geldt in de Europese Unie en de Europese Economische Ruimte.
VSP-gedragscode EU | Snapchat | maart 2025 (PDF)
Bulgaars | Kroatisch | Tsjechisch | Deens | Nederlands | Ests | Fins | Frans | Duits | Grieks | Hongaars | Iers | Italiaans | Lets | Litouws | Maltees | Pools | Portugees | Roemeens | Slowaaks | Sloveens | Spaans | Zweeds