1 december 2025
1 december 2025
We publiceren dit transparantieverslag twee keer per jaar om inzicht te geven in de veiligheidsmaatregelen van Snap. Omdat wij veiligheid en transparantie belangrijk vinden, streven we er voortdurend naar om deze verslagen uitgebreider en informatiever te maken voor de vele belanghebbenden die onze contentmoderatie, samenwerking met de wetshandhaving en de veiligheid en het welzijn van de Snapchat-community belangrijk vinden.
Dit transparantieverslag gaat over de eerste helft van 2025 (1 januari – 30 juni). We delen wereldwijde gegevens over meldingen van gebruikers en proactieve detectie door Snap; handhavingsmaatregelen door onze veiligheidsteams in specifieke categorieën schendingen van de Communityrichtlijnen; hoe we verzoeken van wetshandhavingsinstanties en overheden verwerken; en hoe we kennisgevingen van inbreuk op auteursrecht en handelsmerken verwerken. We bieden ook landspecifieke inzichten op een reeks gelinkte pagina's.
Zie ons tabblad Over transparantieverslagen onderaan de pagina om aanvullende veiligheids- en privacybronnen op Snapchat te vinden.
Houd er rekening mee dat de Engelse versie van dit transparantieverslag de meest actuele is.
Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams
Onze veiligheidsteams handhaven onze Communityrichtlijnen zowel proactief (met behulp van geautomatiseerde detectietools) als reactief (naar aanleiding van meldingen). In de volgende onderdelen van dit verslag wordt dit nader uiteengezet. In deze rapportagecyclus (H1 2025) hebben onze veiligheidsteams het volgende aantal handhavingsmaatregelen genomen:
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
9.674.414
5.794.201
Hieronder staat een overzicht van verschillende soorten schendingen van onze Communityrichtlijnen, inclusief de mediane 'doorlooptijd' van het detectiemoment van de schending (proactief of na een ontvangen melding) tot het moment waarop we definitief actie tegen de betreffende content of account namen:
Beleidsreden
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
Mediane doorlooptijd (minuten) van detectie tot definitieve actie
Seksuele content
5.461.419
3.233.077
1
Seksuele uitbuiting en misbruik van kinderen
1.095.424
733.106
5
Lastigvallen en pesten
713.448
594.302
3
Bedreigingen en geweld
187.653
146.564
3
Zelfverwonding en zelfmoord
47.643
41.216
5
Onjuiste informatie
2.088
2.004
1
Imitatie
7.138
6.881
<1
Spam
267.299
189.344
1
Drugs
1.095.765
726.251
7
Wapens
251.243
173.381
1
Overige gereguleerde goederen
183.236
126.952
4
Haatzaaien
343.051
284.817
6
Terrorisme en gewelddadig extremisme
10.970
6.783
2
De gegevens onder Totaal aantal handhavingsmaatregelen hebben betrekking op de handhavingsmaatregelen door Snap na beoordeling van meldingen in de Snapchat-app. Dit is de overgrote meerderheid van de handhavingsmaatregelen door de veiligheidsteams van Snap. De meeste handhavingsmaatregelen als gevolg van onderzoeken op basis van meldingen aan Snap via onze Ondersteuningssite of andere mechanismen (bijv. via e-mail), of als gevolg van proactieve onderzoeken door onze veiligheidsteams, zijn hiervan uitgesloten. Deze uitgesloten handhavingsmaatregelen omvatten minder dan 0,5% van de handhaving in de eerste helft van 2025.
Tijdens de rapportageperiode was het weergavepercentage van content in strijd met onze richtlijnen (VVR) 0,01%. Dat betekent dat van elke 10.000 weergaven van Snaps en Verhalen op Snapchat er één content bevatte die in strijd was met onze Communityrichtlijnen. Onder de handhavingsmaatregelen voor wat wij als 'ernstige overtredingen' beschouwen, merkten we een VVR van 0,0003% op. In de onderstaande tabel staat een overzicht van de VVR per beleidsreden.
Beleidsreden
VVR
Seksuele content
0,00482%
Seksuele uitbuiting en misbruik van kinderen
0,00096%
Lastigvallen en pesten
0,00099
Bedreigingen en geweld
0,00176%
Zelfverwonding en zelfmoord
0,00009%
Onjuiste informatie
0,00002%
Imitatie
0,00009%
Spam
0,00060%
Drugs
0,00047%
Wapens
0,00083%
Overige gereguleerde goederen
0,00104%
Haatzaaien
0,00025%
Terrorisme en gewelddadig extremisme
0,00002%
Schendingen van onze Communityrichtlijnen gemeld aan onze veiligheids- en vertrouwensteams
Van 1 januari – 30 juni 2025 hebben de veiligheidsteams van Snap naar aanleiding van 19.766.324 in de app gemelde schendingen van onze Communityrichtlijnen wereldwijd in totaal 6.278.446 handhavingsmaatregelen genomen, waaronder maatregelen tegen 4.104.624 unieke accounts. In dit aantal meldingen in de app zijn geen meldingen via de Ondersteuningssite en e-mail opgenomen, die minder dan 1% van het totale aantal meldingen omvatten. De mediane doorlooptijd van handhavingsmaatregelen door onze veiligheidsteams naar aanleiding van die meldingen was ongeveer 2 minuten. Hieronder staat een overzicht per beleidsreden. (Opmerking: In eerdere verslagen noemden we dit soms de 'rapportagecategorie'. Vanaf heden gebruiken we de term 'beleidsreden', omdat dit beter past bij het karakter van de gegevens. Onze veiligheidsteams streven er namelijk naar om op grond van de juiste beleidsreden te handhaven, ongeacht de rapportagecategorie die is gekozen door de persoon die de melding doet.)
Totaal aantal meldingen van content en accounts
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
Totaal
19.766.324
6.278.446
4.104.624
Beleidsreden
Totaal aantal meldingen van content en accounts
Totaal aantal handhavingsmaatregelen
Handhavingspercentage van het totaal aantal Snap meldingen
Totaal aantal unieke gehandhaafde accounts
Mediane doorlooptijd (minuten) van detectie tot definitieve actie
Seksuele content
7.315.730
3.778.370
60.2%
2.463.464
1
Seksuele uitbuiting en misbruik van kinderen
1.627.097
695.679
11,1%
577.736
10
Lastigvallen en pesten
4.103.797
700.731
11,2%
584.762
3
Bedreigingen en geweld
997.346
147.162
2,3%
120.397
2
Zelfverwonding en zelfmoord
350.775
41.150
0,7%
36.657
3
Onjuiste informatie
606.979
2.027
0,0%
1.960
1
Imitatie
745.874
7.086
0,1%
6.837
<1
Spam
1.709.559
122.499
2,0%
94.837
1
Drugs
481.830
262.962
4,2%
176.799
5
Wapens
271.586
39.366
0,6%
32.316
1
Overige gereguleerde goederen
530.449
143.098
2,3%
98.023
3
Haatzaaien
817.262
337.263
5,4%
280.682
6
Terrorisme en gewelddadig extremisme
208.040
1.053
0,0%
912
2
In de eerste helft van 2025 hebben we de mediane doorlooptijd in alle beleidscategorieën verder verkort met gemiddeld 75% van de tijd in de voorafgaande rapportageperiode, naar 2 minuten. Deze vermindering is grotendeels te danken aan de voortdurende gecoördineerde inspanningen om onze prioritering van meldingen op basis van ernst van het gevaar en een geautomatiseerde beoordeling te verbeteren.
We hebben in de rapportageperiode ook gerichte wijzigingen in onze veiligheidsactiviteiten aangebracht, waaronder het versterken van ons beleid inzake illegale activiteiten met wapens. Deze wijzigingen zijn van invloed op de hier gerapporteerde gegevens. Het aantal meldingen en handhavingsmaatregelen in de categorie Seksuele uitbuiting van kinderen is toegenomen, voornamelijk als gevolg van een toenemende hoeveelheid seksuele of gevoelige content met minderjarigen dat in strijd is met ons beleid, maar niet illegaal is in de VS of aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC) hoeft te worden gemeld. De toegenomen hoeveelheid Seksuele content (en afname van de hoeveelheid met betrekking tot Lastigvallen) is te verklaren door onze herclassificatie van content met betrekking tot seksuele intimidatie, dat nu onder Seksuele content in plaats van Lastigvallen wordt opgenomen.
Onze maatregelen om schendingen van onze Communityrichtlijnen proactief te detecteren en daartegen op te treden
We gebruiken geautomatiseerde tools om schendingen van onze Communityrichtlijnen proactief te detecteren en daar in sommige gevallen tegen op te treden. Deze tools omvatten hash-matchingtechnologie (waaronder PhotoDNA en Child Sexual Abuse Imagery (CSAI) van Google), de Content Safety API van Google en andere beschermde technologieën om teksten en media te detecteren die in strijd zijn met de wet of onze richtlijnen, soms met behulp van kunstmatige intelligentie en machine learning. Onze proactieve-detectiestatistieken variëren regelmatig als gevolg van wisselend gebruikersgedrag, verbeteringen in onze detectiemogelijkheden en wijzigingen in ons beleid.
In de eerste helft van 2025 hebben we de volgende handhavingsmaatregelen genomen nadat we met behulp van geautomatiseerde detectietools proactief schendingen van onze Communityrichtlijnen hebben geconstateerd:
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
Totaal
3.395.968
1.709.224
Beleidsreden
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
Mediane doorlooptijd (minuten) van detectie tot definitieve actie
Seksuele content
1.683.045
887.059
0
Seksuele uitbuiting en misbruik van kinderen
399.756
162.017
2
Lastigvallen en pesten
12.716
10.412
8
Bedreigingen en geweld
40.489
27.662
6
Zelfverwonding en zelfmoord
6.493
4.638
7
Onjuiste informatie
61
44
20
Imitatie
52
44
34
Spam
144.800
96.500
0
Drugs
832.803
578.738
7
Wapens
211.877
144.455
0
Overige gereguleerde goederen
40.139
31.408
8
Haatzaaien
5.788
4.518
6
Terrorisme en gewelddadig extremisme
9.917
5.899
5
Bestrijding van seksuele uitbuiting en misbruik van kinderen
Seksuele uitbuiting van enig lid van onze community, in het bijzonder van minderjarigen, is illegaal, weerzinwekkend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is voor ons een topprioriteit. We ontwikkelen voortdurend meer mogelijkheden om deze en andere misdaden te bestrijden.
We gebruiken actieve technologische detectietools om CSEA-gerelateerde content te identificeren. Deze tools omvatten hash-matchingtools (waaronder PhotoDNA en CSAI Match van Google om respectievelijk illegale afbeeldingen en video's van CSEA te identificeren) en de Content Safety API van Google (om nieuw, nooit eerder gehasht illegaal beeldmateriaal te identificeren). Daarnaast maken we in sommige gevallen gebruik van gedragssignalen om tegen andere vermoedelijke CSEA-activiteiten op te treden. Wij melden CSEA-gerelateerde content aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet voorschrijft. NCMEC coördineert vervolgens waar nodig met de binnenlandse of internationale wetshandhaving.
In de eerste helft van 2025 hebben we de volgende maatregelen genomen na het proactief of als gevolg van een melding identificeren van CSEA op Snapchat:
Totale hoeveelheid gehandhaafde content
Totaal aantal accounts uitgeschakeld
Totaal aantal meldingen aan NCMEC*
994.337
187.387
321.587
*Let op: Een inzending aan NCMEC kan betrekking hebben op meerdere content. De totale hoeveelheid media die bij het NCMEC is gemeld, is gelijk aan het de totale hoeveelheid gehandhaafde content.
Onze maatregelen om hulpbronnen en ondersteuning te bieden aan Snapchatters in nood
Snapchat stelt vrienden in staat elkaar in moeilijke tijden te helpen door middel van hulpbronnen en ondersteuning aan Snapchatters in nood.
Onze zoektool Here For You biedt hulpbronnen van experts voor gebruikers die zoeken naar onderwerpen met betrekking tot mentale gezondheid, angst, depressie, stress, zelfmoordgedachten, rouw en pesten. We hebben een pagina ontwikkeld om financiële seksuele afpersing en andere seksuele risico's en gevaar te bestrijden, om mensen in nood te ondersteunen.
Als onze veiligheidsteams op de hoogte zijn van een Snapchatter in nood, kunnen ze hulpbronnen ter preventie van zelfverwonding bieden en – indien nodig – de hulpdiensten op de hoogte stellen. De hulpbronnen die wij verstrekken staan op onze wereldwijde lijst met veiligheidsbronnen, die publiekelijk toegankelijk is voor alle Snapchatters in ons Privacy-, veiligheids- en beleidscentrum.
Totaal aantal gedeelde informatiebronnen over zelfmoord
36.162
Beroep
Hieronder staat informatie over de ingestelde beroepen door gebruikers die in de eerste helft van 2025 om herziening van onze beslissing om hun account te blokkeren hebben verzocht:
Beleidsreden
Totaal aantal beroepen
Totaal aantal herstellingen
Totaal aantal bevestigde beslissingen
Mediane doorlooptijd (dagen) voor beroepsprocedures
Totaal
437.855
22.142
415.494
1
Seksuele content
134.358
6.175
128.035
1
Seksuele uitbuiting en misbruik van kinderen*
89.493
4.179
85.314
<1
Lastigvallen en pesten
42.779
281
42.496
1
Bedreigingen en geweld
3.987
77
3.909
1
Zelfverwonding en zelfmoord
145
2
143
1
Onjuiste informatie
4
0
4
1
Imitatie
1.063
33
1.030
<1
Spam
13.730
3.140
10.590
1
Drugs
128.222
7.749
120.409
1
Wapens
10.941
314
10.626
1
Overige gereguleerde goederen
9.719
124
9.593
1
Haatzaaien
3.310
67
3.242
1
Terrorisme en gewelddadig extremisme
104
1
103
1
Regionaal en landoverzicht
In dit onderdeel staat een overzicht van de handhavingsmaatregelen van onze veiligheidsteams met betrekking tot onze Communityrichtlijnen in een aantal geografische regio's, zowel proactief als naar aanleiding van meldingen van schendingen in de app. Onze Communityrichtlijnen zijn van toepassing op alle content op Snapchat – en op alle Snapchatters – wereldwijd, ongeacht de locatie.
Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.
Regio
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
Noord-Amerika
3.468.315
2.046.888
Europa
2.815.474
1.810.223
Rest van de wereld
3.390.625
1.937.090
Totaal
9.674.414
5.794.201
Regio
Meldingen van content en accounts
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
Noord-Amerika
5.762.412
2.125.819
1.359.763
Europa
5.961.962
2.144.828
1.440.907
Rest van de wereld
8.041.950
2.007.799
1.316.070
Totaal
19.766.324
6.278.446
4.116.740
Regio
Totaal aantal handhavingsmaatregelen
Totaal aantal unieke gehandhaafde accounts
Noord-Amerika
1.342.496
785.067
Europa
670.646
422.012
Rest van de wereld
1.382.826
696.364
Totaal
3.395.968
1.709.224
Advertentiemoderatie
Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. Wij geloven in een verantwoorde aanpak van adverteren. Hierdoor creëren wij een veilige ervaring voor alle Snapchatters. Alle advertenties moeten door ons worden beoordeeld en goedgekeurd. Daarnaast behouden we ons het recht voor om advertenties te verwijderen, ook naar aanleiding van feedback van gebruikers, die we zeer serieus nemen.
Hieronder geven we inzicht in onze moderatie van betaalde advertenties die aan ons worden gemeld na hun publicatie op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, ongepaste content voor minderjarigen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Je kunt daarnaast de Advertentiegalerij van Snapchat vinden op values.snap.com onder het tabblad 'Transparantie'.
Totaal aantal gemelde advertenties
Totaal aantal advertenties verwijderd
67.789
16.410

























