Snap Values
Transparantieverslag
1 januari 2025 – 30 juni 2025

Gepubliceerd:

1 december 2025

Bijgewerkt:

1 december 2025

We publiceren dit transparantieverslag twee keer per jaar om inzicht te geven in de veiligheidsmaatregelen van Snap. Omdat wij veiligheid en transparantie belangrijk vinden, streven we er voortdurend naar om deze verslagen uitgebreider en informatiever te maken voor de vele belanghebbenden die onze contentmoderatie, samenwerking met de wetshandhaving en de veiligheid en het welzijn van de Snapchat-community belangrijk vinden. 

Dit transparantieverslag gaat over de eerste helft van 2025 (1 januari – 30 juni). We delen wereldwijde gegevens over meldingen van gebruikers en proactieve detectie door Snap; handhavingsmaatregelen door onze veiligheidsteams in specifieke categorieën schendingen van de Communityrichtlijnen; hoe we verzoeken van wetshandhavingsinstanties en overheden verwerken; en hoe we kennisgevingen van inbreuk op auteursrecht en handelsmerken verwerken. We bieden ook landspecifieke inzichten op een reeks gelinkte pagina's.

Zie ons tabblad Over transparantieverslagen onderaan de pagina om aanvullende veiligheids- en privacybronnen op Snapchat te vinden.

Houd er rekening mee dat de Engelse versie van dit transparantieverslag de meest actuele is.

Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams

Onze veiligheidsteams handhaven onze Communityrichtlijnen zowel proactief (met behulp van geautomatiseerde detectietools) als reactief (naar aanleiding van meldingen). In de volgende onderdelen van dit verslag wordt dit nader uiteengezet. In deze rapportagecyclus (H1 2025) hebben onze veiligheidsteams het volgende aantal handhavingsmaatregelen genomen:

Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

9.674.414

5.794.201

Hieronder staat een overzicht van verschillende soorten schendingen van onze Communityrichtlijnen, inclusief de mediane 'doorlooptijd' van het detectiemoment van de schending (proactief of na een ontvangen melding) tot het moment waarop we definitief actie tegen de betreffende content of account namen:

Beleidsreden

Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

Mediane doorlooptijd (minuten) van detectie tot definitieve actie

Seksuele content

5.461.419

3.233.077

1

Seksuele uitbuiting en misbruik van kinderen

1.095.424

733.106

5

Lastigvallen en pesten

713.448

594.302

3

Bedreigingen en geweld

187.653

146.564

3

Zelfverwonding en zelfmoord

47.643

41.216

5

Onjuiste informatie

2.088

2.004

1

Imitatie

7.138

6.881

<1

Spam

267.299

189.344

1

Drugs

1.095.765

726.251

7

Wapens

251.243

173.381

1

Overige gereguleerde goederen

183.236

126.952

4

Haatzaaien

343.051

284.817

6

Terrorisme en gewelddadig extremisme

10.970

6.783

2

De gegevens onder Totaal aantal handhavingsmaatregelen hebben betrekking op de handhavingsmaatregelen door Snap na beoordeling van meldingen in de Snapchat-app.  Dit is de overgrote meerderheid van de handhavingsmaatregelen door de veiligheidsteams van Snap. De meeste handhavingsmaatregelen als gevolg van onderzoeken op basis van meldingen aan Snap via onze Ondersteuningssite of andere mechanismen (bijv. via e-mail), of als gevolg van proactieve onderzoeken door onze veiligheidsteams, zijn hiervan uitgesloten. Deze uitgesloten handhavingsmaatregelen omvatten minder dan 0,5% van de handhaving in de eerste helft van 2025.

Tijdens de rapportageperiode was het weergavepercentage van content in strijd met onze richtlijnen (VVR) 0,01%. Dat betekent dat van elke 10.000 weergaven van Snaps en Verhalen op Snapchat er één content bevatte die in strijd was met onze Communityrichtlijnen. Onder de handhavingsmaatregelen voor wat wij als 'ernstige overtredingen' beschouwen, merkten we een VVR van 0,0003% op. In de onderstaande tabel staat een overzicht van de VVR per beleidsreden.

Beleidsreden

VVR

Seksuele content

0,00482%

Seksuele uitbuiting en misbruik van kinderen

0,00096%

Lastigvallen en pesten

0,00099

Bedreigingen en geweld

0,00176%

Zelfverwonding en zelfmoord

0,00009%

Onjuiste informatie

0,00002%

Imitatie

0,00009%

Spam

0,00060%

Drugs

0,00047%

Wapens

0,00083%

Overige gereguleerde goederen

0,00104%

Haatzaaien

0,00025%

Terrorisme en gewelddadig extremisme

0,00002%

Schendingen van onze Communityrichtlijnen gemeld aan onze veiligheids- en vertrouwensteams

Van 1 januari – 30 juni 2025 hebben de veiligheidsteams van Snap naar aanleiding van 19.766.324 in de app gemelde schendingen van onze Communityrichtlijnen wereldwijd in totaal 6.278.446 handhavingsmaatregelen genomen, waaronder maatregelen tegen 4.104.624 unieke accounts.  In dit aantal meldingen in de app zijn geen meldingen via de Ondersteuningssite en e-mail opgenomen, die minder dan 1% van het totale aantal meldingen omvatten.  De mediane doorlooptijd van handhavingsmaatregelen door onze veiligheidsteams naar aanleiding van die meldingen was ongeveer 2 minuten. Hieronder staat een overzicht per beleidsreden. (Opmerking: In eerdere verslagen noemden we dit soms de 'rapportagecategorie'.  Vanaf heden gebruiken we de term 'beleidsreden', omdat dit beter past bij het karakter van de gegevens. Onze veiligheidsteams streven er namelijk naar om op grond van de juiste beleidsreden te handhaven, ongeacht de rapportagecategorie die is gekozen door de persoon die de melding doet.)


Totaal aantal meldingen van content en accounts

Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

Totaal

19.766.324

6.278.446

4.104.624

Beleidsreden

Totaal aantal meldingen van content en accounts

Totaal aantal handhavingsmaatregelen

Handhavingspercentage van het totaal aantal Snap meldingen

Totaal aantal unieke gehandhaafde accounts

Mediane doorlooptijd (minuten) van detectie tot definitieve actie

Seksuele content

7.315.730

3.778.370

60.2%

2.463.464

1

Seksuele uitbuiting en misbruik van kinderen

1.627.097

695.679

11,1%

577.736

10

Lastigvallen en pesten

4.103.797

700.731

11,2%

584.762

3

Bedreigingen en geweld

997.346

147.162

2,3%

120.397

2

Zelfverwonding en zelfmoord

350.775

41.150

0,7%

36.657

3

Onjuiste informatie

606.979

2.027

0,0%

1.960

1

Imitatie

745.874

7.086

0,1%

6.837

<1

Spam

1.709.559

122.499

2,0%

94.837

1

Drugs

481.830

262.962

4,2%

176.799

5

Wapens

271.586

39.366

0,6%

32.316

1

Overige gereguleerde goederen

530.449

143.098

2,3%

98.023

3

Haatzaaien

817.262

337.263

5,4%

280.682

6

Terrorisme en gewelddadig extremisme

208.040

1.053

0,0%

912

2

In de eerste helft van 2025 hebben we de mediane doorlooptijd in alle beleidscategorieën verder verkort met gemiddeld 75% van de tijd in de voorafgaande rapportageperiode, naar 2 minuten. Deze vermindering is grotendeels te danken aan de voortdurende gecoördineerde inspanningen om onze prioritering van meldingen op basis van ernst van het gevaar en een geautomatiseerde beoordeling te verbeteren.

We hebben in de rapportageperiode ook gerichte wijzigingen in onze veiligheidsactiviteiten aangebracht, waaronder het versterken van ons beleid inzake illegale activiteiten met wapens. Deze wijzigingen zijn van invloed op de hier gerapporteerde gegevens. Het aantal meldingen en handhavingsmaatregelen in de categorie Seksuele uitbuiting van kinderen is toegenomen, voornamelijk als gevolg van een toenemende hoeveelheid seksuele of gevoelige content met minderjarigen dat in strijd is met ons beleid, maar niet illegaal is in de VS of aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC) hoeft te worden gemeld. De toegenomen hoeveelheid Seksuele content (en afname van de hoeveelheid met betrekking tot Lastigvallen) is te verklaren door onze herclassificatie van content met betrekking tot seksuele intimidatie, dat nu onder Seksuele content in plaats van Lastigvallen wordt opgenomen.

Onze maatregelen om schendingen van onze Communityrichtlijnen proactief te detecteren en daartegen op te treden

Proactieve detectie en handhaving van onze Communityrichtlijnen


We gebruiken geautomatiseerde tools om schendingen van onze Communityrichtlijnen proactief te detecteren en daar in sommige gevallen tegen op te treden. Deze tools omvatten hash-matchingtechnologie (waaronder PhotoDNA en Child Sexual Abuse Imagery (CSAI) van Google), de Content Safety API van Google en andere beschermde technologieën om teksten en media te detecteren die in strijd zijn met de wet of onze richtlijnen, soms met behulp van kunstmatige intelligentie en machine learning. Onze proactieve-detectiestatistieken variëren regelmatig als gevolg van wisselend gebruikersgedrag, verbeteringen in onze detectiemogelijkheden en wijzigingen in ons beleid.

In de eerste helft van 2025 hebben we de volgende handhavingsmaatregelen genomen nadat we met behulp van geautomatiseerde detectietools proactief schendingen van onze Communityrichtlijnen hebben geconstateerd:


Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

Totaal

3.395.968

1.709.224

Beleidsreden

Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

Mediane doorlooptijd (minuten) van detectie tot definitieve actie

Seksuele content

1.683.045

887.059

0

Seksuele uitbuiting en misbruik van kinderen

399.756

162.017

2

Lastigvallen en pesten

12.716

10.412

8

Bedreigingen en geweld

40.489

27.662

6

Zelfverwonding en zelfmoord

6.493

4.638

7

Onjuiste informatie

61

44

20

Imitatie

52

44

34

Spam

144.800

96.500

0

Drugs

832.803

578.738

7

Wapens

211.877

144.455

0

Overige gereguleerde goederen

40.139

31.408

8

Haatzaaien

5.788

4.518

6

Terrorisme en gewelddadig extremisme

9.917

5.899

5

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van enig lid van onze community, in het bijzonder van minderjarigen, is illegaal, weerzinwekkend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is voor ons een topprioriteit. We ontwikkelen voortdurend meer mogelijkheden om deze en andere misdaden te bestrijden.

We gebruiken actieve technologische detectietools om CSEA-gerelateerde content te identificeren. Deze tools omvatten hash-matchingtools (waaronder PhotoDNA en CSAI Match van Google om respectievelijk illegale afbeeldingen en video's van CSEA te identificeren) en de Content Safety API van Google (om nieuw, nooit eerder gehasht illegaal beeldmateriaal te identificeren). Daarnaast maken we in sommige gevallen gebruik van gedragssignalen om tegen andere vermoedelijke CSEA-activiteiten op te treden. Wij melden CSEA-gerelateerde content aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet voorschrijft. NCMEC coördineert vervolgens waar nodig met de binnenlandse of internationale wetshandhaving.

In de eerste helft van 2025 hebben we de volgende maatregelen genomen na het proactief of als gevolg van een melding identificeren van CSEA op Snapchat:

Totale hoeveelheid gehandhaafde content

Totaal aantal accounts uitgeschakeld

Totaal aantal meldingen aan NCMEC*

994.337

187.387

321.587

*Let op: Een inzending aan NCMEC kan betrekking hebben op meerdere content. De totale hoeveelheid media die bij het NCMEC is gemeld, is gelijk aan het de totale hoeveelheid gehandhaafde content.

Onze maatregelen om hulpbronnen en ondersteuning te bieden aan Snapchatters in nood

Snapchat stelt vrienden in staat elkaar in moeilijke tijden te helpen door middel van hulpbronnen en ondersteuning aan Snapchatters in nood. 

Onze zoektool Here For You biedt hulpbronnen van experts voor gebruikers die zoeken naar onderwerpen met betrekking tot mentale gezondheid, angst, depressie, stress, zelfmoordgedachten, rouw en pesten. We hebben een pagina ontwikkeld om financiële seksuele afpersing en andere seksuele risico's en gevaar te bestrijden, om mensen in nood te ondersteunen.

Als onze veiligheidsteams op de hoogte zijn van een Snapchatter in nood, kunnen ze hulpbronnen ter preventie van zelfverwonding bieden en – indien nodig – de hulpdiensten op de hoogte stellen. De hulpbronnen die wij verstrekken staan op onze wereldwijde lijst met veiligheidsbronnen, die publiekelijk toegankelijk is voor alle Snapchatters in ons Privacy-, veiligheids- en beleidscentrum.

Totaal aantal gedeelde informatiebronnen over zelfmoord

36.162

Beroep

Hieronder staat informatie over de ingestelde beroepen door gebruikers die in de eerste helft van 2025 om herziening van onze beslissing om hun account te blokkeren hebben verzocht:

Beleidsreden

Totaal aantal beroepen

Totaal aantal herstellingen

Totaal aantal bevestigde beslissingen

Mediane doorlooptijd (dagen) voor beroepsprocedures

Totaal

437.855

22.142

415.494

1

Seksuele content

134.358

6.175

128.035

1

Seksuele uitbuiting en misbruik van kinderen*

89.493

4.179

85.314

<1

Lastigvallen en pesten

42.779

281

42.496

1

Bedreigingen en geweld

3.987

77

3.909

1

Zelfverwonding en zelfmoord

145

2

143

1

Onjuiste informatie

4

0

4

1

Imitatie

1.063

33

1.030

<1

Spam

13.730

3.140

10.590

1

Drugs

128.222

7.749

120.409

1

Wapens

10.941

314

10.626

1

Overige gereguleerde goederen

9.719

124

9.593

1

Haatzaaien

3.310

67

3.242

1

Terrorisme en gewelddadig extremisme

104

1

103

1

Regionaal en landoverzicht

In dit onderdeel staat een overzicht van de handhavingsmaatregelen van onze veiligheidsteams met betrekking tot onze Communityrichtlijnen in een aantal geografische regio's, zowel proactief als naar aanleiding van meldingen van schendingen in de app. Onze Communityrichtlijnen zijn van toepassing op alle content op Snapchat – en op alle Snapchatters – wereldwijd, ongeacht de locatie.

Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.



Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheidsteams 

Regio

Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

Noord-Amerika

3.468.315

2.046.888

Europa

2.815.474

1.810.223

Rest van de wereld

3.390.625

1.937.090

Totaal

9.674.414

5.794.201

Gemelde schendingen van onze Communityrichtlijnen aan onze veiligheidsteams

Regio

Meldingen van content en accounts

Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

Noord-Amerika

5.762.412

2.125.819

1.359.763

Europa

5.961.962

2.144.828

1.440.907

Rest van de wereld

8.041.950

2.007.799

1.316.070

Totaal

19.766.324

6.278.446

4.116.740

Proactieve detectie en handhaving van onze Communityrichtlijnen

Regio

Totaal aantal handhavingsmaatregelen

Totaal aantal unieke gehandhaafde accounts

Noord-Amerika

1.342.496

785.067

Europa

670.646

422.012

Rest van de wereld

1.382.826

696.364

Totaal

3.395.968

1.709.224

Advertentiemoderatie

Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. Wij geloven in een verantwoorde aanpak van adverteren. Hierdoor creëren wij een veilige ervaring voor alle Snapchatters. Alle advertenties moeten door ons worden beoordeeld en goedgekeurd. Daarnaast behouden we ons het recht voor om advertenties te verwijderen, ook naar aanleiding van feedback van gebruikers, die we zeer serieus nemen. 


Hieronder geven we inzicht in onze moderatie van betaalde advertenties die aan ons worden gemeld na hun publicatie op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, ongepaste content voor minderjarigen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Je kunt daarnaast de Advertentiegalerij van Snapchat vinden op values.snap.com onder het tabblad 'Transparantie'.

Totaal aantal gemelde advertenties

Totaal aantal advertenties verwijderd

67.789

16.410