Snap Values
Transparantieverslag
1 juli 2024 – 31 december 2024

Gepubliceerd:

20 juni 2025

Bijgewerkt:

1 juli 2025

We publiceren dit transparantieverslag twee keer per jaar om inzicht te geven in de veiligheidsmaatregelen van Snap. Omdat wij veiligheid en transparantie belangrijk vinden, streven we er voortdurend naar om deze verslagen uitgebreider en informatiever te maken voor de vele belanghebbenden die onze contentmoderatie, wetshandhavingspraktijken en de veiligheid en het welzijn van de Snapchat-community belangrijk vinden. 

Dit transparantieverslag heeft betrekking op de tweede helft van 2024 (1 juli – 31 december). We delen wereldwijde gegevens over meldingen van gebruikers en proactieve detectie door Snap; handhavingsmaatregelen door onze veiligheidsteams in specifieke categorieën schendingen van de Communityrichtlijnen; hoe we verzoeken van wetshandhavingsinstanties en overheden verwerken; en hoe we kennisgevingen van inbreuk op auteursrecht en handelsmerken verwerken. We bieden ook landspecifieke inzichten op een reeks gelinkte pagina's.

Zie ons tabblad Over transparantieverslagen onderaan de pagina om aanvullende veiligheids- en privacybronnen op Snapchat te vinden.

Houd er rekening mee dat de Engelse versie van dit transparantieverslag de meest actuele is.

Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams

Onze veiligheidsteams handhaven onze Communityrichtlijnen zowel proactief (met behulp van geautomatiseerde detectietools) als reactief (naar aanleiding van meldingen). In de volgende onderdelen van dit verslag wordt dit nader uiteengezet. In deze rapportagecyclus (H2 2024) hebben onze veiligheidsteams het volgende aantal handhavingen uitgevoerd:

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

10.032.110

5.698.212

Hieronder staat een gedetailleerd overzicht van verschillende soorten schendingen van onze Communityrichtlijnen en de mediane doorlooptijd van detectie (proactief of na melding) tot de definitieve actie tegen de betreffende content of account:

Beleidsreden

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

Mediane doorlooptijd (minuten) van detectie tot definitieve actie

Seksuele content

3.860.331

2.099.512

2

Seksuele uitbuiting van kinderen

961.359

577.682

23

Lastigvallen en pesten

2.716.966

2.019.439

7

Bedreigingen en geweld

199.920

156.578

8

Zelfverwonding en zelfmoord

15.910

14.445

10

Valse informatie

6.539

6.176

1

Imitatie

8.798

8.575

2

Spam

357.999

248.090

1

Drugs

1.113.629

718.952

6

Wapens

211.860

136.953

1

Overige gereguleerde goederen

247.535

177.643

8

Haatzaaien

324.478

272.025

27

Terrorisme en gewelddadig extremisme

6.786

4.010

5

Tijdens de rapportageperiode was het weergavepercentage van schendende content (VVR) 0,01%. Dat betekent dat van elke 10.000 weergaven van Snaps en Verhalen op Snapchat er één content bevatte die in strijd was met onze Communityrichtlijnen.

Schendingen van onze Communityrichtlijnen gemeld aan onze veiligheids- en vertrouwensteams

Van 1 juli tot 31 december 2024 hebben de veiligheidsteams van Snap naar aanleiding van in de app gemelde schendingen van onze Communityrichtlijnen wereldwijd 6.346.508 handhavingsmaatregelen genomen, waaronder handhavingen tegen 4.075.838 unieke accounts. De mediane doorlooptijd van handhavingsmaatregelen door onze veiligheidsteams naar aanleiding van die meldingen was ongeveer 6 minuten. Hieronder volgt een gedetailleerd overzicht per rapportagecategorie.

Totaal aantal meldingen van content en accounts

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

19.379.848

6.346.508

4.075.838

Beleidsreden

Meldingen van content en accounts

Totaal aantal handhavingen

Handhavingspercentage van het totaal aantal meldingen

Totaal aantal gehandhaafde unieke accounts

Mediane doorlooptijd (minuten) van detectie tot definitieve actie

Seksuele content

5.251.375

2.042.044

32,20%

1.387.749

4

Seksuele uitbuiting van kinderen

1.224.502

469.389

7,40%

393.384

133

Lastigvallen en pesten

6.377.555

2.702.024

42,60%

2.009.573

7

Bedreigingen en geweld

1.000.713

156.295

2,50%

129.077

8

Zelfverwonding en zelfmoord

307.660

15.149

0,20%

13.885

10

Valse informatie

536.886

6.454

0,10%

6.095

1

Imitatie

678.717

8.790

0,10%

8.569

2

Spam

1.770.216

180.849

2,80%

140.267

1

Drugs

418.431

244.451

3,90%

159.452

23

Wapens

240.767

6.473

0,10%

5.252

1

Overige gereguleerde goederen

606.882

199.255

3,10%

143.560

8

Haatzaaien

768.705

314.134

4,90%

263.923

27

Terrorisme en gewelddadig extremisme

197.439

1.201

<0,1%

1.093

4

We hebben de mediane doorlooptijden in alle beleidscategorieën met gemiddeld 90% verkort ten opzichte van de vorige verslagperiode. Deze vermindering is grotendeels te danken aan een gecoördineerde uitbreiding van onze beoordelingscapaciteit en een betere prioritering van meldingen op basis van de ernst van het leed. We hebben in de rapportageperiode ook verschillende gerichte wijzigingen aangebracht in onze beveiligingsinspanningen, die van invloed zijn geweest op de hier gerapporteerde gegevens. Deze wijzigingen bestaan uit uitgebreidere handhaving met betrekking tot gebruikersnamen en weergavenamen die in strijd met onze Communityrichtlijnen zijn, meer meldingsmogelijkheden en veiligheidsmaatregelen voor Community's op Snapchat, en de introductie van meldingen voor nieuwe soorten media, zoals spraakberichten, die rechtstreeks aan ons in de app kunnen worden gedaan. 

Deze wijzigingen en andere beveiligingsinspanningen en externe krachten zijn met name van invloed geweest op bepaalde beleidsgebieden ten opzichte van de vorige verslagperiode. Het gaat om de volgende beleidscategorieën: content met betrekking tot vermoedelijke seksuele uitbuiting en misbruik van kinderen (CSEA), schadelijke valse informatie en spam. In het bijzonder:

  • CSEA: In de tweede helft van 2024 is het aantal CSEA-gerelateerde meldingen met 12% afgenomen en hebben we onze mediane doorlooptijd voor deze meldingen met 99% verkort. Deze trends worden grotendeels veroorzaakt door de voortdurende vooruitgang in onze proactieve detectie, waardoor we CSEA-content konden verwijderen voordat die aan ons werd gemeld, en door de verbeteringen in onze procedures voor de efficiënte beoordeling van CSEA-meldingen en de daaropvolgende maatregelen. Zelfs met deze verbeteringen is onze doorlooptijd met betrekking tot CSEA langer dan op andere beleidsgebieden, omdat de content een gespecialiseerde procedure doorloopt met onder andere een dubbele beoordeling door een team van gespecialiseerde agenten.

  • Schadelijke valse informatie: Het aantal meldingen met betrekking tot schadelijke valse informatie is met 26% gestegen, vooral als gevolg van politieke gebeurtenissen, waaronder de Amerikaanse verkiezingen van november 2024.

  • Spam: Het aantal handhavingen naar aanleiding van meldingen van vermeende spam is deze periode met ongeveer 50% gedaald en het aantal unieke accounts dat werd gehandhaafd is met ongeveer 46% gedaald. Dit is het gevolg van verbeterde proactieve detectie- en handhavingstools. Hiermee zetten we onze inspanningen voort om spam met behulp van accountsignalen te bestrijden en spammers sneller van het platform te verwijderen. Deze inspanningen werden tijdens de laatste verslagperiode al uitgevoerd. In die periode namen het aantal handhavingen en het aantal unieke accounts dat werd gehandhaafd voor spam met respectievelijk ongeveer 65% en 60% af.

Onze maatregelen om schendingen van onze Communityrichtlijnen proactief te detecteren en daartegen op te treden

Proactieve detectie en handhaving van onze Communityrichtlijnen


We gebruiken geautomatiseerde tools om schendingen van onze Communityrichtlijnen proactief te detecteren en in sommige gevallen daartegen op te treden. Deze tools omvatten hash-matchingtechnologie (waaronder PhotoDNA en Child Sexual Abuse Imagery (CSAI) Match van Google), Content Safety API van Google en andere aangepaste technologieën om schadelijke tekst en media te detecteren.  Deze technologieën maken soms gebruik van kunstmatige intelligentie en machine learning. 

In de tweede helft van 2024 hebben we de volgende handhavingsmaatregelen genomen nadat we met behulp van geautomatiseerde detectietools proactief schendingen van onze Communityrichtlijnen hadden geconstateerd:

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

3.685.602

1.845.125

Beleidsreden

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

Mediane doorlooptijd (minuten) van detectie tot definitieve actie

Seksuele content

1.818.287

828.590

<1

Seksuele uitbuiting van kinderen

491.970

188.877

1

Lastigvallen en pesten

14.942

11.234

8

Bedreigingen en geweld

43.625

29.599

9

Zelfverwonding en zelfmoord

761

624

9

Valse informatie

85

81

10

Imitatie

8

6

19

Spam

177.150

110.551

<1

Drugs

869.178

590.658

5

Wapens

205.387

133.079

<1

Overige gereguleerde goederen

48.280

37.028

9

Haatzaaien

10.344

8.683

10

Terrorisme en gewelddadig extremisme

5.585

2.951

21

Bestrijding van seksuele uitbuiting en misbruik van kinderen 

Seksuele uitbuiting van enig lid van onze community, in het bijzonder van minderjarigen, is illegaal, weerzinwekkend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is voor ons een topprioriteit. We ontwikkelen voortdurend meer mogelijkheden om deze en andere misdaden te bestrijden.

We gebruiken actieve technologische detectietools om CSEA-gerelateerde content te identificeren. Deze tools omvatten hash-matchingtools (waaronder PhotoDNA en CSAI Match van Google om respectievelijk illegale afbeeldingen en video's van CSEA te identificeren) en Google Content Safety API (om nieuw, nooit eerder gehasht illegaal beeldmateriaal te identificeren). Daarnaast maken me in sommige gevallen gebruik van gedragssignalen om tegen andere verdachte CSEA-activiteiten op te treden. Wij melden CSEA-gerelateerde content aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet voorschrijft. NCMEC coördineert vervolgens waar nodig met de binnenlandse of internationale wetshandhaving.

In de tweede helft van 2024 hebben we de volgende maatregelen genomen na het proactief of als gevolg van een melding identificeren van CSEA op Snapchat:


Totaal aantal content bestraft

Totaal aantal accounts uitgeschakeld

Totale inzendingen bij NCMEC*

1.228.929

242.306

417.842

*Let op: elke inzending aan NCMEC kan meerdere stukken content bevatten. Het totaal aantal mediastukken dat werd ingediend bij het NCMEC is gelijk aan het totale aantal content waartegen is opgetreden.

Onze maatregelen om hulpbronnen en ondersteuning te bieden aan Snapchatters in nood

Snapchat stelt vrienden in staat elkaar in moeilijke tijden te helpen door middel van hulpbronnen en ondersteuning aan Snapchatters in nood. 

Onze zoektool Here For You biedt  hulpbronnen van experts voor gebruikers die zoeken naar onderwerpen met betrekking tot mentale gezondheid, angst, depressie, stress, zelfmoordgedachten, rouw en pesten. We hebben ook een pagina ontwikkeld die is gewijd aan financiële sextortion en andere seksuele risico's en leed om mensen in nood te ondersteunen. Onze wereldwijde lijst met veiligheidsbronnen is publiekelijk beschikbaar voor alle Snapchatters in ons Privacy-, veiligheids- en beleidscentrum. 
Als onze veiligheidsteams op de hoogte worden gebracht van een Snapchatter in nood, kunnen zij  hulpbronnen bieden om zelfverwonding te voorkomen en degene in nood te ondersteunen en kunnen zij indien nodig noodhulpdiensten inschakelen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, die beschikbaar is voor alle Snapchatters.

Totaal aantal gedeelde informatiebronnen over zelfmoord

64.094

Beroep

Hieronder staat informatie over de ingestelde beroepen door gebruikers die in de tweede helft van 2024 om herziening van onze beslissing om hun account te blokkeren hebben verzocht:

Beleidsreden

Totaal aantal beroepen

Totaal aantal herstellingen

Totaal aantal bevestigde beslissingen

Mediane doorlooptijd (dagen) om beroepsprocedures te verwerken

TOTAAL

493.782

35.243

458.539

5

Seksuele content

162.363

6.257

156.106

4

Seksuele uitbuiting van kinderen

102.585

15.318

87.267

6

Lastigvallen en pesten

53.200

442

52.758

7

Bedreigingen en geweld

4.238

83

4.155

5

Zelfverwonding en zelfmoord

31

1

30

5

Valse informatie

3

0

3

<1

Imitatie

847

33

814

7

Spam

19.533

5.090

14.443

9

Drugs

133.478

7.598

125.880

4

Wapens

4.678

136

4.542

6

Overige gereguleerde goederen

9.153

168

8.985

6

Haatzaaien

3.541

114

3.427

7

Terrorisme en gewelddadig extremisme

132

3

129

9

Regionaal en landoverzicht

In dit onderdeel staat een overzicht van de handhavingsmaatregelen van onze veiligheidsteams met betrekking tot onze Communityrichtlijnen in een aantal geografische regio's, zowel proactief als naar aanleiding van meldingen van schendingen in de app. Onze Communityrichtlijnen zijn van toepassing op alle content op Snapchat – en op alle Snapchatters – wereldwijd, ongeacht de locatie.

Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.


Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheidsteam 

Regio

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

Noord-Amerika

3.828.389

2.117.048

Europa

2.807.070

1.735.054

Rest van de wereld

3.396.651

1.846.110

Totaal

10.032.110

5.698.212

Gemelde schendingen van onze Communityrichtlijnen aan onze veiligheidsteams

Regio

Meldingen van content en accounts

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

Noord-Amerika

5.916.815

2.229.465

1.391.304

Europa

5.781.317

2.085.109

1.378.883

Rest van de wereld

7.681.716

2.031.934

1.319.934

Totaal

19.379.848

6.346.508

4.090.121

Proactieve detectie en handhaving van onze Communityrichtlijnen

Totaal aantal handhavingen

Totaal aantal gehandhaafde unieke accounts

1.598.924

837.012

721.961

417.218

1.364.717

613.969

3.685.602

1.868.199

Advertentiemoderatie

Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. Wij geloven in een verantwoorde aanpak van adverteren. Hierdoor creëren wij een veilige ervaring voor alle Snapchatters. Alle advertenties moeten door ons worden beoordeeld en goedgekeurd. Daarnaast behouden we ons het recht voor om advertenties te verwijderen, ook naar aanleiding van feedback van gebruikers, die we zeer serieus nemen. 


Hieronder geven we inzicht in onze moderatie van betaalde advertenties die aan ons worden gemeld na hun publicatie op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, ongepaste content voor minderjarigen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Daarnaast is de Advertentiegalerij van Snapchat nu te vinden in de transparantiehub van Snap, die rechtstreeks via de navigatiebalk toegankelijk is.

Totaal aantal gemelde advertenties

Totaal aantal advertenties verwijderd

43.098

17.833