Snap Values
Transparantieverslag
1 januari 2024 – 30 juni 2024

Gepubliceerd:

5 december 2024

Bijgewerkt:

5 december 2024

We publiceren dit transparantieverslag twee keer per jaar om inzicht te geven in de veiligheidsmaatregelen van Snap. Wij vinden deze maatregelen belangrijk en streven er voortdurend naar om deze verslagen uitgebreider en informatiever te maken voor de vele belanghebbenden die veel belang hechten aan onze contentmoderatie, wetshandhavingspraktijken en de veiligheid en het welzijn van de Snapchat-community. 

Dit transparantieverslag heeft betrekking op de eerste helft van 2024 (1 januari – 30 juni). Net als in onze vorige verslagen delen we gegevens over het totaal aantal ontvangen meldingen over content in apps en accounts in specifieke categorieën van schendingen van onze Communityrichtlijnen waartegen onze veiligheids- en vertrouwensteams hebben opgetreden; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en hoe we hebben gereageerd op kennisgevingen van auteursrecht- en handelsmerkschendingen. We geven ook landspecifieke inzichten in de bestanden waarnaar onderaan deze pagina wordt gelinkt.

Als onderdeel van onze inzet om onze transparantieverslagen voortdurend te verbeteren, introduceren we ook nieuwe gegevens die onze proactieve maatregelen benadrukken om meer schendingen van onze Communityrichtlijnen te detecteren en daartegen op te treden. We hebben deze gegevens in dit verslag zowel op wereldwijd als landelijk niveau opgenomen en zullen dat in de toekomst blijven doen. We hebben ook een verkeerde titel in onze eerdere verslagen gecorrigeerd: waar we eerder verwezen naar 'Totaal aantal content bestraft', verwijzen we nu naar 'Totaal aantal handhavingen' omdat de gegevens in de betreffende kolommen zowel handhaving van content en accounts bevat.

Lees voor meer informatie over ons beleid ter bestrijding van mogelijk online gevaar en plannen om onze rapportagepraktijken verder te ontwikkelen, ons recente Blog over veiligheid en impact over dit transparantieverslag. Om extra veiligheids- en privacybronnen op Snapchat te vinden, zie ons tabblad Over transparantieverslagen onderaan de pagina.

Houd er rekening mee dat de recentste versie van dit transparantieverslag in het Engels beschikbaar is.

Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams

Onze veiligheids- en vertrouwensteams handhaven onze Communityrichtlijnen zowel proactief (door geautomatiseerde tools) als reactief (naar aanleiding van meldingen), zoals verder wordt beschreven in de volgende onderdelen van dit verslag. In deze rapportagecycles (H1 2024) namen onze veiligheids- en vertrouwensteams de volgende handhavingsmaatregelen: 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Hieronder staat een gedetailleerd overzicht van verschillende soorten schendingen van onze Communityrichtlijnen, waaronder de mediane doorlooptijd van het detectiemoment van de schending (proactief of na melding) tot het moment waarop we de uiteindelijke maatregel tegen de betreffende content of account namen:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Tijdens de rapportageperiode zagen we een schendende videoweergavepercentage (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snaps en Verhalen op Snapchat er één content bevatte die in strijd was met onze Communityrichtlijnen.

Schendingen van onze Communityrichtlijnen gemeld aan onze veiligheids- en vertrouwensteams

Van 1 januari tot 30 juni 2024 hebben de veiligheids- en vertrouwensteams van Snap naar aanleiding van meldingen van schendingen van onze Communityrichtlijnen wereldwijd in totaal 6.223.618 handhavingsmaatregelen genomen, waaronder maatregelen tegen 3.842.507 unieke accounts. De mediane doorlooptijd van onze veiligheids- en vertrouwensteams om handhavingsmaatregelen te nemen naar aanleiding van die meldingen was ongeveer 24 minuten. Hieronder volgt een gedetailleerd overzicht per rapportagecategorie. 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Onze totale rapportageaantallen zijn in H1 2024 vrij stabiel gebleven in vergelijking met de zes maanden ervoor. In deze cyclus zagen we een toename van ongeveer 16% van het totaal aantal handhavingen en totaal aantal bestrafte accounts.

In de afgelopen 12 maanden heeft Snap nieuwe rapportagemechanismen voor gebruikers geïntroduceerd, wat de wijzigingen in het aantal meldingen en handhavingen en de langere doorlooptijden in deze rapportageperiode (H1 2024) verklaart. In het bijzonder:

  • Groepschatrapportage: Op 13 oktober 2023 hebben we groepschatrapportage geïntroduceerd, waardoor gebruikers misbruik in een chat met meerdere personen kunnen melden. Deze wijziging heeft invloed op onze statistieken voor verschillende rapportagecategorieën (omdat bepaald potentieel gevaar eerder voorkomt in chats) en heeft het makkelijker gemaakt om na meldingen op te treden. 

  • Verbeteringen in accountrapportage: We hebben ook onze accountrapportagefunctie ontwikkeld, waardoor gebruikers de mogelijkheid hebben om bewijs van chats toe te voegen als ze een account rapporteren dat mogelijk door iemand met slechte intenties wordt beheerd. Deze wijziging geeft ons meer bewijs en context om accountrapportages te beoordelen en is op 29 februari 2024 geïntroduceerd. 


Chatrapportages, en vooral groepschatrapportages, zijn de meest complexe en tijdrovende rapportages om te beoordelen, waardoor de doorlooptijden in alle categorieën toenamen. 

De meldingsprocedures voor verdachte seksuele uitbuiting en misbruik van kinderen (CSEA), lastigvallen en pesten, en haatzaaien werden in het bijzonder beïnvloed door de twee bovenstaande wijzigingen en door veranderingen in het bredere ecosysteem. In het bijzonder:

  • CSEA: We hebben in H1 2024 een toename van het aantal meldingen en handhavingen van CSEA vastgesteld. We zagen in het bijzonder een stijging van 64% van het aantal meldingen van gebruikers in de app, een stijging van 82% van het totaal aantal handhavingen en een stijging van 108% van het totaal aantal bestrafte unieke accounts. Deze stijgingen zijn grotendeels te verklaren door de introductie van de groepschat- en accountrapportage. Gezien de gevoelige aard van deze moderatiewachtrij wordt een bijzonder team van hoogopgeleide agenten aangewezen om meldingen van potentiële CSEA-schendingen te beoordelen. De toename van meldingen en de nieuwe training van onze teams heeft geleid tot een langere doorlooptijd. We hebben de omvang van onze wereldwijde leveranciersteams aanzienlijk vergroot om de doorlooptijden te verkorten en melding van mogelijke CSEA nauwkeurig te handhaven. We verwachten dat we in ons transparantieverslag van 2024 de vruchten zullen plukken van een wezenlijk betere doorlooptijd. 

  • Lastigvallen en pesten: Op basis van melding hebben we geconstateerd dat lastigvallen en pesten disproportioneel vaak voorkomt in chats, en vooral in groepschats. Onze verbeteringen aan groepschatrapportage en accountrapportage helpen ons meer actie te ondernemen als we meldingen beoordelen in deze rapportagecategorie. Daarnaast vereisen we vanaf deze periode dat gebruikers een opmerking schrijven als ze melding maken van lastigvallen of pesten. We beoordelen deze opmerking om elke melding context te geven. Deze veranderingen leidden samen tot een aanzienlijke toename van het aantal handhavingen (+91%), het aantal bestrafte unieke accounts (+82%), en tot een langere doorlooptijd (+245 minuten) voor de betreffende meldingen. 

  • Haatzaaien: In H1 2024 hebben we een toename van gerapporteerde content, het aantal handhavingen en de doorlooptijd voor haatzaaien vastgesteld. In het bijzonder zagen we een toename van 61% van meldingen in de app, een toename van 127% van het totaal aantal handhavingen en een toename van 125% van het totaal aantal bestrafte unieke accounts. Dit kwam deels door verbeteringen in onze chatrapportagemechanismen (zoals eerder beschreven), en werd verder versterkt door de geopolitieke omgeving, in het bijzonder het conflict tussen Israël en Hamas. 

In deze rapportageperiode zagen we een afname van ongeveer 65% van het totaal aantal handhavingen en een afname van ongeveer 60% van het totaal aantal bestrafte unieke accounts naar aanleiding van meldingen van verdachte spam en misbruik. Hieruit blijkt de verbetering van onze proactieve detectie en handhavingstools. We zagen vergelijkbare afnames in het totaal aantal handhavingen naar aanleiding van meldingen met betrekking tot zelfbeschadiging en zelfmoord (afname van ongeveer 80%). Hieruit blijkt onze bijgewerkte slachtoffergerichte aanpak, die zegt dat onze veiligheids- en vertrouwensteams in gepaste gevallen bepaalde gebruikers zelfhulpbronnen zullen sturen in plaats van handhavingsmaatregelen tegen die gebruikers te nemen. Deze aanpak werd door leden van onze Veiligheidsadviesraad geadviseerd, waaronder een kinderhoogleraar en arts die gespecialiseerd is in interactieve media en internetstoornissen.

Onze maatregelen om schendingen van onze Communityrichtlijnen proactief te detecteren en daartegen op te treden

Proactieve detectie en handhaving van onze Communityrichtlijnen


We gebruiken geautomatiseerde tools om schendingen van onze Communityrichtlijnen proactief te detecteren en in daar in sommige gevallen tegen op te treden. Deze tools omvatten hashmatching-tools (waaronder PhotoDNA en Google Child Sexual Abuse Imagery (CSAI) Match), detectietools voor kwetsende taal (die op basis van een regelmatig bijgewerkte lijst kwetsende zoekwoorden en emoji's kwetsende taal detecteren en daartegen optreden), en multimodale kunstmatige intelligentie / machine-learningtechnologie. 

In H1 2024 hebben we de volgende handhavingsmaatregelen genomen na de proactieve detectie van schendingen van onze Communityrichtlijnen door het gebruik van geautomatiseerde tools:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van enig lid van onze community, in het bijzonder van minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische detectietools, zoals de robuuste hashmatching van PhotoDNA en Child Sexual Abuse Imagery (CSAI) Match van Google om respectievelijk bekende illegale afbeeldingen en video's van CSEA te identificeren. Daarnaast gebruiken we in sommige gevallen gedragssignalen om tegen andere mogelijk illegale CSEA-activiteiten op te treden. Wij melden CSEA-gerelateerde content aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet voorschrijft. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de eerste helft van 2024 hebben we de volgende maatregelen genomen na het (proactief of als gevolg van een melding) detecteren van CSEA op Snapchat:

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Onze maatregelen om hulpbronnen en ondersteuning te bieden aan Snapchatters in nood

We geven veel om de mentale gezondheid en het welzijn van Snapchatters, wat onze beslissingen om Snapchat anders vorm te geven blijft bepalen. Snapchat is een platform dat is ontworpen voor communicatie tussen echte vrienden, en we geloven dat het een unieke rol kan spelen in het ondersteunen van vrienden om elkaar te helpen bij moeilijke momenten. Daarom heb we hulpbronnen en ondersteuning ontwikkeld voor Snapchatters in nood. 

Onze zoekfunctie Here For You biedt hulpbronnen van plaatselijke deskundige partners, waarbij gebruikers op bepaalde onderwerpen kunnen zoeken met betrekking tot mentale gezondheid, angst, depressie, stress, suïcidale gedachten, verdriet en pesten. We hebben ook een pagina ontwikkeld die is gewijd aan financiële sextortion en andere seksuele risico's en leed om mensen in nood te ondersteunen. Onze wereldwijde lijst met veiligheidsbronnen is publiekelijk beschikbaar voor alle Snapchatters in ons privacy-, veiligheids- en beleidscentrum. 

Wanneer onze veiligheids- en vertrouwensteams zich bewust worden van een Snapchatter die in nood is, kunnen ze zelfbeschadigingspreventie en ondersteuning doorsturen en indien nodig hulpdiensten op de hoogte stellen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, en deze zijn publiekelijk beschikbaar voor alle Snapchatters.

Total Times Suicide Resources Shared

64,094

Beroep

Hieronder geven wij informatie over beroepen die we hebben ontvangen van gebruikers die ons verzoeken onze beslissing om hun account te blokkeren, te herzien:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Regionaal en landoverzicht

Dit onderdeel is een overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams, zowel proactief als naar aanleiding van meldingen van schendingen in de app, in een aantal geografische regio's. Onze Communityrichtlijnen zijn van toepassing op alle inhoud op Snapchat en op alle Snapchatters, waar dan ook ter wereld.

Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.

Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams 

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Schendingen van onze Communityrichtlijnen gemeld aan onze veiligheids- en vertrouwensteams

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Proactieve detectie en handhaving van onze Communityrichtlijnen

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Advertentiemoderatie

Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. We geloven in een verantwoorde en respectvolle benadering van adverteren, zodat we al onze gebruikers een veilige en plezierige ervaring kunnen bieden. Alle advertenties moeten door ons worden beoordeeld en goedgekeurd. Daarnaast behouden we ons het recht voor om advertenties te verwijderen, ook naar aanleiding van feedback van gebruikers, die we zeer serieus nemen. 


Hieronder geven we inzicht in onze moderatie van betaalde advertenties die aan ons worden gemeld na hun publicatie op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, content voor volwassenen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Daarnaast kan de Advertentiegalerij van Snapchat nu in de navigatiebalk van dit transparantieverslag worden teruggevonden.

Total Ads Reported

Total Ads Removed

43,098

17,833