5 december 2024
5 december 2024
We publiceren dit transparantieverslag twee keer per jaar om inzicht te geven in de veiligheidsmaatregelen van Snap. Wij vinden deze maatregelen belangrijk en streven er voortdurend naar om deze verslagen uitgebreider en informatiever te maken voor de vele belanghebbenden die veel belang hechten aan onze contentmoderatie, wetshandhavingspraktijken en de veiligheid en het welzijn van de Snapchat-community.
Dit transparantieverslag heeft betrekking op de eerste helft van 2024 (1 januari – 30 juni). Net als in onze vorige verslagen delen we gegevens over het totaal aantal ontvangen meldingen over content in apps en accounts in specifieke categorieën van schendingen van onze Communityrichtlijnen waartegen onze veiligheids- en vertrouwensteams hebben opgetreden; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en hoe we hebben gereageerd op kennisgevingen van auteursrecht- en handelsmerkschendingen. We geven ook landspecifieke inzichten in de bestanden waarnaar onderaan deze pagina wordt gelinkt.
Als onderdeel van onze inzet om onze transparantieverslagen voortdurend te verbeteren, introduceren we ook nieuwe gegevens die onze proactieve maatregelen benadrukken om meer schendingen van onze Communityrichtlijnen te detecteren en daartegen op te treden. We hebben deze gegevens in dit verslag zowel op wereldwijd als landelijk niveau opgenomen en zullen dat in de toekomst blijven doen. We hebben ook een verkeerde titel in onze eerdere verslagen gecorrigeerd: waar we eerder verwezen naar 'Totaal aantal content bestraft', verwijzen we nu naar 'Totaal aantal handhavingen' omdat de gegevens in de betreffende kolommen zowel handhaving van content en accounts bevat.
Lees voor meer informatie over ons beleid ter bestrijding van mogelijk online gevaar en plannen om onze rapportagepraktijken verder te ontwikkelen, ons recente Blog over veiligheid en impact over dit transparantieverslag. Om extra veiligheids- en privacybronnen op Snapchat te vinden, zie ons tabblad Over transparantieverslagen onderaan de pagina.
Houd er rekening mee dat de recentste versie van dit transparantieverslag in het Engels beschikbaar is.
Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams
Onze veiligheids- en vertrouwensteams handhaven onze Communityrichtlijnen zowel proactief (door geautomatiseerde tools) als reactief (naar aanleiding van meldingen), zoals verder wordt beschreven in de volgende onderdelen van dit verslag. In deze rapportagecycles (H1 2024) namen onze veiligheids- en vertrouwensteams de volgende handhavingsmaatregelen:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Hieronder staat een gedetailleerd overzicht van verschillende soorten schendingen van onze Communityrichtlijnen, waaronder de mediane doorlooptijd van het detectiemoment van de schending (proactief of na melding) tot het moment waarop we de uiteindelijke maatregel tegen de betreffende content of account namen:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Tijdens de rapportageperiode zagen we een schendende videoweergavepercentage (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snaps en Verhalen op Snapchat er één content bevatte die in strijd was met onze Communityrichtlijnen.
Schendingen van onze Communityrichtlijnen gemeld aan onze veiligheids- en vertrouwensteams
Van 1 januari tot 30 juni 2024 hebben de veiligheids- en vertrouwensteams van Snap naar aanleiding van meldingen van schendingen van onze Communityrichtlijnen wereldwijd in totaal 6.223.618 handhavingsmaatregelen genomen, waaronder maatregelen tegen 3.842.507 unieke accounts. De mediane doorlooptijd van onze veiligheids- en vertrouwensteams om handhavingsmaatregelen te nemen naar aanleiding van die meldingen was ongeveer 24 minuten. Hieronder volgt een gedetailleerd overzicht per rapportagecategorie.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Onze totale rapportageaantallen zijn in H1 2024 vrij stabiel gebleven in vergelijking met de zes maanden ervoor. In deze cyclus zagen we een toename van ongeveer 16% van het totaal aantal handhavingen en totaal aantal bestrafte accounts.
In de afgelopen 12 maanden heeft Snap nieuwe rapportagemechanismen voor gebruikers geïntroduceerd, wat de wijzigingen in het aantal meldingen en handhavingen en de langere doorlooptijden in deze rapportageperiode (H1 2024) verklaart. In het bijzonder:
Groepschatrapportage: Op 13 oktober 2023 hebben we groepschatrapportage geïntroduceerd, waardoor gebruikers misbruik in een chat met meerdere personen kunnen melden. Deze wijziging heeft invloed op onze statistieken voor verschillende rapportagecategorieën (omdat bepaald potentieel gevaar eerder voorkomt in chats) en heeft het makkelijker gemaakt om na meldingen op te treden.
Verbeteringen in accountrapportage: We hebben ook onze accountrapportagefunctie ontwikkeld, waardoor gebruikers de mogelijkheid hebben om bewijs van chats toe te voegen als ze een account rapporteren dat mogelijk door iemand met slechte intenties wordt beheerd. Deze wijziging geeft ons meer bewijs en context om accountrapportages te beoordelen en is op 29 februari 2024 geïntroduceerd.
Chatrapportages, en vooral groepschatrapportages, zijn de meest complexe en tijdrovende rapportages om te beoordelen, waardoor de doorlooptijden in alle categorieën toenamen.
De meldingsprocedures voor verdachte seksuele uitbuiting en misbruik van kinderen (CSEA), lastigvallen en pesten, en haatzaaien werden in het bijzonder beïnvloed door de twee bovenstaande wijzigingen en door veranderingen in het bredere ecosysteem. In het bijzonder:
CSEA: We hebben in H1 2024 een toename van het aantal meldingen en handhavingen van CSEA vastgesteld. We zagen in het bijzonder een stijging van 64% van het aantal meldingen van gebruikers in de app, een stijging van 82% van het totaal aantal handhavingen en een stijging van 108% van het totaal aantal bestrafte unieke accounts. Deze stijgingen zijn grotendeels te verklaren door de introductie van de groepschat- en accountrapportage. Gezien de gevoelige aard van deze moderatiewachtrij wordt een bijzonder team van hoogopgeleide agenten aangewezen om meldingen van potentiële CSEA-schendingen te beoordelen. De toename van meldingen en de nieuwe training van onze teams heeft geleid tot een langere doorlooptijd. We hebben de omvang van onze wereldwijde leveranciersteams aanzienlijk vergroot om de doorlooptijden te verkorten en melding van mogelijke CSEA nauwkeurig te handhaven. We verwachten dat we in ons transparantieverslag van 2024 de vruchten zullen plukken van een wezenlijk betere doorlooptijd.
Lastigvallen en pesten: Op basis van melding hebben we geconstateerd dat lastigvallen en pesten disproportioneel vaak voorkomt in chats, en vooral in groepschats. Onze verbeteringen aan groepschatrapportage en accountrapportage helpen ons meer actie te ondernemen als we meldingen beoordelen in deze rapportagecategorie. Daarnaast vereisen we vanaf deze periode dat gebruikers een opmerking schrijven als ze melding maken van lastigvallen of pesten. We beoordelen deze opmerking om elke melding context te geven. Deze veranderingen leidden samen tot een aanzienlijke toename van het aantal handhavingen (+91%), het aantal bestrafte unieke accounts (+82%), en tot een langere doorlooptijd (+245 minuten) voor de betreffende meldingen.
Haatzaaien: In H1 2024 hebben we een toename van gerapporteerde content, het aantal handhavingen en de doorlooptijd voor haatzaaien vastgesteld. In het bijzonder zagen we een toename van 61% van meldingen in de app, een toename van 127% van het totaal aantal handhavingen en een toename van 125% van het totaal aantal bestrafte unieke accounts. Dit kwam deels door verbeteringen in onze chatrapportagemechanismen (zoals eerder beschreven), en werd verder versterkt door de geopolitieke omgeving, in het bijzonder het conflict tussen Israël en Hamas.
In deze rapportageperiode zagen we een afname van ongeveer 65% van het totaal aantal handhavingen en een afname van ongeveer 60% van het totaal aantal bestrafte unieke accounts naar aanleiding van meldingen van verdachte spam en misbruik. Hieruit blijkt de verbetering van onze proactieve detectie en handhavingstools. We zagen vergelijkbare afnames in het totaal aantal handhavingen naar aanleiding van meldingen met betrekking tot zelfbeschadiging en zelfmoord (afname van ongeveer 80%). Hieruit blijkt onze bijgewerkte slachtoffergerichte aanpak, die zegt dat onze veiligheids- en vertrouwensteams in gepaste gevallen bepaalde gebruikers zelfhulpbronnen zullen sturen in plaats van handhavingsmaatregelen tegen die gebruikers te nemen. Deze aanpak werd door leden van onze Veiligheidsadviesraad geadviseerd, waaronder een kinderhoogleraar en arts die gespecialiseerd is in interactieve media en internetstoornissen.
Onze maatregelen om schendingen van onze Communityrichtlijnen proactief te detecteren en daartegen op te treden
We gebruiken geautomatiseerde tools om schendingen van onze Communityrichtlijnen proactief te detecteren en in daar in sommige gevallen tegen op te treden. Deze tools omvatten hashmatching-tools (waaronder PhotoDNA en Google Child Sexual Abuse Imagery (CSAI) Match), detectietools voor kwetsende taal (die op basis van een regelmatig bijgewerkte lijst kwetsende zoekwoorden en emoji's kwetsende taal detecteren en daartegen optreden), en multimodale kunstmatige intelligentie / machine-learningtechnologie.
In H1 2024 hebben we de volgende handhavingsmaatregelen genomen na de proactieve detectie van schendingen van onze Communityrichtlijnen door het gebruik van geautomatiseerde tools:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Seksuele uitbuiting van enig lid van onze community, in het bijzonder van minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.
We gebruiken actieve technologische detectietools, zoals de robuuste hashmatching van PhotoDNA en Child Sexual Abuse Imagery (CSAI) Match van Google om respectievelijk bekende illegale afbeeldingen en video's van CSEA te identificeren. Daarnaast gebruiken we in sommige gevallen gedragssignalen om tegen andere mogelijk illegale CSEA-activiteiten op te treden. Wij melden CSEA-gerelateerde content aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet voorschrijft. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.
In de eerste helft van 2024 hebben we de volgende maatregelen genomen na het (proactief of als gevolg van een melding) detecteren van CSEA op Snapchat:
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Onze maatregelen om hulpbronnen en ondersteuning te bieden aan Snapchatters in nood
We geven veel om de mentale gezondheid en het welzijn van Snapchatters, wat onze beslissingen om Snapchat anders vorm te geven blijft bepalen. Snapchat is een platform dat is ontworpen voor communicatie tussen echte vrienden, en we geloven dat het een unieke rol kan spelen in het ondersteunen van vrienden om elkaar te helpen bij moeilijke momenten. Daarom heb we hulpbronnen en ondersteuning ontwikkeld voor Snapchatters in nood.
Onze zoekfunctie Here For You biedt hulpbronnen van plaatselijke deskundige partners, waarbij gebruikers op bepaalde onderwerpen kunnen zoeken met betrekking tot mentale gezondheid, angst, depressie, stress, suïcidale gedachten, verdriet en pesten. We hebben ook een pagina ontwikkeld die is gewijd aan financiële sextortion en andere seksuele risico's en leed om mensen in nood te ondersteunen. Onze wereldwijde lijst met veiligheidsbronnen is publiekelijk beschikbaar voor alle Snapchatters in ons privacy-, veiligheids- en beleidscentrum.
Wanneer onze veiligheids- en vertrouwensteams zich bewust worden van een Snapchatter die in nood is, kunnen ze zelfbeschadigingspreventie en ondersteuning doorsturen en indien nodig hulpdiensten op de hoogte stellen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, en deze zijn publiekelijk beschikbaar voor alle Snapchatters.
Total Times Suicide Resources Shared
64,094
Beroep
Hieronder geven wij informatie over beroepen die we hebben ontvangen van gebruikers die ons verzoeken onze beslissing om hun account te blokkeren, te herzien:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Regionaal en landoverzicht
Dit onderdeel is een overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams, zowel proactief als naar aanleiding van meldingen van schendingen in de app, in een aantal geografische regio's. Onze Communityrichtlijnen zijn van toepassing op alle inhoud op Snapchat en op alle Snapchatters, waar dan ook ter wereld.
Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Advertentiemoderatie
Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. We geloven in een verantwoorde en respectvolle benadering van adverteren, zodat we al onze gebruikers een veilige en plezierige ervaring kunnen bieden. Alle advertenties moeten door ons worden beoordeeld en goedgekeurd. Daarnaast behouden we ons het recht voor om advertenties te verwijderen, ook naar aanleiding van feedback van gebruikers, die we zeer serieus nemen.
Hieronder geven we inzicht in onze moderatie van betaalde advertenties die aan ons worden gemeld na hun publicatie op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, content voor volwassenen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Daarnaast kan de Advertentiegalerij van Snapchat nu in de navigatiebalk van dit transparantieverslag worden teruggevonden.
Total Ads Reported
Total Ads Removed
43,098
17,833


