5 december 2024
5 december 2024
We publiceren dit transparantieverslag twee keer per jaar om inzicht te geven in de veiligheidsmaatregelen van Snap. Wij vinden deze maatregelen belangrijk en streven er voortdurend naar om deze verslagen uitgebreider en informatiever te maken voor de vele belanghebbenden die veel belang hechten aan onze contentmoderatie, wetshandhavingspraktijken en de veiligheid en het welzijn van de Snapchat-community.
Dit transparantieverslag heeft betrekking op de eerste helft van 2024 (1 januari – 30 juni). Net als in onze vorige verslagen delen we gegevens over het totaal aantal ontvangen meldingen over content in apps en accounts in specifieke categorieën van schendingen van onze Communityrichtlijnen waartegen onze veiligheids- en vertrouwensteams hebben opgetreden; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en hoe we hebben gereageerd op kennisgevingen van auteursrecht- en handelsmerkschendingen. We geven ook landspecifieke inzichten in de bestanden waarnaar onderaan deze pagina wordt gelinkt.
Als onderdeel van onze inzet om onze transparantieverslagen voortdurend te verbeteren, introduceren we ook nieuwe gegevens die onze proactieve maatregelen benadrukken om meer schendingen van onze Communityrichtlijnen te detecteren en daartegen op te treden. We hebben deze gegevens in dit verslag zowel op wereldwijd als landelijk niveau opgenomen en zullen dat in de toekomst blijven doen. We hebben ook een verkeerde titel in onze eerdere verslagen gecorrigeerd: waar we eerder verwezen naar 'Totaal aantal content bestraft', verwijzen we nu naar 'Totaal aantal handhavingen' omdat de gegevens in de betreffende kolommen zowel handhaving van content en accounts bevat.
Lees voor meer informatie over ons beleid ter bestrijding van mogelijk online gevaar en plannen om onze rapportagepraktijken verder te ontwikkelen, ons recente Blog over veiligheid en impact over dit transparantieverslag. Om extra veiligheids- en privacybronnen op Snapchat te vinden, zie ons tabblad Over transparantieverslagen onderaan de pagina.
Houd er rekening mee dat de recentste versie van dit transparantieverslag in het Engels beschikbaar is.
Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams
Onze veiligheids- en vertrouwensteams handhaven onze Communityrichtlijnen zowel proactief (door geautomatiseerde tools) als reactief (naar aanleiding van meldingen), zoals verder wordt beschreven in de volgende onderdelen van dit verslag. In deze rapportagecycles (H1 2024) namen onze veiligheids- en vertrouwensteams de volgende handhavingsmaatregelen:
Hieronder staat een gedetailleerd overzicht van verschillende soorten schendingen van onze Communityrichtlijnen, waaronder de mediane doorlooptijd van het detectiemoment van de schending (proactief of na melding) tot het moment waarop we de uiteindelijke maatregel tegen de betreffende content of account namen:
Tijdens de rapportageperiode zagen we een schendende videoweergavepercentage (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snaps en Verhalen op Snapchat er één content bevatte die in strijd was met onze Communityrichtlijnen.
Schendingen van onze Communityrichtlijnen gemeld aan onze veiligheids- en vertrouwensteams
Van 1 januari tot 30 juni 2024 hebben de veiligheids- en vertrouwensteams van Snap naar aanleiding van meldingen van schendingen van onze Communityrichtlijnen wereldwijd in totaal 6.223.618 handhavingsmaatregelen genomen, waaronder maatregelen tegen 3.842.507 unieke accounts. De mediane doorlooptijd van onze veiligheids- en vertrouwensteams om handhavingsmaatregelen te nemen naar aanleiding van die meldingen was ongeveer 24 minuten. Hieronder volgt een gedetailleerd overzicht per rapportagecategorie.
Analyse
Onze totale rapportageaantallen zijn in H1 2024 vrij stabiel gebleven in vergelijking met de zes maanden ervoor. In deze cyclus zagen we een toename van ongeveer 16% van het totaal aantal handhavingen en totaal aantal bestrafte accounts.
In de afgelopen 12 maanden heeft Snap nieuwe rapportagemechanismen voor gebruikers geïntroduceerd, wat de wijzigingen in het aantal meldingen en handhavingen en de langere doorlooptijden in deze rapportageperiode (H1 2024) verklaart. In het bijzonder:
Groepschatrapportage: Op 13 oktober 2023 hebben we groepschatrapportage geïntroduceerd, waardoor gebruikers misbruik in een chat met meerdere personen kunnen melden. Deze wijziging heeft invloed op onze statistieken voor verschillende rapportagecategorieën (omdat bepaald potentieel gevaar eerder voorkomt in chats) en heeft het makkelijker gemaakt om na meldingen op te treden.
Verbeteringen in accountrapportage: We hebben ook onze accountrapportagefunctie ontwikkeld, waardoor gebruikers de mogelijkheid hebben om bewijs van chats toe te voegen als ze een account rapporteren dat mogelijk door iemand met slechte intenties wordt beheerd. Deze wijziging geeft ons meer bewijs en context om accountrapportages te beoordelen en is op 29 februari 2024 geïntroduceerd.
Chatrapportages, en vooral groepschatrapportages, zijn de meest complexe en tijdrovende rapportages om te beoordelen, waardoor de doorlooptijden in alle categorieën toenamen.
De meldingsprocedures voor verdachte seksuele uitbuiting en misbruik van kinderen (CSEA), lastigvallen en pesten, en haatzaaien werden in het bijzonder beïnvloed door de twee bovenstaande wijzigingen en door veranderingen in het bredere ecosysteem. In het bijzonder:
CSEA: We hebben in H1 2024 een toename van het aantal meldingen en handhavingen van CSEA vastgesteld. We zagen in het bijzonder een stijging van 64% van het aantal meldingen van gebruikers in de app, een stijging van 82% van het totaal aantal handhavingen en een stijging van 108% van het totaal aantal bestrafte unieke accounts. Deze stijgingen zijn grotendeels te verklaren door de introductie van de groepschat- en accountrapportage. Gezien de gevoelige aard van deze moderatiewachtrij wordt een bijzonder team van hoogopgeleide agenten aangewezen om meldingen van potentiële CSEA-schendingen te beoordelen. De toename van meldingen en de nieuwe training van onze teams heeft geleid tot een langere doorlooptijd. We hebben de omvang van onze wereldwijde leveranciersteams aanzienlijk vergroot om de doorlooptijden te verkorten en melding van mogelijke CSEA nauwkeurig te handhaven. We verwachten dat we in ons transparantieverslag van 2024 de vruchten zullen plukken van een wezenlijk betere doorlooptijd.
Lastigvallen en pesten: Op basis van melding hebben we geconstateerd dat lastigvallen en pesten disproportioneel vaak voorkomt in chats, en vooral in groepschats. Onze verbeteringen aan groepschatrapportage en accountrapportage helpen ons meer actie te ondernemen als we meldingen beoordelen in deze rapportagecategorie. Daarnaast vereisen we vanaf deze periode dat gebruikers een opmerking schrijven als ze melding maken van lastigvallen of pesten. We beoordelen deze opmerking om elke melding context te geven. Deze veranderingen leidden samen tot een aanzienlijke toename van het aantal handhavingen (+91%), het aantal bestrafte unieke accounts (+82%), en tot een langere doorlooptijd (+245 minuten) voor de betreffende meldingen.
Haatzaaien: In H1 2024 hebben we een toename van gerapporteerde content, het aantal handhavingen en de doorlooptijd voor haatzaaien vastgesteld. In het bijzonder zagen we een toename van 61% van meldingen in de app, een toename van 127% van het totaal aantal handhavingen en een toename van 125% van het totaal aantal bestrafte unieke accounts. Dit kwam deels door verbeteringen in onze chatrapportagemechanismen (zoals eerder beschreven), en werd verder versterkt door de geopolitieke omgeving, in het bijzonder het conflict tussen Israël en Hamas.
In deze rapportageperiode zagen we een afname van ongeveer 65% van het totaal aantal handhavingen en een afname van ongeveer 60% van het totaal aantal bestrafte unieke accounts naar aanleiding van meldingen van verdachte spam en misbruik. Hieruit blijkt de verbetering van onze proactieve detectie en handhavingstools. We zagen vergelijkbare afnames in het totaal aantal handhavingen naar aanleiding van meldingen met betrekking tot zelfbeschadiging en zelfmoord (afname van ongeveer 80%). Hieruit blijkt onze bijgewerkte slachtoffergerichte aanpak, die zegt dat onze veiligheids- en vertrouwensteams in gepaste gevallen bepaalde gebruikers zelfhulpbronnen zullen sturen in plaats van handhavingsmaatregelen tegen die gebruikers te nemen. Deze aanpak werd door leden van onze Veiligheidsadviesraad geadviseerd, waaronder een kinderhoogleraar en arts die gespecialiseerd is in interactieve media en internetstoornissen.
Onze maatregelen om schendingen van onze Communityrichtlijnen proactief te detecteren en daartegen op te treden
We gebruiken geautomatiseerde tools om schendingen van onze Communityrichtlijnen proactief te detecteren en in daar in sommige gevallen tegen op te treden. Deze tools omvatten hashmatching-tools (waaronder PhotoDNA en Google Child Sexual Abuse Imagery (CSAI) Match), detectietools voor kwetsende taal (die op basis van een regelmatig bijgewerkte lijst kwetsende zoekwoorden en emoji's kwetsende taal detecteren en daartegen optreden), en multimodale kunstmatige intelligentie / machine-learningtechnologie.
In H1 2024 hebben we de volgende handhavingsmaatregelen genomen na de proactieve detectie van schendingen van onze Communityrichtlijnen door het gebruik van geautomatiseerde tools:
Seksuele uitbuiting van enig lid van onze community, in het bijzonder van minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.
We gebruiken actieve technologische detectietools, zoals de robuuste hashmatching van PhotoDNA en Child Sexual Abuse Imagery (CSAI) Match van Google om respectievelijk bekende illegale afbeeldingen en video's van CSEA te identificeren. Daarnaast gebruiken we in sommige gevallen gedragssignalen om tegen andere mogelijk illegale CSEA-activiteiten op te treden. Wij melden CSEA-gerelateerde content aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet voorschrijft. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.
In de eerste helft van 2024 hebben we de volgende maatregelen genomen na het (proactief of als gevolg van een melding) detecteren van CSEA op Snapchat:
*Let op: elke inzending aan NCMEC kan meerdere stukken inhoud bevatten. Het totale aantal individuele stukken media die werden ingediend bij NCMEC is gelijk aan onze totale aantal bestrafde inhoud die we handhaven.
Onze maatregelen om hulpbronnen en ondersteuning te bieden aan Snapchatters in nood
We geven veel om de mentale gezondheid en het welzijn van Snapchatters, wat onze beslissingen om Snapchat anders vorm te geven blijft bepalen. Snapchat is een platform dat is ontworpen voor communicatie tussen echte vrienden, en we geloven dat het een unieke rol kan spelen in het ondersteunen van vrienden om elkaar te helpen bij moeilijke momenten. Daarom heb we hulpbronnen en ondersteuning ontwikkeld voor Snapchatters in nood.
Onze zoekfunctie Here For You biedt hulpbronnen van plaatselijke deskundige partners, waarbij gebruikers op bepaalde onderwerpen kunnen zoeken met betrekking tot mentale gezondheid, angst, depressie, stress, suïcidale gedachten, verdriet en pesten. We hebben ook een pagina ontwikkeld die is gewijd aan financiële sextortion en andere seksuele risico's en leed om mensen in nood te ondersteunen. Onze wereldwijde lijst met veiligheidsbronnen is publiekelijk beschikbaar voor alle Snapchatters in ons privacy-, veiligheids- en beleidscentrum.
Wanneer onze veiligheids- en vertrouwensteams zich bewust worden van een Snapchatter die in nood is, kunnen ze zelfbeschadigingspreventie en ondersteuning doorsturen en indien nodig hulpdiensten op de hoogte stellen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, en deze zijn publiekelijk beschikbaar voor alle Snapchatters.
Beroep
Hieronder geven wij informatie over beroepen die we hebben ontvangen van gebruikers die ons verzoeken onze beslissing om hun account te blokkeren, te herzien:
* Zoals hierboven besproken onder 'Analyse', is het een topprioriteit om de verspreiding van content of activiteit met betrekking tot seksuele uitbuiting van kinderen te voorkomen. Snap besteedt aanzienlijke middelen aan dit doel en heeft geen enkele tolerantie voor dergelijk gedrag. We hebben onze wereldwijde leveranciersteams uitgebreid om zich aan te passen aan nieuw beleid en rapportagefuncties voor Snapchat. Daarbij hebben we tussen H2 2023 en H1 2024 de doorlooptijd van CSEA-beroepen verkort van 152 dagen tot 15 dagen. We streven er voortdurend naar om onze procedures te verbeteren, ook met betrekking tot doorlooptijden van beroepsprocedures.
Regionaal en landoverzicht
Dit onderdeel is een overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams, zowel proactief als naar aanleiding van meldingen van schendingen in de app, in een aantal geografische regio's. Onze Communityrichtlijnen zijn van toepassing op alle inhoud op Snapchat en op alle Snapchatters, waar dan ook ter wereld.
Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.
Advertentiemoderatie
Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. We geloven in een verantwoorde en respectvolle benadering van adverteren, zodat we al onze gebruikers een veilige en plezierige ervaring kunnen bieden. Alle advertenties moeten door ons worden beoordeeld en goedgekeurd. Daarnaast behouden we ons het recht voor om advertenties te verwijderen, ook naar aanleiding van feedback van gebruikers, die we zeer serieus nemen.
Hieronder geven we inzicht in onze moderatie van betaalde advertenties die aan ons worden gemeld na hun publicatie op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, content voor volwassenen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Daarnaast kan de Advertentiegalerij van Snapchat nu in de navigatiebalk van dit transparantieverslag worden teruggevonden.

























