Transparantieverslag
1 januari 2023 t/m 30 juni 2023
Gepubliceerd:
25 oktober 2023
Bijgewerkt:
13 december 2023

Om inzicht te geven in de veiligheidsinspanningen van Snap en in de aard en het volume van de content die op ons platform werd gemeld, publiceren we twee keer per jaar een transparantieverslag. We zijn hard aan het werk om deze verslagen uitgebreider en informatiever te maken voor alle belanghebbenden die interesse hebben in onze inspanningen op het gebied van contentmoderatie, wetshandhaving en het welzijn van onze community. 
Dit transparantieverslag gaat over de eerste helft van 2023 (1 januari t/m 30 juni). Net als in onze vorige verslagen delen we gegevens over het totaal aantal ontvangen meldingen over content in apps en accounts in specifieke categorieën van beleidsschendingen en waartegen we hebben opgetreden; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en het aantal handhavingsacties per land.

Als onderdeel van onze voortdurende inzet om onze transparantieverslagen te verbeteren, introduceren we met deze uitgave een paar nieuwe elementen. We hebben extra gegevenspunten toegevoegd over hoe we omgaan met advertenties en hoe we hier toezicht op houden. Daarbij gaan we dieper in op beroepen tegen verwijderde content en geblokkeerde accounts. In overeenstemming met de Europese wet op digitale diensten hebben we ook nieuwe contextuele informatie toegevoegd over onze activiteiten in de EU-lidstaten. Hieronder vallen het aantal contentmoderators en maandelijks actieve gebruikers in de regio. De meeste informatie is te vinden in het verslag en op de hiervoor bestemde pagina van ons Transparantiecentrum voor de Europese Unie.
Tot slot hebben we onze Woordenlijst bijgewerkt met links naar onze toelichtingen voor de Communityrichtlijnen, die extra uitleg geven over ons platformbeleid en onze operationele inspanningen. 
Meer informatie over ons beleid voor het bestrijden van online schade en onze plannen om onze rapportagepraktijken verder uit te breiden, vind je in ons recente blog over veiligheid en impact over dit transparantieverslag. 
Ga onder aan de pagina naar ons tabblad Over transparantieverslagen voor aanvullende informatiebronnen over veiligheid en privacy op Snapchat.
Houd er rekening mee dat de recentste versie van dit transparantieverslag in het Engels beschikbaar is.

Overzicht van content- en accountovertredingen

Van 1 januari t/m 30 juni 2023 heeft Snap wereldwijd gehandhaafd tegen 6.216.118 stukken content die ons beleid hebben geschonden.
Tijdens deze rapportageperiode zagen we een weergavepercentage voor schendende video's (Violative View Rate; VVR) van 0,02 procent. Dit betekent dat van elke 10.000 weergaven van Snaps en Verhalen op Snapchat, er twee in strijd waren met onze richtlijnen.

Analyse van content- en accountschendingen

Onze algemene meldings- en handhavingspercentages zijn relatief vergelijkbaar gebleven in de afgelopen zes maanden. Er zijn slechts een paar uitzonderingen voor enkele belangrijke categorieën. We zagen deze periode een daling van ongeveer 3% in het totaal aantal meldingen en handhavingen van content en accounts.
De categorieën met de meest opvallende schommelingen waren intimidatie en pesten, spam, wapens en misinformatie. Voor intimidatie en pesten was er een stijging van ca. 56% in het totale aantal meldingen, gevolgd door een stijging van ca. 39% met betrekking tot de handhaving van content en unieke accounts. Deze stijgingen in handhaving gingen gepaard met een daling van ca. 46% in de doorlooptijd. Dit benadrukt nogmaals de operationele efficiëntie van ons team bij het handhaven van content dat niet voldoet aan ons beleid. We zagen een vergelijkbare stijging van ca. 65% in het totale aantal meldingen van spam, met een stijging van ca. 110% in de handhaving van content en een stijging van ca. 80% in de handhaving van unieke accounts. Toch wisten onze teams de doorlooptijd hiervan met ca. 80% te verminderen. In onze categorie Wapens zagen we een daling van ca. 13% in het totale aantal meldingen, een daling van ca. 51% in de handhaving van content en een daling van ca. 53% in de handhaving van unieke accounts. Tot slot zagen we in onze categorie Misinformatie een stijging van ca. 14% in het totaal aantal meldingen, maar een daling van ca. 78% in de handhaving van content en een daling van ca. 74% in de handhaving van unieke accounts. Dit is te danken aan de voortdurende kwaliteitswaarborgprocessen (QA) en de aandacht die we geven aan meldingen over misinformatie. Dit zorgt ervoor dat onze moderatieteams misinformatie op het platform correct kunnen opsporen en aanpakken.
Hoewel de cijfers vergelijkbaar waren met de voorgaande periode, blijven we benadrukken dat we het belangrijk vinden om de tools die onze community gebruikt te blijven verbeteren. Alleen dan kunnen mogelijke schendingen actief en correct worden gemeld zodra ze op het platform verschijnen.

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor Snap. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.
We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.
In de eerste helft van 2023 hebben we 98 procent van de totaal gemelde schendingen omtrent seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dat is een toename van 4% in vergelijking met de vorige periode.
**Houd er rekening mee dat elke inzending voor het NCMEC meerdere vormen van content kan bevatten. Het totaal aan individuele vormen van media dat wordt ingediend bij het NCMEC is gelijk aan ons totaal aan content waartegen is opgetreden.

Content over zelfverwonding en zelfmoord

De mentale gezondheid en het welzijn van Snapchatters gaat ons aan het hart. Het speelt een grote rol in onze beslissingen over hoe we Snapchat anders kunnen vormgeven. Snapchat is een platform dat is ontworpen voor communicatie tussen echte vrienden. We geloven dat het op een unieke manier kan bijdragen in hoe vrienden elkaar in moeilijke tijden kunnen steunen.
Wanneer ons team voor Vertrouwen & veiligheid merkt dat een Snapchatter het moeilijk heeft, dan hebben ze de mogelijkheid om informatie over de preventie van zelfverwonding en mentale steun aan te bieden. Afhankelijk van de situatie kunnen ze mogelijk noodhulpverleners op de hoogte te stellen. De informatie die we delen is beschikbaar op onze wereldwijde lijst met veiligheidsbronnen. Deze informatie is vrij toegankelijk voor alle Snapchatters.

Beroep

Met verslag maken we een begin om melding te maken van het aantal beroepen die gebruikers hebben ingediend nadat hun accounts werden geblokkeerd, omdat ze in strijd waren met ons beleid. We herstellen alleen accounts waarvan onze moderators vaststellen dat ze onterecht zijn geblokkeerd. Tijdens deze periode maken we melding van het aantal ingediende beroepen met betrekking tot drugsgerelateerde content.  In ons volgende verslag verwachten we meer gegevens te kunnen geven over de ingediende beroepen met betrekking tot andere schendingen van ons beleid.
**Houd er rekening mee dat elke inzending voor het NCMEC meerdere vormen van content kan bevatten. Het totaal aan individuele vormen van media dat wordt ingediend bij het NCMEC is gelijk aan ons totaal aan content waartegen is opgetreden.

Advertentiemoderatie

Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig voldoen aan het beleid van ons platform. We geloven in een verantwoorde en respectvolle benadering van adverteren, zodat we al onze gebruikers een veilige en plezierige ervaring kunnen bieden. Hieronder geven we inzicht in hoe we advertenties modereren. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, content voor volwassenen, gewelddadige of schokkende content, haatdragende uitspraken en de schending van intellectueel eigendom. Daarnaast kun je de Advertentiegalerij van Snapchat nu in de browserbalk van dit transparantieverslag terugvinden. 

Landenoverzicht

In dit onderdeel wordt een overzicht gegeven van het aantal keer dat er is opgetreden op grond van onze Communityrichtlijnen in een aantal geografische gebieden. Onze richtlijnen zijn van toepassing op alle content op Snapchat en op alle Snapchatters, waar dan ook ter wereld.
Informatie voor individuele landen kan worden gedownload via het bijgevoegde CSV-bestand: