Snap Values
Transparantieverslag
1 juli 2023 t/m 31 december 2023

Gepubliceerd:

25 april 2024

Bijgewerkt:

25 april 2024

Om meer inzicht te geven in de veiligheidsmaatregelen van Snap en de aard en het volume van de content die op ons platform wordt gerapporteerd, publiceren we dit transparantieverslag twee keer per jaar. We blijven deze verslagen uitgebreider maken en informatief maken voor de veiligheid en het welzijn van onze community en voor de vele belanghebbenden die veel waarde hechten aan onze contentmoderatie en wetshandhaving. 

Deze Transparantieverslagen bestrijken de tweede helft van 2023 (1 juli - 31 december). Net als in onze vorige verslagen delen we gegevens over het totaal aantal ontvangen meldingen over content in apps en accounts in specifieke categorieën van beleidsschendingen en waartegen we hebben opgetreden; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en het aantal handhavingsacties per land.

Als onderdeel van onze voortdurende inzet om onze transparantieverslagen te verbeteren, introduceren we met deze uitgave een paar nieuwe elementen. 

Ten eerste hebben we onze hoofdtabel uitgebreid met meldingen en handhaving van content en accounts die verband houden met zowel terrorisme en gewelddadig extremisme als seksuele uitbuiting en misbruik van kinderen (CSEA). In vorige verslagen hadden we accountverwijderingen gemarkeerd die waren gemaakt als reactie op die schendingen in afzonderlijke secties. We zullen onze proactieve en reactieve inspanningen tegen CSEA blijven schetsen, evenals onze verslagen aan het NCMEC, in een apart gedeelte. 

Ten tweede hebben we uitgebreide informatie verstrekt over beroepsprocedures, waarbij we het totaal van de beroepsprocedures en herstellingen hebben geschetst volgens de handhaving van de Communityrichtlijnen. 

Tot slot hebben we ons gedeelte over de Europese Unie uitgebreid, waardoor we meer inzicht hebben in de EU-activiteiten van Snap. In het bijzonder publiceren we ons meest recente DSA-transparantieverslag en extra statistieken met betrekking tot ons CSEA-mediascanning.

Lees ons recente blog Veiligheid en impact over dit transparantieverslag voor meer informatie over ons beleid ter bestrijding van online schade en onze plannen om door te gaan met onze verslaglegging. Zie ons tabblad Over transparantieverslagen onderaan de pagina om aanvullende veiligheids- en privacybronnen op Snapchat te vinden.

Houd er rekening mee dat de recentste versie van dit transparantieverslag in het Engels beschikbaar is.

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd 5.376.714 keer content verwijderd die aan ons is gemeld en onze Communityrichtlijnen heeft geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat er 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te verwijderen was ~10 minuten.

Analyse van content- en accountschendingen

Onze algemene meldings- en verwijderingspercentages zijn vrij vergelijkbaar gebleven met de afgelopen zes maanden. In deze cyclus zagen we een stijging van ongeveer 10% in het totaal van content- en accountrapporten.

Het conflict tussen Israël en Hamas begon in deze periode en als gevolg daarvan zagen we een toename van gewelddadige content. Het totaal van de meldingen met betrekking tot haatzaaien is gestegen met ~61%, terwijl de totale contenthandhaving van haatzaaien is toegenomen met ~97% en de handhaving van unieke accounts is toegenomen met ~124%. Het aantal meldingen en verwijderingen van berichten omtrent terrorisme en gewelddadig extremisme is ook toegenomen, hoewel ze <0,1% van het totale aantal verwijderingen op ons platform uitmaken. Onze Vertrouwens- en veiligheidsteams blijven waakzaam bij wereldwijde conflicten om Snapchat veilig te houden. We hebben ons transparantieverslag ook uitgebreid met meer informatie op mondiaal en nationaal niveau over het totaal van de meldingen, content en unieke accounts die worden verwijderd wegens schendingen van ons beleid inzake terrorisme en gewelddadig extremisme. 

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van enig lid van onze community, in het bijzonder van minderjarigen, is illegaal, weerzinwekkend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdaden te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde gevallen van seksuele uitbuiting en misbruik van kinderen proactief opgespoord en verwijderd. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid op mogelijke CSEA die op Snapchat wordt verzonden is toegenomen. 

*Let op: elke inzending aan NCMEC kan meerdere stukken content bevatten. Het totaal aan individuele vormen van media dat werd ingediend bij het NCMEC is gelijk aan het totale aantal content waartegen is opgetreden. We hebben ook ingetrokken inzendingen naar het NCMEC van deze oplage uitgesloten.

Content over zelfverwonding en zelfmoord

We geven veel om de mentale gezondheid en het welzijn van Snapchatters, wat onze beslissingen om Snapchat anders vorm te geven blijft bepalen. Snapchat is een platform dat is ontworpen voor communicatie tussen echte vrienden, en we geloven dat het een unieke rol kan spelen in het ondersteunen van vrienden om elkaar te helpen bij moeilijke momenten.

Wanneer ons Vertrouwen en veiligheidsteam zich bewust wordt van een Snapchatter die in nood is, kunnen ze zelfbeschadigingspreventie en ondersteuning doorsturen en indien nodig noodhulppersoneel op de hoogte stellen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, en deze zijn publiekelijk beschikbaar voor alle Snapchatters.

Beroep

In ons vorige verslag hebben we statistieken geïntroduceerd over beroepsprocedures, waarbij we het aantal keren hebben benadrukt dat gebruikers ons hebben gevraagd om onze initiële moderatiebeslissing tegen hun account opnieuw te bekijken. In dit rapport hebben we onze beroepen uitgebreid om het volledige bereik van onze beleidscategorieën voor schendingen op accountniveau vast te leggen.

* Het stoppen van de verspreiding van content of activiteiten die verband houden met seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit doel en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  In de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat Snap's volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.

Advertentiemoderatie

Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. We geloven in een verantwoorde en respectvolle benadering van adverteren, zodat we al onze gebruikers een veilige en plezierige ervaring kunnen bieden. Hieronder hebben we inzicht gegeven in onze moderatie voor betaalde advertenties op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, ongepaste content voor minderjarigen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Daarnaast kan de Advertentiegalerij van Snapchat nu in de navigatiebalk van dit transparantieverslag worden teruggevonden.

Regionaal en landoverzicht

In dit onderdeel wordt een overzicht gegeven van het aantal keer dat er is opgetreden op grond van onze Communityrichtlijnen in een aantal geografische gebieden. Onze richtlijnen zijn van toepassing op alle content op Snapchat en op alle Snapchatters, waar dan ook ter wereld.

Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.