Ons transparantieverslag voor de eerste helft van 2021
22 november 2021
Ons transparantieverslag voor de eerste helft van 2021
22 november 2021
Vandaag publiceren we ons transparantieverslag voor de eerste helft van 2021, die de periode dekt van 1 januari tot 30 juni van dit jaar. Net als bij andere recente verslagen, deelt dit verslag gegevens over schendingen van onze Communityrichtlijnen wereldwijd; het aantal rapporten over content dat we hebben ontvangen en bestraft per categorie; hoe we hebben gereageerd op verzoeken van wetshandhaving en overheden; onze handhavingen per land; het weergavepercentage voor schendende videos van Snapchat content; en incidenten van desinformatie op het platform.
We voegen verschillende updates toe aan onze rapportage van deze periode, waaronder het vermelden van onze gemiddelde verwerkingstijd in minuten i.p.v. uren. Dit om zo meer informatie te geven over onze operationele praktijken en werkzaamheid.
Elke dag worden er gemiddeld meer dan vijf miljard Snaps gemaakt met de Snapchat-camera. Van 1 januari tot en met 30 juni 2021 hebben we wereldwijd 6.629.165 stukken content bestraft die onze richtlijnen hebben geschonden. Tijdens deze periode was onze weergavepercentage voor schendende video's (Violative View Rate; VVR) 0,10 procent, wat inhoudt dat van elke 10.000 views van content op Snap, 10 daarvan inhoud bevatten die onze richtlijnen schendt. Daarnaast hebben we onze tijd om te reageren op rapporten van schendingen, vooral voor seksueel expliciete inhoud, lastigvallen en pesten, illegale en namaakdrugs en andere gereguleerde goederen aanzienlijk verbeterd.
Ons werk om content met seksueel misbruik van kinderen te bestrijden
De veiligheid van onze community is een topprioriteit. Als platform dat is gebouwd om met echte vrienden te communiceren, hebben we Snapchat bewust zo ontworpen dat het voor vreemden moeilijker is om jongeren te vinden. Snapchatters kunnen bijvoorbeeld de vriendenlijsten van anderen niet zien, en kunnen standaard geen bericht ontvangen van iemand die nog geen vriend is.
We hebben geen enkele tolerantie voor misbruik gericht aan een lid van onze community, vooral minderjarigen, wat illegaal, onaanvaardbaar en verboden is door onze communityrichtlijnen. We werken hard om deze schendingen te bestrijden door onze mogelijkheden te ontwikkelen om misbruik op ons platform te voorkomen, op te sporen en uit te roeien, waaronder beeldmateriaal van seksueel kindermisbruik (Child Sexual Abuse Material; CSAM) en andere soorten seksueel uitbuitende content van kinderen.
Onze vertrouwens- en veiligheidsteams gebruiken proactieve detectietools, zoals PhotoDNA en beeldmateriaal van seksueel kindermisbruik (Child Sexual Abuse Imagery; CSAI) technologie, om bekende illegale afbeeldingen en video's van CSAM te identificeren en ze te rapporteren aan het National Center for Missing and Exploited Children (NCMEC). NCMEC stemt vervolgens af met binnenlandse of internationale wetshandhaving.
In de eerste helft van 2021 bevatte 5,43 procent van het totale aantal accounts waar we wereldwijd tegen hebben opgetreden beeldmateriaal van seksueel kindermisbruik. Hiervan hebben we 70 procent van de CSAM-schendingen proactief gedetecteerd en aangepakt. Deze verhoogde proactieve detectiecapaciteit in combinatie met een stijging van de versprijding van CSAM door gecoördineerde spamaanvallen leidde tot een opmerkelijke toename in deze categorie voor deze periode.
We zijn onze partnerschappen met veiligheidsdeskundigen en onze in-app functies blijven uitbreiden, om Snapchatters te kunnen voorlichten over online risico's en hoe ze in-app meldingen kunnen maken om onze vertrouwens- en veiligheidsteams te waarschuwen voor elke vorm van bezorgdheid of misbruik. Daarnaast zijn we partners blijven toevoegen aan ons Programma voor Vertrouwde rapporteurs die veiligheidsdeskundigen een kanaal biedt om noodsituaties te rapporteren, zoals levensbedreigende situaties of een geval van CSAM. We werken nauw samen met deze partners om veiligheidseducatie, informatiebronnen over wellness en andere richtlijnen voor rapportage te bieden, zodat ze kunnen helpen om de community van Snapchat te ondersteunen.
Onze aanpak van de verspreiding van desinformatie
De periode van dit transparantieverslag bevat verdere bevestiging van hoe belangrijk het is om ervoor te zorgen dat accurate en betrouwbare informatie openbaar te vinden is. We beoordelen en investeren regelmatig in nieuwe middelen om onze community van Snapchatters te beschermen tegen de verspreiding van desinformatie over democratische processen, volksgezondheid en COVID-19.
In de eerste helft van 2021 hebben we wereldwijd een totaal van 2597 accounts en stukken content bestraft vanwege schendingen van onze richtlijnen omtrent desinformatie, bijna de helft van het aantal schendingen van de vorige verslagperiode. Aangezien content op Verkennen en Spotlight proactief worden gemodereerd om verspreiding van schendende inhoud op grote schaal te voorkomen, kwamen de meeste van deze schendingen van privé Snaps en Verhalen, en zijn de meeste van deze schendingen via onze eigen actieve moderatie aan ons bekend gemaakt, of door rapportage van Snapchatters.
We hebben altijd geloofd dat als het gaat om schadelijke content, het niet genoeg is om alleen maar na te denken over beleid en handhaving — platforms moeten ook nadenken over hun fundamentele architectuur en hun productontwerp. Vanaf het begin was Snapchat anders gebouwd dan traditionele sociale mediaplatforms, om ons primaire gebruiksscenario van praten met vrienden te ondersteunen — in plaats van een open nieuwsfeed waar iedereen het recht heeft om alles aan iedereen te verspreiden. Het ontwerp van Snapchat zelf beperkt de viraliteit van content, zodat prikkels worden ontnomen voor content die de ergste instincten van mensen aanspreekt, waardoor zorgen in verband met de verspreiding van illegale en schadelijke content worden beperkt.
Deze aanpak wordt ook in ons werk meegenomen om de verspreiding van extremistische inhoud te voorkomen. Tijdens de verslagperiode hebben wij vijf accounts verwijderd wegens schending van ons verbod op terroristische en extremistische inhoud, een lichte daling vergeleken met de vorige verslagperiode. Bij Snap houden we de ontwikkelingen in deze ruimte regelmatig in de gaten, om potentiële invalshoeken voor misbruik op ons platform te beperken. Zowel onze platformarchitectuur als het ontwerp van de groepschatfunctionaliteit helpen de verspreiding van schadelijke content en mogelijkheden om die te organiseren te beperken. We bieden groepschats aan, die beperkt zijn in omvang, niet worden aanbevolen door algoritmen, en niet publiekelijk te ontdekken zijn op ons platform als je geen lid bent van die groep.
Tijdens deze periode zijn we feitelijke informatie over de openbare veiligheid over COVID-19 aan onze community proactief blijven promoten, onder meer door rapportages die door onze redactionele partners bij Verkennen worden verstrekt, en door service aankondigingen (PSA's) en Q&A's met overheidsfunctionarissen, agentschappen en medische experts, en met creatieve tools, zoals augmented reality lenzen en filters – allemaal ontworpen om Snapchatters te herinneren aan richtlijnen voor de volksgezondheid. Eerder dit jaar, toen vaccins beschikbaar werden voor jongeren in de VS, hebben we samen met het Witte Huis een nieuw initiatief gelanceerd om veelgestelde vragen van Snapchatters te helpen te beantwoorden. In juli hebben we samen met de National Health Service van het Verenigd Koninkrijk een soortgelijke inspanning geleverd.
We zijn toegewijd om nu en in de toekomst onze transparantieverslagen uitgebreider en behulpzamer te maken voor de vele belanghebbenden die veel geven om online veiligheid, transparantie en verantwoordingsplicht tussen verschillende sectoren. We evalueren voortdurend hoe we onze uitgebreide inspanningen voor het bestrijden van schadelijke inhoud en kwaadwillenden kunnen versterken, en we zijn de vele veiligheidspartners en samenwerkende partijen dankbaar die ons regelmatig helpen met verbeteringen.