Ons transparantieverslag voor het tweede semester van 2021
1 april, 2022
Ons transparantieverslag voor het tweede semester van 2021
1 april, 2022
We zijn vastberaden om ieder van onze transparantieverslagen diepgaander te maken dan de vorige. Het is een verantwoordelijkheid die we serieus nemen, want we weten dat onze belanghebbenden even begaan zijn met online veiligheid en aansprakelijkheid als wij... Als onderdeel van deze voortdurende inspanningen hebben we verschillende toevoegingen en verbeteringen aangebracht aan ons meest recente Transparantieverslag, dat betrekking heeft op de tweede helft van 2021.
Eerst geven we nieuwe informatie over de hoeveelheid content die we tegen druggerelateerde overtredingen hebben opgelegd. We voeren een beleid van nultolerantie voor het bevorderen van illegaal druggebruik op Snapchat en we verbieden het kopen of verkopen van illegale of gereguleerde drugs.
Tijdens het voorbije jaar waar we vooral gefocust op de strijd tegen toenemende illegale drugactiviteiten als onderdeel van de groeiende fentanyl- en opioïde-epidemie in de VS. We hanteren een holistische aanpak, waaronder het inzetten van tools die proactief drugsgerelateerde inhoud detecteren, samenwerking met wetshandhavingsinstanties om hun onderzoeken te ondersteunen, en het bieden van in-app-informatie en ondersteuning via een nieuw onderwijsportaal, Heads Up, aan Snapchatters die zoeken naar drugsgerelateerde termen. Heads Up zoekt informatiebronnen van deskundige organisaties wanneer Snapchatters op zoek zijn naar verschillende druggerelateerde termen en hun derivaten. Als gevolg van deze voortdurende inspanningen wordt de overgrote meerderheid van de druggerelateerde inhoud die we ontdekken proactief gedetecteerd door onze technologie voor machinaal leren en artificiële intelligentie.
Wanneer we activiteiten opsporen die te maken hebben met de verkoop van gevaarlijke drugs, schorsen we onmiddellijk de account, blokkeren we de overtreder, zodat hij geen nieuwe accounts op Snapchat kan aanmaken, en hebben we de mogelijkheid om content gerelateerd aan die account te bewaren om wetshandhavingsonderzoeken te ondersteunen. Tijdens deze verslagperiode had zeven procent van alle inhoud waartegen we wereldwijd optraden en tien procent van alle inhoud waartegen we in de VS optraden, betrekking op druggerelateerde overtredingen. Wereldwijd was de mediane doorlooptijd voor het ondernemen van actie tegen deze accounts binnen 13 minuten na ontvangst van een melding.
Ten tweede hebben we een nieuwe categorie voor zelfmoord en zelfverminking gecreëerd om het totale aantal meldingen over inhoud en accounts te delen die we hebben ontvangen en waarop we actie hebben ondernomen wanneer onze Trust & Safety-teams vaststelden dat een Snapchatter mogelijk in gevaar verkeerde. Wanneer ons Trust & Safety-team een Snapchatter in nood herkent, hebben ze de mogelijkheid om bronnen over zelfverwondingspreventie en -ondersteuning door te sturen, en waar nodig de betreffende hulpverleners op de hoogte te stellen. We zijn enorm begaan met de geestelijke gezondheid en het welzijn van Snapchatters en we geloven dat het onze plicht is om onze community tijdens deze moeilijke momenten te ondersteunen.
Naast deze nieuwe elementen in ons transparantieverslag, tonen onze gegevens ook dat er een vermindering is in twee belangrijke gebieden: Violative View Rate (VVR) en het aantal afgedwongen accounts die haatspraak, geweld of beschadigende inhoud probeerden te verspreiden. Ons huidige Violative View Rate (VVR) is 0,08 procent. Dit betekent dat op elke 10.000 Snap- en Verhaal-weergaven op Snapchat acht weergaven content bevatten die in strijd is met onze Communityrichtlijnen. Dit is een verbetering ten opzichte van onze laatste verslagronde, toen ons VVR nog 0,10 procent was.
De fundamentele architectuur van Snapchat beschermt tegen het viraal gaan van schadelijke content, waardoor prikkels verwijderd worden om content te bekijken die het ergste in mensen naar boven brengt, en er minder bezorgdheid is over het verspreiden van schadelijke content zoals desinformatie, haatspraak, content over zelfbeschadiging, of extremisme. In de meer openbare delen van Snapchat, zoals ons Verkennen-contentplatform en ons Spotlight entertainmentplatform, beheren of pre-modereren we content om ervoor te zorgen dat deze content aan onze richtlijnen voldoet voor het een breder publiek kan bereiken.
We blijven waakzaam om onze menselijke moderatie te verbeteren en als gevolg daarvan hebben we de mediane doorlooptijd van de handhaving met 25 procent verbeterd voor haatspraak en met acht procent voor bedreigingen en geweld of schade tot 12 minuten in beide categorieën.
We geloven dat het onze voornaamste verantwoordelijkheid is om de veiligheid van onze community op Snapchat te verzekeren en we versterken voortdurend onze alomvattende inspanningen om dat doel te bereiken. Ons werk hier is nooit af, maar we blijven updates over onze vorderingen communiceren en we zijn onze vele partners dankbaar die ons daar regelmatig in bijstaan.