Ons transparantieverslag voor de eerste helft van 2022
29 november 2022
Ons transparantieverslag voor de eerste helft van 2022
29 november 2022
Vandaag publiceren we ons recentste transparantieverslag, dat betrekking heeft op de eerste helft van 2022.
De veiligheid en het welzijn van onze gemeenschap is topprioriteit bij Snap. Onze halfjaarlijkse transparantierapporten zijn een essentieel hulpmiddel dat we gebruiken om belangrijke informatie te delen en onszelf verantwoordelijk te houden.
Sinds ons eerste transparantierapport in 2015 hebben we ernaar gestreefd om elk rapport informatiever, inzichtelijker en effectiever te maken dan het vorige rapport. In ons laatste rapport hebben we verschillende toevoegingen en verbeteringen aangebracht om onze gemeenschap te helpen onze rapportage beter te begrijpen en voort te bouwen op onze inzet om deze rapporten begrijpelijker en informatiever te maken.
Valse informatiegegevens beschikbaar maken op landelijk niveau
Voor het eerst introduceren we "Valse informatie" als een op zichzelf staande categorie die beschikbaar is op landelijk niveau, voortbouwend op onze eerdere gebruikswijze om wereldwijd valse informatie te melden. Wij zijn een van de weinige platforms die deze informatie per land verstrekken. Dit halfjaar hebben we maatregelen genomen tegen in totaal 4.877 valse of misleidende inhoud die mogelijk als schadelijk of kwaadaardig werd gemeld. We hebben altijd een andere aanpak gekozen om de verspreiding van valse informatie op Snapchat te voorkomen, te beginnen met het ontwerp van ons platform. Op Snapchat staan we niet toe dat niet-gecontroleerde inhoud viraal gaat, en als we inhoud vinden die onze Communityrichtlijnen schendt, is het ons beleid om deze te verwijderen, waardoor het risico dat deze op grotere schaal wordt gedeeld, onmiddellijk wordt verkleind. Onze benadering in het handhaven van inhoud die valse informatie bevat, is net zo eenvoudig: deze wordt door ons verwijderd.
Met de recente tussentijdse verkiezingen in de VS en andere verkiezingen die wereldwijd plaatsvinden, zijn wij van mening dat gedetailleerde, landspecifieke gegevens over onze handhaving tegen valse informatie waardevol zijn. Je kunt hier meer informatie over hoe we de verspreiding van valse informatie Snapchat voorkomen.
Bestrijding van seksuele uitbuiting en misbruik van kinderen
Het seksueel uitbuiten van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, opsporen en verwijderen van beelden van seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is onze topprioriteit, en we ontwikkelen voortdurend onze mogelijkheden om dit soort misbruik van op ons platform te helpen bestrijden. In de eerste helft van 2022 hebben we 94 procent van de totaal gerapporteerde schendingen betreffende seksuele uitbuiting en misbruik van kinderen proactief gedetecteerd en gemeld. Dat is een toename van 6 procent sinds ons vorige rapport.
We zorgen ook dat de taal is bijgewerkt en dat we meer inzicht geven in onze inspanningen om CSEAI te bestrijden. We delen nu het totale aantal inhoudsitems met betrekking tot CSEAI dat we hebben verwijderd, evenals het totale aantal CSEAI-rapporten dat onze teams voor Vertrouwen en veiligheid hebben ingediend bij het Amerikaanse National Center for Missing and Exploited Children (NCMEC).
Introductie van een woordenlijst met beleids- en gegevensdefinities
We hebben een woordenlijst met beleids- en gegevensdefinities toegevoegd aan alle toekomstige rapporten. Met deze woordenlijst streven we ernaar om meer transparantie te bieden rond de termen en statistieken die we gebruiken, door duidelijk aan te geven welke vormen van schendende inhoud per categorie zijn opgenomen en waar maatregelen tegen worden genomen. Als lezers bijvoorbeeld niet precies weten wat we bedoelen met 'bedreigingen en geweld', 'haatdragende taal', 'andere gereguleerde goederen' of andere inhoudscategorieën, kunnen ze eenvoudig de woordenlijst raadplegen voor een beschrijving.
Proactief verwijderen van schendende inhoud
Bij het bekijken van de gegevens in de rapportage is het ook belangrijk om te weten dat de cijfers voor totaalmeldingen en handhaving alleen de inhoud meetellen die aan ons wordt gemeld. De gevallen waarin Snap proactief content detecteerde en actie ondernam voordat het aan ons werd gemeld, worden niet meegeteld. We zijn van mening dat de verbeteringen die we hebben aangebracht in onze proactieve inspanningen om schendende inhoud op te sporen, hebben een grote rol gespeeld bij de afname van het totale aantal meldingen, het aantal handhavingsacties en de doorlooptijden van ons laatste rapport in belangrijke categorieën. Omdat onze verbeterde, geautomatiseerde detectietools ervoor zorgen dat schendende inhoud werd geïdentificeerd en verwijderd voordat deze Snapchatters kon bereiken, zagen we een afname in het aantal handhavingsmaatregelen voor reactieve inhoud (bijv., meldingen van Snapchatters).
Sinds ons laatste rapport hebben we met name een afname van 44% gezien in de handhaving van bedreigende en gewelddadige inhoud na melding van Snapchatters, evenals een afname van 37% in de handhaving van drugsinhoud en een afname van 34% in de handhaving van aanzetten tot haat. Gemiddeld is onze mediane doorlooptijd voor het verwijderen van inhoud die in strijd is met ons beleid sinds de afgelopen helft van het jaar met 33% verbeterd, namelijk tot net iets langer dan een minuut.
Hoewel Snapchat in de loop der jaren is geëvolueerd, blijven we toegewijd aan het bieden van transparantie en prioriteren van de veiligheid en het welzijn van onze gemeenschap. We zullen onszelf verantwoordelijk blijven houden en updates over onze voortgang blijven publiceren.