Unser Transparenzbericht für das zweite Halbjahr 2021
1. April 2022
Unser Transparenzbericht für das zweite Halbjahr 2021
1. April 2022
Wir sind bestrebt, jeden unserer Transparenzberichte noch umfassender zu gestalten als den letzten. Diese Verantwortung nehmen wir nicht auf die leichte Schulter, denn wir wissen, dass unseren Stakeholdern die Online-Sicherheit und Rechenschaftspflicht genauso wichtig ist wie uns. Im Rahmen dieser laufenden Bemühungen haben wir mehrere Ergänzungen und Verbesserungen an unserem Transparenzbericht vorgenommen, der die zweite Hälfte des Jahres 2021 abdeckt.
Zunächst bieten wir neue Details über die Menge an Inhalten, gegen welche wir wegen drogenbedingter Verstöße Anzeige erstattet haben. Wir tolerieren auf Snapchat in keinster Weise Werbung für illegale Drogen und verbieten den Kauf oder Verkauf von illegalen oder regulierten Drogen.
Im vergangenen Jahr haben wir uns besonders darauf konzentriert, den Aufstieg illegaler Drogenaktivitäten im Rahmen der zunehmenden Fentanyl- und Opioidepidemie in ganz USA zu bekämpfen. Wir verfolgen einen ganzheitlichen Ansatz, der die Bereitstellung von Tools beinhaltet, die drogenbezogene Inhalte proaktiv erkennen, wir arbeiten mit Strafverfolgungsbehörden zusammen, um diese bei ihren Ermittlungen zu unterstützen und stellen mithilfe unseres Portals für Aufklärung über Fentanyl, Heads Up, In-App bezogene Informationen und Unterstützung für Snapchatter bereit. Heads Up gibt einen ersten Überblick aus Quellen von Expertenorganisationen, wenn Snapchatter eine Reihe von drogenbezogenen Begriffen und ihren Ableitungen durchsuchen. Resultierend aus diesen laufenden Bemühungen wird die überwiegende Mehrheit drogenbezogener Inhalte, die wir aufdecken, proaktiv durch unsere Technologie für maschinelles Lernen und künstliche Intelligenz erkannt und wir werden weiterhin daran arbeiten, Drogenaktivitäten von unserer Plattform zu eliminieren
Sollten wir eine Aktivität, die auf den Verkauf gefährlicher Drogen abzielt, aufdecken, schließen wir den Account umgehend aus, blockieren den Täter, sodass er keine neuen Accounts mehr auf Snapchat erstellen kann und haben die Möglichkeit, vom Account stammende Inhalte aufzubewahren, um Ermittlungen durch die Strafverfolgung zu unterstützen. In diesem Meldezeitraum waren weltweit sieben Prozent aller Inhalte und in den USA 10 Prozent aller Inhalte, gegen die wir Anzeige erstattet haben, drogenbedingte Verstöße. Weltweit lag die Durchschnittszeit, in welcher wir in Aktion traten, um diese Accounts anzuzeigen, bei 13 Minuten nach Eingang der Meldung.
Als Zweites haben wir eine neue Kategorie für Selbstmord und Selbstverletzung eingerichtet, um die Gesamtzahl von Inhalts- und Accountmeldungen mitzuteilen, die wir erhalten haben und gegenüber welchen wir daraufhin in Aktion traten, wenn unsere Vertrauens- & Sicherheitsteams der Meinung waren, dass ein Snapchatter in Not sein könnte. Wenn unser Vertrauens- und Sicherheitsteam erkennt, dass ein Snapchatter stark leidet, hat es die Möglichkeit, Ressourcen zur Prävention von Selbstschädigung und zur Unterstützung anzubieten und Rettungskräfte, falls nötig, zu alarmieren. Die psychische Gesundheit und das Wohlergehen von Snapchattern ist uns äußerst wichtig und wir glauben, dass es unsere Pflicht ist, unsere Community in diesen schwierigen Momenten zur Seite zu stehen.
Zusätzlich zu diesen neuen Elementen zeigt die Datenlage unseres letzten Transparenzberichts, dass wir einen Rückgang in zwei Schlüsselbereichen feststellen konnten: Violative View Rate (VVR) (Rate der Ansichten von Inhalten, die gegen unsere Richtlinien verstoßen) und die Anzahl der von uns angezeigten Accounts, die versuchten, Hassrede, Gewalt oder Schaden zu verbreiten. Unsere aktuelle Violative View Rate (VVR) beträgt 0,08 Prozent. Dies bedeutet, dass von 10 000 Snap- und Storyaufrufen auf Snapchat acht Inhalte enthielten, die Community-Richtlinien verletzt haben. Dies ist eine Verbesserung im Vergleich zu unserem letzten Meldezyklus, in welchem wir eine VVR von 0,10 Prozent verzeichneten.
Die grundlegende Architektur von Snapchat hält schädliche Inhalte davon ab, zu viralisieren, indem sie Anreize für Inhalte entfernt, die die niedrigsten menschlichen Instinkte ansprechen und schränkt Angelegenheiten ein, die mit der Verbreitung von schädlichen Inhalten wie Desinformation, Hassrede, Selbstverletzung oder Extremismus verbunden sind. In den öffentlichen Teilen von Snapchat wie beispielsweise unserer Entdecken-Plattform und unserer Spotlight-Unterhaltungsplattform untersuchen wir Inhalte gründlich und prämoderieren sie, um sicherzustellen, dass sie unseren Richtlinien entsprechen, bevor sie eine größere Zielgruppe erreichen können.
Wir halten weiterhin die Augen auf, um unsere von Menschen geführte Moderation zu verbessern, und haben in diesem Zusammenhang die mittlere Reaktionszeit, bis es zur Anzeige kommt, um 25 Prozent für Hassrede und um acht Prozent für Drohungen und Gewalt bzw. Schaden auf 12 Minuten in beiden Kategorien verbessert.
Wir sind der Meinung, dass es unsere wichtigste Verantwortung ist, unsere Community auf Snapchat zu schützen und wir stärken fortlaufend unsere umfassenden Bemühungen, um diesem Auftrag gerecht zu werden. Diese Arbeit wird kein Ende nehmen, doch wir werden weiterhin Updates über unsere Fortschritte mitteilen und sind unseren vielen Partnern dankbar, die uns regelmäßig dabei helfen, besser zu werden.