Privacy and Safety Hub

Unser Transparenzbericht für das erste Halbjahr 2022

29. November 2022

Heute veröffentlichen wir unseren Transparenzbericht, der sich auf das erste Halbjahr 2022 bezieht.
Bei Snap steht die Sicherheit und das Wohlbefinden unserer Community an oberster Stelle, und unsere zweijährigen Transparenzberichte sind ein wesentliches Tool, mit dem wir Schlüsselinformationen teilen und uns selbst zur Verantwortung ziehen.
Seit unserem Transparenzbericht 2015 haben wir es uns zur Aufgabe gemacht, jeden Bericht informativer, verdaulicher und wirksamer als den letzten zu machen. In unserem aktuellen Bericht haben wir verschiedene Ergänzungen und Verbesserungen vorgenommen, um unserer Community zu helfen, unsere Berichterstattung besser zu verstehen und sich auf unserer Engagement zu stützen, diese Berichte umfassender und informativer zu machen.
Bereitstellung von falschen Informationen auf Länderebene
Zum ersten Mal stellen wir „Falsche Informationen“ als auf Länderebene verfügbare Kategorie vor, die sich auf unserer vorherigen Praxis der Berichterstattung von falschen Informationen weltweit stützt. Wir sind eine der einzigen Plattformen, die diese Informationen nach Land bereitstellen. In diesem Halbjahr haben wir insgesamt 4.877 Teile falscher oder irreführender Inhalte als potenziell schädlich oder böswillig durchgesetzt. Wir haben immer einen den Ansatz verfolgt, die Verbreitung von falschen Informationen auf Snapchat zu verhindern, beginnend mit der Gestaltung unserer Plattform. Bei Snapchat erlauben wir nicht, dass unüberprüfte Inhalte viral gehen und wenn wir Inhalte finden, die die Community-Richtlinien verletzen, entfernen wir sie sofort und reduzieren das Risiko, dass sie weiter geteilt werden. Unser Ansatz zur Durchsetzung von Inhalten, die falsche Informationen enthalten, ist ähnlich einfach: Wir entfernen sie.
Angesichts der jüngsten Zwischenwahlen in den USA und anderen Wahlen weltweit sind wir der Meinung, dass detaillierte, länderspezifische Daten über unsere Durchsetzung gegen falsche Informationen wertvoll sind. Mehr darüber, wie wir die Verbreitung von falschen Informationen Snapchat verhindern, hier.
Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch
Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, abschreckend und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von sexueller Ausbeutung von Kindern auf unserer Plattform (CSEAI) hat für uns oberste Priorität, und wir entwickeln unsere Fähigkeiten kontinuierlich weiter, um diese Art von Missbrauch auf unserer Plattform zu bekämpfen. Im ersten Halbjahr 2022 haben wir proaktiv 94 Prozent der sexuellen Ausbeutung von Kindern und Missbrauch in diesem Bericht entdeckt — ein Zuwachs um sechs Prozent seit unserem vorherigen Bericht.
Wir bieten auch aktualisierte Sprache und einen erhöhten Einblick in unsere Bemühungen zur Bekämpfung von CSEAI. Wir teilen jetzt die Gesamtanzahl der von uns entfernten CSEAI Inhalte sowie die Gesamtanzahl der CSEAI Berichte, die unsere Trust and Safety Teams an das U.S. National Center for Missing and Exploited Children (NCMEC) gemachten haben.
Einführung eines Glossars für Policy & Datendefinitionen
Wir haben ein Glossar für Richlinien & Datendefinitionen hinzugefügt, das in alle Berichte in Zukunft aufgenommen wird. Unser Ziel mit diesem Glossar ist es, mehr Transparenz über Bedingungen und Kennzahlen zu bieten, die wir verwenden, und erläutert, welche Formen von Verstößen unter jeder Kategorie enthalten sind und durchgesetzt werden. Wenn Leser beispielsweise nicht genau sicher sind, was wir mit „Bedrohungen und Gewalt“, „Hassrede“, „Andere regulierte Waren“ oder anderen Inhaltskategorien gemeint sind, können sie sich leicht auf das Glossar für eine Beschreibung beziehen.
Proaktive Entfernung von verletzenden Inhalten
Bei der Betrachtung der Daten im Bericht ist es auch wichtig zu sehen, dass die Zahlen für Gesamtberichte und Durchsetzung nur den Inhalt zählen, der uns gemeldet wird. Es zählt nicht die Fälle, die Snap proaktiv erkannt hat und entsprechend eingegriffen hat, bevor sie uns gemeldet wurden. Wir sind der Meinung, dass die Verbesserungen, die wir an unseren proaktiven Erkennungsbemühungen vorgenommen haben, eine große Rolle dabei gespielt haben, dass die Gesamtzahl der Meldungen, die Zahl der Durchsetzungsmaßnahmen und die Durchlaufzeiten in den Schlüsselkategorien seit unserem jüngsten Bericht vermindert wurden. Da unsere verbesserten, automatischen Erkennungstools Inhalte identifiziert und entfernt haben, bevor sie Snapchatter erreichen konnten, haben wir eine Verringerung der Durchsetzung von reaktiven Inhalten (d. h. Berichte von Snapchatters) festgestellt.
Insbesondere seit unserem letzten Bericht haben wir eine Verringerung der Durchsetzung von bedrohlichen und gewalttätigen Inhalten auf Berichte von Snapchattern um 44 % sowie eine Verringerung der Durchsetzung von drogenbezogenen Inhalten um 37 % und eine Verringerung der Durchsetzung von Hassreden um 34 % verzeichnet. Im Durchschnitt hat sich unsere durchschnittliche Bearbeitungszeit zur Entfernung von verletzenden Inhalten seit dem letzten Halbjahr um 33 % auf knapp eine Minute verbessert.
Snapchat hat sich im Laufe der Jahre weiterentwickelt, aber unser Engagement für Transparenz und die Priorisierung der Sicherheit und des Wohlbefindens unserer Community bleibt unverändert. Wir werden weiterhin unsere Verantwortung übernehmen und Updates über unseren Fortschritt mitteilen.