Unser Transparenzbericht für das erste Halbjahr 2021
22. November 2021
Unser Transparenzbericht für das erste Halbjahr 2021
22. November 2021
Heute veröffentlichen wir den Transparenzbericht für das erste Halbjahr 2021, der den Zeitraum vom 1. Januar bis 30. Juni dieses Jahres umfasst. Wie in den letzten Berichten werden auch in dieser Ausgabe Daten über Verstöße gegen unsere Community-Richtlinien weltweit während des Berichtszeitraums, die Anzahl der Meldungen von Inhalten, die wir erhalten haben und gegen die wir in bestimmten Kategorien von Verstößen vorgegangen sind, und wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben, veröffentlicht. Außerdem enthalten die Berichte Daten zur Durchsetzung der Richtlinien, die nach Ländern aufgeschlüsselt sind, die „Violative View Rate“ von Snapchat-Inhalten und das Auftreten von Falschinformationen auf der Plattform.
Wir haben unsere Berichterstattung in diesem Zeitraum um mehrere Updates ergänzt, darunter die Angabe unserer durchschnittlichen Bearbeitungszeit in Minuten statt in Stunden, um ausführlichere Details über unsere Arbeitsweise und Effizienz zu liefern.
Jeden Tag werden durchschnittlich mehr als fünf Milliarden Snaps mit unserer Snapchat Kamera erstellt. Vom 1. Januar bis zum 30. Juni 2021 haben wir weltweit gegen 6.629.165 Inhalte Maßnahmen ergriffen, die gegen unsere Richtlinien verstoßen haben. In diesem Zeitraum lag unsere Violative View Rate (VVR) bei 0,10 Prozent, was bedeutet, dass von 10.000 angesehenen Inhalten auf Snap 10 Inhalte enthielten, die gegen unsere Richtlinien verstoßen haben. Darüber hinaus haben wir unsere Reaktionszeit auf Meldungen über Verstöße erheblich verbessert, insbesondere bei sexuell eindeutigen Inhalten, Belästigungen und Mobbing, illegalen und gefälschten Medikamenten und anderen regulierten Gütern.
Unsere Arbeit zur Bekämpfung von Material mit sexuellem Missbrauch von Kindern
Die Sicherheit unserer Community hat oberste Priorität. Als Plattform, die für die Kommunikation mit echten Freunden entwickelt wurde, haben wir Snapchat absichtlich so gestaltet, dass es für Fremde schwieriger ist, junge Menschen zu finden. So können Snapchatter zum Beispiel nicht die Freundeslisten anderer sehen und standardmäßig keine Nachricht von jemandem erhalten, der nicht bereits ein Freund ist.
Wir verfolgen eine Null-Toleranz-Politik gegenüber dem Missbrauch von Mitgliedern unserer Community, insbesondere von Minderjährigen, was illegal und inakzeptabel ist, und durch unsere Community-Richtlinien verboten wird. Wir arbeiten unermüdlich daran, diese Verstöße zu bekämpfen, indem wir unsere Möglichkeiten weiterentwickeln, um Missbrauch auf unserer Plattform zu verhindern, zu erkennen und zu beseitigen, einschließlich Material mit sexuellem Missbrauch von Kindern (Child Sexual Abuse Material (CSAM) und anderen Arten von Inhalten, die Kinder sexuell ausbeuten.
Unsere Vertrauens- und Sicherheitsteams nutzen proaktive Erkennungstools wie PhotoDNA und die Technologie Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von CSAM zu identifizieren und sie dem National Center for Missing and Exploited Children (NCMEC) zu melden. NCMEC koordiniert sich dann wiederum mit den nationalen oder internationalen Strafverfolgungsbehörden.
In der ersten Jahreshälfte 2021 enthielten 5,43 Prozent aller Accounts, gegen die wir weltweit vorgegangen sind, CSAM. Davon haben wir 70 % der Kinderpornografie-Verstöße proaktiv erkannt und Maßnahmen ergriffen. Diese verbesserte proaktive Aufdeckungsfähigkeit in Kombination mit einem Anstieg der CSAM-verbreitenden koordinierten Spam-Angriffe führte zu einem bemerkenswerten Anstieg in dieser Kategorie für diesen Berichtszeitraum.
Wir haben unsere Partnerschaften mit Sicherheitsexperten sowie unsere In-App-Funktionen weiter ausgebaut, um Snapchatter über die Risiken beim Kontakt mit Fremden aufzuklären und ihnen zu zeigen, wie sie unsere Vertrauens- und Sicherheitsteams über jegliche Art von Bedenken oder Missbrauch informieren können. Außerdem haben wir weitere Partner in unser Trusted Flagger-Programm aufgenommen, das geprüften Sicherheitsexperten einen vertraulichen Channel für die Meldung von Notfall-Eskalationen bietet, z. B. bei unmittelbarer Lebensgefahr oder einem Fall von CSAM. Außerdem arbeiten wir eng mit diesen Partnern zusammen, um Sicherheitsausbildung, Ressourcen für die psychische Gesundheit und anderen Berichtssupport bereitzustellen, damit sie die Snapchat-Community effektiv unterstützen können.
Unser Ansatz gegen die Verbreitung von Falschinformationen
Der Zeitraum, den dieser Transparenzbericht abdeckt, unterstreicht noch einmal, wie wichtig es ist, dass die Öffentlichkeit Zugang zu genauen und glaubwürdigen Informationen hat. Wir prüfen regelmäßig, wie wir unsere Snapchat-Community vor der Verbreitung von Falschinformationen über demokratische Prozesse, die öffentliche Gesundheit und COVID-19 schützen können, und investieren in neue Maßnahmen.
In der ersten Jahreshälfte 2021 sind wir weltweit gegen insgesamt 2.597 Accounts und Inhalte wegen Verstößen gegen unsere Falschinformationsrichtlinien vorgegangen. Dies entspricht fast der Hälfte der Anzahl von Verstößen gegenüber dem Vorjahreszeitraum. Da Inhalte auf Entdecken und Spotlight proaktiv moderiert werden, um die Verbreitung rechtswidriger Inhalte in großem Umfang zu verhindern, stammen die meisten dieser Verstöße aus privaten Snaps und Storys und die meisten dieser Verstöße wurden uns durch unsere eigenen aktiven Moderationsbemühungen sowie durch Meldungen von Snapchattern bekannt gemacht.
Wir waren schon immer der Meinung, dass es nicht ausreicht, im Zusammenhang mit schädlichen Inhalten nur an Richtlinien und deren Durchsetzung zu denken – Plattformen müssen auch über ihre fundamentale Architektur und ihr Produktdesign nachdenken. Snapchat war von Anfang an anders aufgebaut als andere Social-Media-Plattformen, um unseren Hauptnutzungszweck zu unterstützen, nämlich den Austausch mit engen Freunden – und nicht einen offenen Newsfeed, in dem jeder das Recht hat, alles an jeden zu verbreiten. Das Design von Snapchat schränkt die Viralität ein, wodurch Anreize für Inhalte, die die schlimmsten Instinkte der Menschen ansprechen, wegfallen und somit Bedenken hinsichtlich der Verbreitung illegaler und schädlicher Inhalte verringert werden.
Dieser Ansatz setzt sich auch in unserer Arbeit zur Verhinderung der Verbreitung extremistischer Inhalte fort. Während des Berichtszeitraums haben wir fünf Konten wegen Verstößen gegen unser Verbot von terroristischen und extremistischen Inhalten gelöscht, was einem leichten Rückgang gegenüber dem letzten Berichtszyklus entspricht. Wir bei Snap beobachten regelmäßig die Entwicklungen in diesem Bereich und versuchen, alle potenziellen Angriffspunkte für Missbrauch auf unserer Plattform zu entschärfen. Sowohl unsere Plattformarchitektur als auch das Design unserer Gruppenchat-Funktionalität tragen dazu bei, die Verbreitung schädlicher Inhalte und Möglichkeiten zur Organisation einzuschränken. Wir bieten Gruppen-Chats an, diese sind jedoch in ihrer Größe begrenzt, werden von Algorithmen nicht empfohlen und sind auf unserer Plattform nicht auffindbar, wenn man kein Mitglied dieser Gruppe ist.
In diesem Zeitraum haben wir unsere Community weiterhin proaktiv mit sachlichen Informationen zur öffentlichen Sicherheit über COVID-19 versorgt, u. a. durch die Berichterstattung unserer Entdecken-Redaktionspartner, durch öffentliche Ankündigungen (Public Service Announcements – PSAs) durch Diskussionsrunden mit Vertretern des öffentlichen Gesundheitswesens, Agenturen und medizinischen Experten sowie durch Kreativtools wie Augmented-Reality-Linsen und Filter – alles, um Snapchatter an Experten-Tipps für die öffentliche Gesundheit zu erinnern. Anfang dieses Jahres, als Impfstoffe für junge Menschen in den USA verfügbar wurden, haben wir mit dem Weißen Haus eine neue Initiative gestartet, um Snapchattern bei der Beantwortung häufiger Fragen zu helfen, und im Juli haben wir uns mit dem britischen National Health Service für eine ähnliche Initiative zusammengetan.
Auch in Zukunft wollen wir unsere Transparenzberichte noch umfassender und hilfreicher für die vielen Interessengruppen machen, denen Online-Sicherheit, Transparenz und branchenübergreifende Rechenschaftspflicht wichtig ist. Wir prüfen ständig, wie wir unsere umfassenden Bemühungen zur Bekämpfung schädlicher Inhalte und krimineller Akteure verstärken können, und sind den vielen Partnern und Kooperationen im Bereich Sicherheit dankbar, die uns regelmäßig helfen, uns weiter zu verbessern.