25. Oktober 2023
13. Dezember 2023
Um einen Einblick in die Sicherheitsbemühungen von Snap sowie in die Art und den Umfang der auf unserer Plattform veröffentlichten Inhalte zu geben, veröffentlichen wir zweimal im Jahr Transparenzberichte. Wir sind bestrebt, diese Berichte noch umfassender und informativer für die vielen Interessengruppen zu gestalten, denen unsere Praktiken der Inhaltsmoderation und der Rechtsdurchsetzung sowie das Wohlergehen unserer Gemeinschaft sehr am Herzen liegen.
Dieser Transparenzbericht deckt die erste Hälfte des Jahres 2023 (1. Januar bis 30. Juni) ab. Wie in unseren früheren Berichten teilen wir Daten über die weltweite Anzahl von Meldungen zu In-App-Inhalten und Accounts, die wir erhalten und gegen die wir in bestimmten Kategorien von Richtlinienverstößen vorgegangen sind, wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben und unsere Durchsetzungsmaßnahmen nach Ländern aufgeschlüsselt haben.
Im Rahmen unseres laufenden Engagements für die kontinuierliche Verbesserung unserer Transparenzberichte führen wir mit dieser Version einige neue Elemente ein. Wir haben zusätzliche Datenpunkte zu unseren Werbepraktiken und -moderationen sowie zu Einsprüchen gegen Inhalte und Accounts hinzugefügt. In Übereinstimmung mit dem EU-Gesetz über digitale Dienste haben wir außerdem neue kontextbezogene Informationen über unsere Aktivitäten in den EU-Mitgliedstaaten hinzugefügt, wie z. B. die Anzahl der Inhaltsmoderatoren und der monatlich aktiven Nutzer (MAUs) in der Region. Viele dieser Informationen sind im gesamten Bericht und auf der speziellen Seite der Europäischen Union unseres Transparenzzentrums zu finden.
Und schließlich haben wir unser Glossar mit Links zu unseren Erklärungen zu den Community-Richtlinien aktualisiert, die zusätzlichen Kontext zu unseren Plattformrichtlinien und operativen Bemühungen liefern.
Weitere Informationen über unsere Richtlinien zur Bekämpfung von Online-Schäden und unsere Pläne zur Weiterentwicklung unserer Berichterstattungspraktiken findest du in unserem aktuellen Blog über Sicherheit und Auswirkungen über diesen Transparenzbericht.
Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unseren Reiter Über Transparenzberichterstattung am unteren Rand der Seite.
Bitte beachte, dass die aktuellste Version dieses Transparenzberichts im en-US-Locale zu finden ist.
Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts
Vom 1. Januar bis 30. Juni 2023 ist Snap gegen 6.216.118 Inhalte weltweit vorgegangen, die gegen diese Richtlinien verstoßen.
Im Berichtszeitraum verzeichneten wir eine Violative View Rate (VVR) von 0,02 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat 2 Inhalte enthielten, die gegen unsere Richtlinien verstießen.
*Die korrekte und konsequente Durchsetzung gegen falsche Informationen ist ein dynamischer Prozess, der aktuellen Kontext und Sorgfalt erfordert. Da wir bestrebt sind, die Präzision der Durchsetzung durch unsere Agenten in dieser Kategorie kontinuierlich zu verbessern, haben wir uns seit dem ersten Halbjahr 2022 dafür entschieden, Zahlen in den Kategorien „Vollstreckte Inhalte“ und „Vollstreckte eindeutige Konten“ zu melden, die auf der Grundlage einer strengen Qualitätssicherheitsprüfung eines statistisch signifikanten Teils der Durchsetzung falscher Informationen geschätzt werden. Konkret untersuchen wir einen statistisch signifikanten Teil der Durchsetzungsmaßnahmen wegen falscher Informationen in jedem Land und prüfen die Durchsetzungsentscheidungen auf Qualität. Anschließend nutzen wir diese qualitätsgeprüften Durchsetzungsmaßnahmen, um Durchsetzungsraten mit einem Konfidenzintervall von 95 % (+/- 5 % Fehlerquote) abzuleiten, die wir zur Berechnung der im Transparenzbericht gemeldeten Durchsetzungsmaßnahmen wegen falscher Informationen verwenden.
Analyse von Inhalts- und Account-Verstößen
Unsere Gesamtbewertungen für Berichterstattung und Durchsetzung blieben mit einigen Ausnahmen in den letzten sechs Monaten ziemlich ähnlich. In diesem Zyklus konnten wir einen Rückgang der gesamten Inhalts- und Account-Berichte und Durchsetzungen um ca. 3 % verzeichnen.
Die Kategorien mit den größten Schwankungen waren Belästigungen und Mobbing, Spam, Waffen und falsche Informationen. Belästigungen und Mobbing verzeichneten einen Anstieg von ca. 56 % der Berichte und einen anschließenden Anstieg von ca. 39 % bei der Durchsetzung von Inhalten und einzigartigen Accounts. Diese Erhöhungen der Durchsetzung waren mit einer um ca. 46 % geringeren Bearbeitungszeit verbunden, was die operative Effizienz unseres Teams bei der Durchsetzung dieser Art von verletzenden Inhalten unterstreicht. Ebenso konnten wir einen Anstieg von ca. 65 % der Berichte über Spam verzeichnen, mit einem Anstieg von ca. 110 % bei der Durchsetzung von Inhalten und ca. 80 % bei der Durchsetzung von einzigartigen Accounts, während unsere Teams auch die Durchlaufzeit um ca. 80 % verkürzten. Unsere Kategorie Waffen verzeichnete einen Rückgang von ca. 13 % der Berichte und einen Rückgang von ca. 51 % bei der Durchsetzung von Inhalten und ca. 53 % bei der Durchsetzung von einzigartigen Accounts. Zu guter Letzt konnte unsere Kategorie „Falsche Informationen“ einen Anstieg von ca. 14 % der Berichte verzeichnen, aber einen Rückgang von ca. 78 % bei der Durchsetzung von Inhalten und ca. 74 % bei der Durchsetzung von einzigartigen Accounts. Dies ist dem kontinuierlichen Qualitätssicherungsprozess (QS) und der Ressourcenausstattung zuzuschreiben, die wir für Falschinformationsberichte anwenden, um sicherzustellen, dass unsere Moderationsteams falsche Informationen auf der Plattform genau erfassen und handeln.
Insgesamt gesehen haben wir zwar im Allgemeinen ähnliche Zahlen wie im letzten Zeitraum, aber wir sind der Meinung, dass es wichtig ist, die Tools zu verbessern, die unsere Community verwendet, um mögliche Verstöße aktiv und genau zu melden, sobald sie auf der Plattform erscheinen.