Transparenzbericht
1. Januar 2023 – 30. Juni 2023
Veröffentlicht:
25. Oktober 2023
Aktualisiert:
13. Dezember 2023

Um einen Einblick in die Sicherheitsbemühungen von Snap sowie in die Art und den Umfang der auf unserer Plattform veröffentlichten Inhalte zu geben, veröffentlichen wir zweimal im Jahr Transparenzberichte. Wir sind bestrebt, diese Berichte noch umfassender und informativer für die vielen Interessengruppen zu gestalten, denen unsere Praktiken der Inhaltsmoderation und der Rechtsdurchsetzung sowie das Wohlergehen unserer Gemeinschaft sehr am Herzen liegen. 
Dieser Transparenzbericht deckt die erste Hälfte des Jahres 2023 (1. Januar bis 30. Juni) ab. Wie in unseren früheren Berichten teilen wir Daten über die weltweite Anzahl von Meldungen zu In-App-Inhalten und Accounts, die wir erhalten und gegen die wir in bestimmten Kategorien von Richtlinienverstößen vorgegangen sind, wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben und unsere Durchsetzungsmaßnahmen nach Ländern aufgeschlüsselt haben.

Im Rahmen unseres laufenden Engagements für die kontinuierliche Verbesserung unserer Transparenzberichte führen wir mit dieser Version einige neue Elemente ein. Wir haben zusätzliche Datenpunkte zu unseren Werbepraktiken und -moderationen sowie zu Einsprüchen gegen Inhalte und Accounts hinzugefügt. In Übereinstimmung mit dem EU-Gesetz über digitale Dienste haben wir außerdem neue kontextbezogene Informationen über unsere Aktivitäten in den EU-Mitgliedstaaten hinzugefügt, wie z. B. die Anzahl der Inhaltsmoderatoren und der monatlich aktiven Nutzer (MAUs) in der Region. Viele dieser Informationen sind im gesamten Bericht und auf der speziellen Seite der Europäischen Union unseres Transparenzzentrums zu finden.
Und schließlich haben wir unser Glossar mit Links zu unseren Erklärungen zu den Community-Richtlinien aktualisiert, die zusätzlichen Kontext zu unseren Plattformrichtlinien und operativen Bemühungen liefern. 
Weitere Informationen über unsere Richtlinien zur Bekämpfung von Online-Schäden und unsere Pläne zur Weiterentwicklung unserer Berichterstattungspraktiken findest du in unserem aktuellen Blog über Sicherheit und Auswirkungen über diesen Transparenzbericht.
Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unseren Reiter Über Transparenzberichterstattung am unteren Rand der Seite.
Bitte beachte, dass die aktuellste Version dieses Transparenzberichts im en-US-Locale zu finden ist.

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Januar bis 30. Juni 2023 ist Snap gegen 6.216.118 Inhalte weltweit vorgegangen, die gegen diese Richtlinien verstoßen.
Im Berichtszeitraum verzeichneten wir eine Violative View Rate (VVR) von 0,02 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat 2 Inhalte enthielten, die gegen unsere Richtlinien verstießen.

Analyse von Inhalts- und Account-Verstößen

Unsere Gesamtbewertungen für Berichterstattung und Durchsetzung blieben mit einigen Ausnahmen in den letzten sechs Monaten ziemlich ähnlich. In diesem Zyklus konnten wir einen Rückgang der gesamten Inhalts- und Account-Berichte und Durchsetzungen um ca. 3 % verzeichnen.
Die Kategorien mit den größten Schwankungen waren Belästigungen und Mobbing, Spam, Waffen und falsche Informationen. Belästigungen und Mobbing verzeichneten einen Anstieg von ca. 56 % der Berichte und einen anschließenden Anstieg von ca. 39 % bei der Durchsetzung von Inhalten und einzigartigen Accounts. Diese Erhöhungen der Durchsetzung waren mit einer um ca. 46 % geringeren Bearbeitungszeit verbunden, was die operative Effizienz unseres Teams bei der Durchsetzung dieser Art von verletzenden Inhalten unterstreicht. Ebenso konnten wir einen Anstieg von ca. 65 % der Berichte über Spam verzeichnen, mit einem Anstieg von ca. 110 % bei der Durchsetzung von Inhalten und ca. 80 % bei der Durchsetzung von einzigartigen Accounts, während unsere Teams auch die Durchlaufzeit um ca. 80 % verkürzten. Unsere Kategorie Waffen verzeichnete einen Rückgang von ca. 13 % der Berichte und einen Rückgang von ca. 51 % bei der Durchsetzung von Inhalten und ca. 53 % bei der Durchsetzung von einzigartigen Accounts. Zu guter Letzt konnte unsere Kategorie „Falsche Informationen“ einen Anstieg von ca. 14 % der Berichte verzeichnen, aber einen Rückgang von ca. 78 % bei der Durchsetzung von Inhalten und ca. 74 % bei der Durchsetzung von einzigartigen Accounts. Dies ist dem kontinuierlichen Qualitätssicherungsprozess (QS) und der Ressourcenausstattung zuzuschreiben, die wir für Falschinformationsberichte anwenden, um sicherzustellen, dass unsere Moderationsteams falsche Informationen auf der Plattform genau erfassen und handeln.
Insgesamt gesehen haben wir zwar im Allgemeinen ähnliche Zahlen wie im letzten Zeitraum, aber wir sind der Meinung, dass es wichtig ist, die Tools zu verbessern, die unsere Community verwendet, um mögliche Verstöße aktiv und genau zu melden, sobald sie auf der Plattform erscheinen.

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEAI) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.
Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.
Im ersten Halbjahr 2023 haben wir 98 Prozent aller hier gemeldeten Verstöße gegen die sexuelle Ausbeutung und den sexuellen Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen – ein Anstieg von 4 Prozent seit dem vorangegangenen Zeitraum.
**Beachten Sie, dass jede Einreichung bei NCMEC mehrere Inhalte enthalten kann. Die Gesamtzahl der bei NCMEC eingereichten Medien entspricht der Gesamtzahl der von uns gemeldeten Inhalte.

Selbstverletzung und Selbstmord Inhalte

Die psychische Gesundheit und das Wohlbefinden der Snapchatter liegen uns sehr am Herzen, was unsere Entscheidung, Snapchat anders zu gestalten, beeinflusst hat und auch weiterhin beeinflusst. Als eine Plattform, die für die Kommunikation zwischen echten Freunden konzipiert wurde, glauben wir, dass Snapchat eine einzigartige Rolle dabei spielen kann, Freunde zu befähigen, sich gegenseitig durch schwierige Zeiten zu helfen.
Wenn unser Vertrauens- & Sicherheitsteam erkennt, dass sich ein Snapchatter in Not befindet, kann es Ressourcen zur Selbstverletzungsprävention und Unterstützung weiterleiten und bei Bedarf Notfallpersonal benachrichtigen. Die Ressourcen, die wir teilen, sind auf unserer weltweiten Liste der Ressourcen zur Sicherheit verfügbar, und zwar öffentlich für alle Snapchatter.

Einsprüche

Zum Zeitpunkt dieses Berichts beginnen wir mit der Berichterstattung über die Anzahl der Einsprüche von Nutzern, deren Konten wegen Verstoßes gegen unsere Richtlinien gesperrt wurden. Wir heben die Sperrung nur für Accounts auf, die nach Auffassung unserer Moderatoren fälschlicherweise gesperrt wurden. In diesem Zeitraum berichten wir über Einsprüche in Bezug auf Drogen-Inhalte.  In unserem nächsten Bericht freuen wir uns auf die Veröffentlichung weiterer Daten in Bezug auf Einsprüche, die sich aus anderen Verstößen gegen unsere Richtlinien ergeben.
**Beachten Sie, dass jede Einreichung bei NCMEC mehrere Inhalte enthalten kann. Die Gesamtzahl der bei NCMEC eingereichten Medien entspricht der Gesamtzahl der von uns gemeldeten Inhalte.

Anzeigenmoderation

Snap hat sich verpflichtet, unerschütterlich sicherzustellen, dass alle Anzeigen in vollem Umfang mit unseren Plattform-Richtlinien übereinstimmen. Wir glauben an einen verantwortungsvollen und respektvollen Ansatz bei der Werbung, der eine sichere und angenehme Erfahrung für alle unsere Nutzer schafft. Nachfolgend haben wir einen Einblick in unsere Werbemoderation aufgenommen. Beachte, dass Anzeigen auf Snapchat aus einer Vielzahl von Gründen entfernt werden können, wie in den Werberichtlinien von Snap dargelegt, einschließlich betrügerischer Inhalte, nicht jugendfreier Inhalte, gewalttätiger oder störender Inhalte, Hassreden und Verletzungen des geistigen Eigentums. Darüber hinaus findest du jetzt die Anzeigengalerie von Snapchat in der Navigationsleiste dieses Transparenzberichts. 

Länderübersicht

Dieser Abschnitt gibt einen Überblick über die Durchsetzung unserer Community-Richtlinien in ausgewählten geografischen Regionen. Unsere Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – weltweit unabhängig vom Standort.
Informationen zu einzelnen Ländern können über die angehängte CSV-Datei heruntergeladen werden: