Transparenzbericht
1. Juli 2023 – 31. Dezember 2023

Veröffentlicht:

25. April 2024

Aktualisiert:

25. April 2024

Um einen weiteren Einblick in die Sicherheitsbemühungen von Snap sowie in die Art und den Umfang der auf unserer Plattform veröffentlichten Inhalte zu geben, veröffentlichen wir diesen Transparenzbericht zweimal im Jahr. Wir sind bestrebt, diese Berichte noch umfassender und informativer zu gestalten, um die Sicherheit und das Wohlergehen unserer Community und der vielen Interessengruppen zu gewährleisten, denen unsere Praktiken bei der Moderation von Inhalten und der Strafverfolgung sehr am Herzen liegen. 

Dieser Tranzparenzbericht deckt die zweite Hälfte des Jahres 2023 (1. Juli – 31. Dezember) ab. Wie in unseren früheren Berichten teilen wir Daten über die weltweite Anzahl von Meldungen zu In-App-Inhalten und Accounts, die wir erhalten und gegen die wir in bestimmten Kategorien von Richtlinienverstößen vorgegangen sind, wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben und unsere Durchsetzungsmaßnahmen, aufgeschlüsselt nach Ländern.

Im Rahmen unseres laufenden Engagements für die kontinuierliche Verbesserung unserer Transparenzberichte führen wir mit dieser Version einige neue Elemente ein. 

Zum einen haben wir unsere Haupttabelle um Berichte und Durchsetzungsmaßnahmen gegen Inhalte und Accounts erweitert, die sowohl mit Terrorismus und gewalttätigem Extremismus als auch mit sexueller Ausbeutung von Kindern und Missbrauch (Child Sexual Exploitation & Abuse, CSEA) in Verbindung stehen. In früheren Berichten hatten wir die Löschungen von Accounts als Reaktion auf diese Verstöße in separaten Abschnitten hervorgehoben. Wir werden unsere proaktiven und reaktiven Bemühungen gegen CSEA sowie unsere Berichte an das NCMEC weiterhin in einem separaten Abschnitt beschreiben. 

Zum anderen haben wir die Informationen über Einsprüche erweitert, in denen wir die Gesamtzahl der Einsprüche und Wiederherstellungen nach Durchsetzung der Community-Richtlinien aufschlüsseln. 

Und schließlich haben wir unseren Abschnitt zur Europäischen Union erweitert, um einen besseren Einblick in die Aktivitäten von Snap in der EU zu geben. Insbesondere veröffentlichen wir unseren neuesten DSA-Transparenzbericht und zusätzliche Metriken zu unserem CSEA-Medienscanning.

Weitere Informationen über unsere Richtlinien zur Bekämpfung von Online-Schäden und unsere Pläne zur Weiterentwicklung unserer Berichterstattungspraktiken findest du in unserem aktuellen Blog über Sicherheit und Auswirkungen über diesen Transparenzbericht. Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unsere Registerkarte Über Transparenzberichterstattung am unteren Rand der Seite.

Bitte beachte, dass die aktuellste Version dieses Transparenzberichts im en-US-Locale zu finden ist.

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Analyse von Inhalts- und Account-Verstößen

Unsere Melde- und Durchsetzungsquoten sind im Vergleich zu den vorangegangenen sechs Monaten insgesamt ziemlich ähnlich geblieben. In diesem Zyklus konnten wir einen Anstieg von ca. 10 % der gesamten Inhalts- und Kontomeldungen verzeichnen.

In diesem Zeitraum begann der Konflikt zwischen Israel und der Hamas, und infolgedessen kam es zu einem Anstieg der gewalttätigen Inhalte. Die Gesamtzahl der Meldungen im Zusammenhang mit Hassreden stieg um etwa 61 %, während die Gesamtzahl der Durchsetzungen wegen Hassreden um etwa 97 % und die Gesamtzahl der Durchsetzungen gegen einzelne Konten um etwa 124 % zunahm. Die Meldungen und Durchsetzungsmaßnahmen in den Bereichen Terrorismus und gewalttätiger Extremismus haben ebenfalls zugenommen, obwohl sie weniger als 0,1 % der gesamten Durchsetzungsmaßnahmen für Inhalte auf unserer Plattform ausmachen. Unsere Trust-&-Safety-Teams bleiben bei globalen Konflikten weiterhin wachsam, um die Sicherheit von Snapchat zu gewährleisten. Darüber hinaus haben wir unseren Transparenzbericht erweitert, um mehr Informationen auf globaler und nationaler Ebene über die Gesamtzahl der Meldungen, die durchgesetzten Inhalte und die einzelnen Konten, die wegen Verstößen gegen unsere Richtlinie zu Terrorismus und gewalttätigem Extremismus durchgesetzt wurden, zu erhalten. 

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im zweiten Halbjahr 2023 haben wir 59 % aller gemeldeten Verstöße gegen die sexuelle Ausbeutung und den Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen. Dies entspricht einem Rückgang von 39 % gegenüber dem vorangegangenen Zeitraum. Grund dafür sind die verbesserten Berichtsoptionen für Snapchatter, die unsere Transparenz über potenzielle CSEA-Sendungen auf Snapchat erhöhen. 

*Beachten Sie, dass jede Einreichung bei NCMEC mehrere Inhalte enthalten kann. Die Gesamtzahl der bei NCMEC eingereichten Medien entspricht dem Gesamtinhalt, gegen den wir Maßnahmen ergriffen haben. Wir haben übrigens zurückgezogene Einreichungen beim NCMEC von dieser Zahl ausgeschlossen.

Selbstverletzung und Selbstmord Inhalte

Die psychische Gesundheit und das Wohlbefinden von Snapchattern liegen uns sehr am Herzen, was uns bei unseren Entscheidungen, Snapchat anders zu gestalten, immer wieder beeinflusst. Als Plattform, die für die Kommunikation zwischen und unter echten Freunden entwickelt wurde, glauben wir an die einzigartige Rolle von Snapchat, wenn es um die Stärkung von Freunden geht, um sich in schwierigen Zeiten gegenseitig zu helfen.

Wenn unser Trust & Safety-Team von einem Snapchatter in Not erfährt, kann es Ressourcen zur Prävention von Selbstverletzung und zur Unterstützung weiterleiten und gegebenenfalls Notfallhelfer benachrichtigen. Die von uns zur Verfügung gestellten Ressourcen sind auf unserer globalen Liste der Ressourcen zur Sicherheit verfügbar und für alle Snapchatter öffentlich zugänglich.

Einsprüche

In unserem letzten Bericht haben wir Metriken zu Einsprüchen eingeführt. Dabei haben wir hervorgehoben, wie oft uns Nutzer gebeten haben, unsere ursprüngliche Moderationsentscheidung gegen ihren Account erneut zu überprüfen. In diesem Bericht haben wir unsere Einsprüche erweitert, um die gesamte Palette unserer Richtlinienkategorien für Verstöße auf Kontoebene zu erfassen.

* Die Unterbindung der Verbreitung von Inhalten oder Aktivitäten im Zusammenhang mit der sexuellen Ausbeutung von Kindern hat oberste Priorität. Snap setzt für dieses Ziel erhebliche Ressourcen ein und hat keine Toleranz für ein solches Verhalten.  Für die Prüfung von Einsprüchen im Bereich CSE (Child Sexual Explotation: Sexuelle Ausbeutung von Kindern) ist eine spezielle Schulung erforderlich. Da in diesem Bereich explizite Abbildungen untersucht werden, ist das Ermittlungsteam auf eine begrenzte Anzahl von Mitarbeitern beschränkt.  Im Herbst 2023 hat Snap Änderungen an seinen Richtlinien vorgenommen, die sich auf die Konsistenz konkreter Maßnahmen zur Durchsetzung der CSE-Vorschriften auswirkten. Wir sind bestehenden Unstimmigkeiten durch Schulungen der Mitarbeiter und durch Qualitätssicherung entgegengetreten.  Wir gehen davon aus, dass der nächste Transparenzbericht von Snap Fortschritte bei den Reaktionszeiten für Einsprüche im Bereich CSE und bei der Optimierung der unmittelbaren Durchsetzungsmaßnahmen auf solche Hinweise aufzeigen wird.

Regionale und Länderübersicht

Dieser Abschnitt gibt einen Überblick über die Durchsetzung unserer Community-Richtlinien in ausgewählten geografischen Regionen. Unsere Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – weltweit unabhängig vom Standort.

Informationen zu einzelnen Ländern, einschließlich aller EU-Mitgliedsstaaten, können über die angehängte CSV-Datei heruntergeladen werden.

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im zweiten Halbjahr 2023 haben wir 59 % aller gemeldeten Verstöße gegen die sexuelle Ausbeutung und den Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen. Dies entspricht einem Rückgang von 39 % gegenüber dem vorangegangenen Zeitraum. Grund dafür sind die verbesserten Berichtsoptionen für Snapchatter, die unsere Transparenz über potenzielle CSEA-Sendungen auf Snapchat erhöhen. 

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im zweiten Halbjahr 2023 haben wir 59 % aller gemeldeten Verstöße gegen die sexuelle Ausbeutung und den Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen. Dies entspricht einem Rückgang von 39 % gegenüber dem vorangegangenen Zeitraum. Grund dafür sind die verbesserten Berichtsoptionen für Snapchatter, die unsere Transparenz über potenzielle CSEA-Sendungen auf Snapchat erhöhen. 

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im zweiten Halbjahr 2023 haben wir 59 % aller gemeldeten Verstöße gegen die sexuelle Ausbeutung und den Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen. Dies entspricht einem Rückgang von 39 % gegenüber dem vorangegangenen Zeitraum. Grund dafür sind die verbesserten Berichtsoptionen für Snapchatter, die unsere Transparenz über potenzielle CSEA-Sendungen auf Snapchat erhöhen. 

Anzeigenmoderation

Snap hat sich verpflichtet, sicherzustellen, dass alle Anzeigen vollständig mit unseren Werberichtlinien übereinstimmen. Wir glauben an einen verantwortungsvollen und respektvollen Ansatz bei der Werbung, der eine sichere und angenehme Erfahrung für alle unsere Nutzer schafft. Nachfolgend findest du einen Einblick in unsere Moderation für kostenpflichtige Werbung auf Snapchat. Beachte, dass Anzeigen auf Snapchat aus einer Vielzahl von Gründen entfernt werden können, wie in den Werberichtlinien von Snap dargelegt, einschließlich betrügerischer Inhalte, nicht jugendfreier Inhalte, gewalttätiger oder störender Inhalte, Hassreden und Verletzungen des geistigen Eigentums. Darüber hinaus findest du jetzt die Anzeigengalerie von Snapchat in der Navigationsleiste dieses Transparenzberichts.