Snap Values
Transparenzbericht
1. Januar 2024 bis 30. Juni 2024

Veröffentlicht:

5. Dezember 2024

Aktualisiert:

5. Dezember 2024

Wir veröffentlichen diesen Transparenzbericht zweimal pro Jahr, um einen Einblick in die Sicherheitsbemühungen von Snap zu geben. Diese Bemühungen haben wir uns verpflichtet. Wir streben stets danach, diese Berichte für unsere zahlreichen Stakeholder noch umfassender und informativer zu gestalten, die sich für unsere Inhaltsmoderation, unsere Strafverfolgungspraktiken und die Sicherheit und das Wohlergehen der Snapchat-Community einsetzen. 

Dieser Transparenzbericht deckt das erste Halbjahr 2024 (1. Januar - 30. Juni) ab. Wie in unseren früheren Berichten teilen wir Daten über die weltweite Anzahl von Meldungen zu In-App-Inhalten und Accounts, die unsere Vertrauens- und Sicherheitsteams erhalten und gegen die sie in bestimmten Kategorien von Richtlinienverstößen vorgegangen sind; wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben; und wie wir auf Hinweise auf Urheberrechts- und Markenverletzungen reagiert haben. In den Dateien die unten auf dieser Seite verlinkt sind bieten wir außerdem länderspezifische Einblicke an.

Im Rahmen unseres stetigen Engagements, unsere Transparenzberichte kontinuierlich zu verbessern, stellen wir auch neue Daten vor, die unsere proaktiven Bemühungen zur Erkennung und Bekämpfung einer breiteren Palette von Verstößen gegen unsere Community-Richtlinien hervorheben. Wir haben diese Daten sowohl auf globaler als auch auf Länderebene in diesen Bericht aufgenommen und werden dies auch in Zukunft so fortführen. Wir haben auch einen Kennzeichnungsfehler in unseren früheren Berichten korrigiert: Zuvor als „Gesamte durchgesetzte Inhalte“ gekennzeichnet, verweisen wir jetzt auf „Gesamte Durchsetzungen“, um widerzuspiegeln, dass die in den entsprechenden Spalten angegebenen Daten sowohl Durchsetzungsmaßnahmen auf Inhalte- als auch auf Kontoebene enthalten.

Weitere Informationen über unsere Richtlinien zur Bekämpfung potenzieller Online-Schäden und unsere Pläne zur Weiterentwicklung unserer Meldepraktiken findest du in unserem aktuellen Blog zu Sicherheit und Folgen über diesen Transparenzbericht. Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unsere Registerkarte Über Transparenzberichterstattung unten.

Bitte beachte, dass die aktuellste Version dieses Transparenzberichts in der en-US-Sprachversion zu finden ist.

Übersicht über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien

Unsere Vertrauens- und Sicherheitsteams setzen unsere Community-Richtlinien sowohl proaktiv (mit automatisierten Tools) als auch reaktiv (auf Meldungen) durch, wie im Folgenden näher erläutert. In diesem Berichtszyklus (1. Halbjahr 2024) haben unsere Vertrauens- und Sicherheitsteams die folgenden Durchsetzungsmaßnahmen ergriffen: 

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Analyse von Inhalts- und Account-Verstößen

Unsere Melde- und Durchsetzungsquoten sind im Vergleich zu den vorangegangenen sechs Monaten insgesamt ziemlich ähnlich geblieben. In diesem Zyklus konnten wir einen Anstieg von ca. 10 % der gesamten Inhalts- und Kontomeldungen verzeichnen.

In diesem Zeitraum begann der Konflikt zwischen Israel und der Hamas, und infolgedessen kam es zu einem Anstieg der gewalttätigen Inhalte. Die Gesamtzahl der Meldungen im Zusammenhang mit Hassreden stieg um etwa 61 %, während die Gesamtzahl der Durchsetzungen wegen Hassreden um etwa 97 % und die Gesamtzahl der Durchsetzungen gegen einzelne Konten um etwa 124 % zunahm. Die Meldungen und Durchsetzungsmaßnahmen in den Bereichen Terrorismus und gewalttätiger Extremismus haben ebenfalls zugenommen, obwohl sie weniger als 0,1 % der gesamten Durchsetzungsmaßnahmen für Inhalte auf unserer Plattform ausmachen. Unsere Trust-&-Safety-Teams bleiben bei globalen Konflikten weiterhin wachsam, um die Sicherheit von Snapchat zu gewährleisten. Darüber hinaus haben wir unseren Transparenzbericht erweitert, um mehr Informationen auf globaler und nationaler Ebene über die Gesamtzahl der Meldungen, die durchgesetzten Inhalte und die einzelnen Konten, die wegen Verstößen gegen unsere Richtlinie zu Terrorismus und gewalttätigem Extremismus durchgesetzt wurden, zu erhalten. 

Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts

Vom 1. Juli bis zum 31. Dezember 2023 hat Snap weltweit Maßnahmen gegen 5.376.714 Inhalte ergriffen, die uns gemeldet wurden und gegen unsere Community-Richtlinien verstoßen haben.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent, was bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Richtlinien verstieß. Die mittlere Bearbeitungszeit für die Durchsetzung der gemeldeten Inhalte betrug etwa 10 Minuten.

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im zweiten Halbjahr 2023 haben wir 59 % aller gemeldeten Verstöße gegen die sexuelle Ausbeutung und den Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen. Dies entspricht einem Rückgang von 39 % gegenüber dem vorangegangenen Zeitraum. Grund dafür sind die verbesserten Berichtsoptionen für Snapchatter, die unsere Transparenz über potenzielle CSEA-Sendungen auf Snapchat erhöhen. 

*Beachten Sie, dass jede Einreichung bei NCMEC mehrere Inhalte enthalten kann. Die Gesamtzahl der bei NCMEC eingereichten Medien entspricht dem Gesamtinhalt, gegen den wir Maßnahmen ergriffen haben. Wir haben übrigens zurückgezogene Einreichungen beim NCMEC von dieser Zahl ausgeschlossen.

Selbstverletzung und Selbstmord Inhalte

Die psychische Gesundheit und das Wohlbefinden von Snapchattern liegen uns sehr am Herzen, was uns bei unseren Entscheidungen, Snapchat anders zu gestalten, immer wieder beeinflusst. Als Plattform, die für die Kommunikation zwischen und unter echten Freunden entwickelt wurde, glauben wir an die einzigartige Rolle von Snapchat, wenn es um die Stärkung von Freunden geht, um sich in schwierigen Zeiten gegenseitig zu helfen.

Wenn unser Trust & Safety-Team von einem Snapchatter in Not erfährt, kann es Ressourcen zur Prävention von Selbstverletzung und zur Unterstützung weiterleiten und gegebenenfalls Notfallhelfer benachrichtigen. Die von uns zur Verfügung gestellten Ressourcen sind auf unserer globalen Liste der Ressourcen zur Sicherheit verfügbar und für alle Snapchatter öffentlich zugänglich.

Einsprüche

In unserem letzten Bericht haben wir Metriken zu Einsprüchen eingeführt. Dabei haben wir hervorgehoben, wie oft uns Nutzer gebeten haben, unsere ursprüngliche Moderationsentscheidung gegen ihren Account erneut zu überprüfen. In diesem Bericht haben wir unsere Einsprüche erweitert, um die gesamte Palette unserer Richtlinienkategorien für Verstöße auf Kontoebene zu erfassen.

* Die Unterbindung der Verbreitung von Inhalten oder Aktivitäten im Zusammenhang mit der sexuellen Ausbeutung von Kindern hat oberste Priorität. Snap setzt für dieses Ziel erhebliche Ressourcen ein und hat keine Toleranz für ein solches Verhalten.  Für die Prüfung von Einsprüchen im Bereich CSE (Child Sexual Explotation: Sexuelle Ausbeutung von Kindern) ist eine spezielle Schulung erforderlich. Da in diesem Bereich explizite Abbildungen untersucht werden, ist das Ermittlungsteam auf eine begrenzte Anzahl von Mitarbeitern beschränkt.  Im Herbst 2023 hat Snap Änderungen an seinen Richtlinien vorgenommen, die sich auf die Konsistenz konkreter Maßnahmen zur Durchsetzung der CSE-Vorschriften auswirkten. Wir sind bestehenden Unstimmigkeiten durch Schulungen der Mitarbeiter und durch Qualitätssicherung entgegengetreten.  Wir gehen davon aus, dass der nächste Transparenzbericht von Snap Fortschritte bei den Reaktionszeiten für Einsprüche im Bereich CSE und bei der Optimierung der unmittelbaren Durchsetzungsmaßnahmen auf solche Hinweise aufzeigen wird.

Regionale und Länderübersicht

Dieser Abschnitt gibt einen Überblick über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien – sowohl proaktiv als auch als Reaktion auf In-App-Meldungen von Verstößen - stichprobenartig und nach Regionen. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – rund um den Globus, unabhängig von ihrer Region.

Informationen zu einzelnen Ländern, einschließlich aller EU-Mitgliedsstaaten, können über die angehängte CSV-Datei heruntergeladen werden.

Übersicht über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien 

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im zweiten Halbjahr 2023 haben wir 59 % aller gemeldeten Verstöße gegen die sexuelle Ausbeutung und den Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen. Dies entspricht einem Rückgang von 39 % gegenüber dem vorangegangenen Zeitraum. Grund dafür sind die verbesserten Berichtsoptionen für Snapchatter, die unsere Transparenz über potenzielle CSEA-Sendungen auf Snapchat erhöhen. 

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im zweiten Halbjahr 2023 haben wir 59 % aller gemeldeten Verstöße gegen die sexuelle Ausbeutung und den Missbrauch von Kindern proaktiv aufgedeckt und entsprechende Maßnahmen ergriffen. Dies entspricht einem Rückgang von 39 % gegenüber dem vorangegangenen Zeitraum. Grund dafür sind die verbesserten Berichtsoptionen für Snapchatter, die unsere Transparenz über potenzielle CSEA-Sendungen auf Snapchat erhöhen. 

Anzeigenmoderation

Snap hat sich verpflichtet, sicherzustellen, dass alle Anzeigen vollständig mit unseren Werberichtlinien übereinstimmen. Wir glauben an einen verantwortungsvollen und respektvollen Ansatz bei der Werbung, der eine sichere und angenehme Erfahrung für alle unsere Nutzer schafft. Nachfolgend findest du einen Einblick in unsere Moderation für kostenpflichtige Werbung auf Snapchat. Beachte, dass Anzeigen auf Snapchat aus einer Vielzahl von Gründen entfernt werden können, wie in den Werberichtlinien von Snap dargelegt, einschließlich betrügerischer Inhalte, nicht jugendfreier Inhalte, gewalttätiger oder störender Inhalte, Hassreden und Verletzungen des geistigen Eigentums. Darüber hinaus findest du jetzt die Anzeigengalerie von Snapchat in der Navigationsleiste dieses Transparenzberichts.