Willkommen auf unserer Transparenzseite für die Europäische Union (EU). Hier veröffentlichen wir EU-spezifische Informationen, die erforderlich sind gemäß den Vorschriften aus dem Gesetz über digitale Dienste (Digital Services Act, DSA), der Richtlinie über audiovisuelle Mediendienste (Audiovisual Media Services Directive, AVMSD), dem niederländischen Mediengesetz (DMA) und der Verordnung über Online-Terrorismus (Terrorist Content Online Regulation – TCO). Bitte beachte, dass die aktuellste Version dieser Transparenzberichte in der Sprachversion en-US zu finden ist.
Snap Group Limited hat Snap B.V. zu seinem gesetzlichen Vertreter für die Zwecke des DSA ernannt. Kontaktieren kannst du den Vertreter unter dsa-enquiries [at] snapchat.com für das DSA, unter vsp-enquiries [at] snapchat.com für AVMSD und DMA, über tco-enquiries [at] snapchat.com für die TCO, über unsere Support-Website [hier] oder unter:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Niederlande
Wenn du eine Strafverfolgungsbehörde vertrittst, befolge bitte die hier beschriebenen Schritte.
Bitte kommuniziere auf Englisch oder Niederländisch, wenn du uns kontaktierst.
In Bezug auf den DSA werden wir von der Europäischen Kommission und der niederländischen Behörde für Verbraucher und Märkte (ACM) reguliert. Für AVMSD und das DMA werden wir von der niederländischen Medienbehörde CvdM reguliert. Bezüglich der TCO unterliegen wir der Kontrolle der niederländischen Behörde zum Kampf gegen Online-Inhalte im Bereich Terrorismus und Kindesmissbrauch (ATKM).
Veröffentlicht: 29. August 2025
Zuletzt aktualisiert: 29. August 2025
Berichtszeitraum: 1. Januar 2025 – 30 Juni 2025
Wir veröffentlichen diesen Bericht in Übereinstimmung mit den Transparenzanforderungen der Artikel 15, 24 und 42 des Gesetzes über digitale Dienstleistungen der EU (EU-Verordnung 2022/2065). Sofern nicht anders angegeben, beziehen sich die Informationen dieses Berichts auf den Zeitraum vom 1. Januar 2025 bis zum 30. Juni 2025 (1. Halbjahr 2025).
Mit Stand vom 30. Juni 2025 haben wir in der EU pro Monat durchschnittlich 94,7 Millionen aktive Dienstleistungsempfänger in unserer Snapchat App. Das bedeutet, dass im Durchschnitt der letzten 6 Monate bis zum 30. Juni 2025 94,7 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im Monat geöffnet haben.
Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:
Diese Zahlen wurden berechnet, um den aktuellen Vorschriften des Gesetzes über digitale Dienstleistungen zu entsprechen, und sollten nur für entsprechende Zwecke verwendet werden. Wir haben die Art und Weise, wie wir diese Zahl im Laufe der Zeit berechnen, geändert, auch als Reaktion auf geänderte interne Richtlinien, Richtlinien für die Regulierungsbehörden und Technologien. Die Zahlen sind nicht für einen Vergleich zwischen Zeiträumen vorgesehen. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.
Während dieses Berichtszeitraums (1. Halbjahr 2025) haben wir von den Behörden der EU-Mitgliedstaaten null (0) Anordnungen erhalten, gegen spezifisch identifizierte illegale Inhalte vorzugehen, einschließlich solcher, die in Übereinstimmung mit Artikel 9 des Gesetzes über digitale Dienstleistungen stehen.
Da diese Zahl bei null (0) liegt, können wir die illegalen Inhalte nicht nach ihrer Art oder dem Mitgliedstaat aufschlüsseln, der die Anordnung erlassen hat. Auch die durchschnittliche Zeit für die Empfangsbestätigung oder die Ausführung der Anordnung kann nicht angegeben werden.
Während dieses Berichtszeitraums (1. Halbjahr 2025) haben wir die folgenden Anzahl an Anfragen zur Offenlegung von Nutzerdaten vonseiten der Behörden der EU-Mitgliedstaaten erhalten, einschließlich derjenigen, die gemäß Artikel 10 des Gesetzes über digitale Dienstleistungen erlassen wurden:) haben wir die folgenden Anordnungen zur Offenlegung von Nutzerdaten vonseiten der Behörden der EU-Mitgliedstaaten erhalten, einschließlich derjenigen, die gemäß Artikel 10 des Gesetzes über digitale Dienstleistungen erlassen wurden:
Die durchschnittliche Zeit die zuständigen Behörden über den Eingang dieser Anordnungen zur Bereitstellung von Informationen zu informieren, betrug <1 Minute. Wir senden eine automatisierte Antwort zur Eingangsbestätigung.
Die durchschnittliche Zeit bis zur Umsetzung dieser Anordnungen zur Bereitstellung von Informationen betrug circa 14 Tage. Diese Kennzahl spiegelt den Zeitraum wider, ab dem Snap eine Anordnung erhalten hat, bis hin zu dem Zeitpunkt, zu dem Snap die Angelegenheit als vollständig gelöst betrachtet. In Einzelfällen kann dies davon abhängen, wie schnell die Behörde des betreffenden Mitgliedstaats auf Klärungsanfragen von Snap reagiert, die für die Bearbeitung erforderlich sind.
Bitte beachte, dass wir die oben genannten Anordnungen nicht nach der Art der betreffenden illegalen Inhalte aufschlüsseln, da uns diese Informationen nicht allgemein zur Verfügung stehen.
Alle Inhalte auf Snapchat müssen unseren Community-Richtlinien und Geschäftsbedingungen entsprechen. Bestimmte Inhalte müssen auch weiteren Richtlinien und Normen entsprechen. Beispielsweise müssen Inhalte, die für algorithmische Empfehlungen an ein breiteres Publikum auf unseren öffentlichen Sendeflächen gepostet werden, die angegebenen zusätzlichen, höheren Standards unserer Richtlinien für die Empfehlung von Inhalten gerecht werden, während Werbung unseren Werberichtlinien muss.
Wir setzen diese Normen mithilfe von Technologie und menschlichen Überprüfungen durch. Wir stellen Mechanismen zur Verfügung, mit denen Nutzer und Nicht-Nutzer Verstöße, einschließlich illegaler Inhalte und Aktivitäten, direkt in der App oder über unsere Website melden können. Wir verwenden außerdem proaktive Technologie zur Erkennung von Risiken. Proaktive Erkennungsmechanismen und Berichte veranlassen eine Überprüfung, bei der dann eine Kombination aus automatisierten Tools und menschlichen Moderatoren zum Einsatz kommen, um geeignete Maßnahmen im Einklang mit unseren Richtlinien zu ergreifen.
Weitere Informationen zu unserer Inhaltsmoderation im ersten Halbjahr 2025 stellen wir unten zur Verfügung.
In Übereinstimmung mit Artikel 16 des Gesetzes über digitale Dienstleistungen hat Snap Mechanismen eingeführt, mit denen sowohl Nutzer als auch Nicht-Nutzer Snap darauf aufmerksam machen können, dass auf der Plattform bestimmte Informationen verbreitet werden, die illegale Inhalte darstellen könnten. Nutzer können dabei bestimmte Inhalte oder Konten entweder direkt in der Snapchat-App oder auf unserer Website melden.
Bei Meldungen in der App oder auf der Website kann aus einer Reihe von Optionen für den Grund der Meldung gewählt werden, die in unseren Community-Richtlinien aufgelistet sind (z. B. Hassreden, Drogen). Unsere Community-Richtlinien, die auf unseren Werten basieren, umfassen im Allgemeinen Kategorien von Inhalten und Aktivitäten, die in der EU illegal sind. Daher umfassen unsere Meldeoptionen in einigen Fällen Kategorien vo in Inhalten, die in der EU illegal sind. Wenn ein Melder in der EU allerdings der Meinung ist, dass der von ihm gemeldete Inhalt oder das Konto illegal sind, die Gründe in unserem Meldemenü aber nicht explizit aufgeführt sind, kann er die Meldung mit dem Grund „andere illegale Inhalte“ anzeigen und erklären, warum er den Inhalt für illegal hält.
Im Berichtszeitraum (1. Halbjahr 2025) haben wir die folgenden Mitteilungen von Nutzern erhalten, von denen wir annehmen, dass sie in der EU sind:
Nachfolgend wird aufgeschlüsselt, wie diese Meldungen verarbeitet wurden, d.h. ob sie von Menschen oder ausschließlich automatisiert überprüft wurden:
Wenn wir bei der Prüfung feststellen, dass die gemeldeten Inhalte oder der Account gegen unsere Community-Richtlinien oder anderweitig als rechtswidrig eingestuft werden, können wir (i) die betreffenden Inhalte entfernen, (ii) den enstsprechenden Account-Inhaber verwarnen und ein Verwarnung für den entsprechenden Account vermerken und/oder (iii) den betreffenden Account sperrechen, wie weiter in unserer Snapchat-Moderation, Durchsetzung und Einspruchserklärung erläutert.
Im ersten Halbjahr 2025 ergriffen wir die folgenden Durchsetzungsmaßnahmen nach Eingang von Mitteilungen von Nutzern, von denen wir annehmen, dass sie sich in der EU befinden.
Hinweis: Die in der obigen Tabelle nach Verstoßart aufgeschlüsselte "Gesamtzahl eingereichter Hinweise" beinhaltet nicht alle Meldungen, die über unsere Support-Seite eingereicht wurden. Laut der Support-Seite, die wir den EU-Meldenden zuordnen, machten etwa 0,4% des gesamten EU-Meldevolumens aus. Wir beabsichtigen, diese Meldungen über die Support-Seite künftig in unsere Berechnungen einzubeziehen.
Im ersten Halbjahr 2025 wurden alle Meldungen über „sonstige illegale Inhalte“, gegen die wir vorgegangen sind, schließlich im Rahmen unserer Community-Richtlinien durchgesetzt, da diese Richtlinien die betreffenden Inhalte oder Aktivitäten verbieten. Wir haben diese Vollstreckungen daher in die entsprechende Kategorie der Verstöße gegen die Community-Richtlinien eingeordnet, siehe dazu die Tabelle oben.
Zusätzlich zu den oben aufgeführten Vollstreckungsmaßnahmen können wir auch Maßnahmen zu Inhalten ergreifen, die uns in Übereinstimmung mit anderen einschlägigen Snapchat-Vorschriften und Richtlinien gemeldet werden:
Bezüglich Inhalten auf unseren öffentlichen Broadcast-Flächen: Wenn wir feststellen, dass die gemeldeten Inhalte nicht unseren Richtlinien für die Empfehlung von Inhalten ensprechen, können wir die Inhalte aufgrund einer algorithmischen Empfehlung ablehnen oder die Verbreitung der Inhalte einschränken, um bestimmte Zielgruppen auszuschließen (wenn der Inhalt unsere Kriterien für eine Empfehlung erfüllt, aber ansonsten sensibel oder suggestiv ist).
Im ersten Halbjahr 2025 haben wir die folgenden Maßnahmen zu auf Snapchats öffentlichen Broadcast-Flächen verbreiteten Inhalten ergriffen, die uns in der EU gemeldet wurden, in Übereinstimmung mit unsere Richtlinien für die Empfehlung von Inahlten:
Wenn eine gemeldete Werbung gegen unsere Richtlinien verstößt, können wir sie nach einer Prüfung entfernen.
Im ersten Halbjahr 2025 haben wir die folgenden Maßnahmen in Bezug auf uns gemeldete Werbung von Nutzern ergriffen, von denen wir annehmen, dass sie sich in der EU befinden:
Neben der Überprüfung der gemäß Artikel 16 der DSA eingereichten Mitteilungen nimmt Snap auch auf eigene Initiative die Inhaltsmoderation wahr. Nachstehend findest Informationen über die Inhaltsmoderation, die Snap eigenverantwortlich durchgeführt hat, einschließlich der Verwendung automatisierter Tools, der Maßnahmen zur Schulung und Unterstützung der für die Inhaltsmoderation zuständigen Personen und der Anzahl und der Arten der Einschränkungen, die aufgrund dieser proaktiven Bemühungen zur Inhaltsmoderation auferlegt wurden.
Einsatz automatisierter Tools bei der Moderation auf Eigeninitiative von Snap
Wir setzen automatisierte Tools ein, um Verstöße gegen unsere Bedingungen und Richtlinien proaktiv zu erkennen und in einigen Fällen zu ahnden. Zu diesen Tools gehören die Hash-Matching-Tools (einschließlich PhotoDNA und Google CSAI Match), die Google Content Safety API, Modelle zur Erkennung missbräuchlicher Sprache (die Inhalte auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste missbräuchlicher Schlüsselwörter und Emojis erkennen und ablehnen), andere maßgeschneiderte Technologien zur Erkennung missbräuchlicher Texte und Emojis sowie Technologien, die künstliche Intelligenz nutzen, darunter maschinelles Lernen und große Sprachmodelle. Unsere automatisierten Tools erkennen Verstöße gegen unsere Community-Richtlinien und, ggf. unsere Richtlinien für die Empfehlung von Inhalten und Werberichtlinien.
Im ersten Halbjahr 2025 wurde all unsere proaktive Erkennung mithilfe automatisierter Tools durchgeführt. (In einigen Fällen hat unser Trust & Safety-Team Inhalte manuell entdeckt, die entweder illegal waren und/oder gegen die Richtlinien von Snap verstoßen, diese dann untersucht und im Einklang mit den Richtlinien von Snap und/oder den relevanten Gesetzen behandelt.) Wenn unsere automatisierten Tools einen möglichen Verstoß gegen unsere Richtlinien erkennen, ergreifen sie entweder automatisch eine Maßnahme gemäß unserer Richtlinien oder sie erstellen eine Aufgabe für die menschliche Überprüfung. Die Anzahl und die Arten der aufgrund dieses Prozesses auferlegten Einschränkungen sind unten beschrieben.
Anzahl und Art der Einschränkungen, die auf die Eigeninitiative von Snap hin auferlegt wurden
Im ersten Halbjahr 2025 ergriff Snap die folgenden Durchsetzungsmaßnahmen, nachdem Verstöße gegen unsere Community-Richtlinien proaktiv entdeckt wurden:
Darüber hinaus haben wir im ersten Halbjahr 2025 in Bezug auf Inhalte auf unseren öffentlichen Broadcast-Flächen die folgenden Maßnahmen ergriffen, nachdem wir durch den Einsatz automatisierter Tools Verstöße gegen unsere Richtlinien für die Empfehlung von Inhalten proaktiv entdeckt hatten:
* Wie in unseren Inhaltsrichtlinien für Empfehlungen angegeben, können Konten, die wiederholt oder in ungeheuerem Maße gegen unsere Inhaltsrichtlinien für Empfehlungen verstoßen, vorübergehend oder dauerhaft von Empfehlungen auf unseren öffentlichen Veröffentlichungsflächen ausgeschlossen werden. Wir wenden diese Maßnahme im Kontext unserer proaktiven Moderation an.
Darüber hinaus haben wir im ersten Halbjahr 2025 die folgende Maßnahmen ergriffen, nachdem wir mit Hilfe automatisierter Tools Verstöße gegen unsere gegen unsere Werberichtlinien proaktiv erkannt hatten:
Maßnahmen zur Schulung und Unterstützung von Personen, die für die Inhaltsmoderation verantwortlich sind
Die Richtlinien für die Inhaltsmoderation und deren Anwendung durch unser Inhaltsmoderationsteam dienen dem Schutz unserer Snapchat-Community. Über den Verlauf einer Woche werden neue Teammitglieder zu den Snap-Richtlinien, Tools und Eskalationsverfahren geschult. Unsere Moderationsteams absolvieren relevante Schulungen zur Auffrischung, insbsondere, was grenzwertige und kontextabhängige Fälle betrifft. Wir führen auch Fortbildungsprogramme, Zertifizierungssitzungen und Quizze durch, um sicherzustellen, dass alle Moderatoren auf dem neuste Stand sind und in Übereinstimmung mit allen aktualisierten Richtlinien arbeiten. Und wenn dringende Inhaltstrends aufgrund aktueller Ereignisse auftauchen, verbreiten wir schnell Klarstellungen zu den Richtlinien, damit die Teams entsprechend den Richtlinien von Snap reagieren können.
Wir stellen unseren Inhaltsmoderationsteams umfangreiche Unterstützung und Ressourcen bereit. Dazu zählen auch Wellness-Unterstützung am Arbeitsplatz sowie der Zugang zu psychologischen Diensten
Nutzer, deren Konten von unseren Sicherheitsteams wegen Verstößen gegen die Community-Richtlinien gesperrt wurden (einschließlich illegaler Inhalte und Aktivitäten) können einen Einspruch wegen ihres gesperrten Kontos einreichen. Nutzer können auch Beschwerde gegen bestimmte Entscheidungen zur Inhaltsmoderation einreichen.
Während des Berichtszeitraum (1. Halbjahr 2025) hat Snap die folgenden Beschwerden (einschließlich Beschwerden gegen Kontosperrungen und Entscheidungen zur Moderation von Inhalten) bearbeitet, die über seine interne Beschwerdebearbeitungssysteme von Nutzern eingereicht wurden, von denen wir annehmen, dass sie in der EU ansässig sind:
Qualitative Beschreibung und Ziele
Wie oben in Abschnitt 3(b) erläutert, setzen wir automatisierte Tools ein, um Verstöße gegen unsere Bedingungen und Richtlinien proaktiv zu erkennen und in einigen Fällen zu ahnden. Zu diesen Tools gehören die Hash-Matching-Tools (einschließlich PhotoDNA und Google CSAI Match), die Google Content Safety API, Modelle zur Erkennung missbräuchlicher Sprache (die Inhalte auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste missbräuchlicher Schlüsselwörter und Emojis erkennen und ablehnen), andere maßgeschneiderte Technologien zur Erkennung missbräuchlicher Texte und Emojis sowie Technologien, die künstliche Intelligenz nutzen, darunter maschinelles Lernen und große Sprachmodelle. Unsere automatisierten Tools erkennen Verstöße gegen unsere Community-Richtlinien (die unter anderem illegale Inhalte verbieten) und ggf. unsere Richtlinien für die Empfehlung von Inhalten und Werberichtlinien.
Wenn unsere automatisierten Tools einen möglichen Verstoß gegen unsere Richtlinien erkennen, ergreifen sie entweder automatisch eine Maßnahme gemäß unserer Richtlinien oder sie erstellen eine Aufgabe für die menschliche Überprüfung.
Indikatoren für die Genauigkeit und mögliche Fehlerrate nach Mitgliedstaat
Wir überwachen Indikatoren für die Genauigkeit und die mögliche Fehlerquote unserer automatisierten Moderationswerkzeuge, indem wir Stichproben von Aufgaben auswählen, die von unseren automatisierten Werkzeugen bearbeitet wurden, und diese zur erneuten Überprüfung durch unsere menschlichen Moderationsteams vorlegen. Die Genauigkeitsrate ist der Prozentsatz der Aufgaben aus diesen Zufallsstichproben, bei denen nach einer erneuten Überprüfung durch menschliche Moderatoren bestätigt wurde, dass die Moderationsentscheidungen korrekt waren. Die Fehlerrate ist die Differenz zwischen 100 % und der wie oben beschrieben ermittelten Genauigkeitsrate.
Wir überwachen die Genauigkeit und die mögliche Fehlerquote für zwei breite Kategorien automatisierter Moderationswerkzeuge, nämlich:
Automatisierte Tools, die Verstöße gegen Community-Richtlinien erkennen und/oder dagegen vorgehen und zu Maßnahmen gegen den Account eines Nutzers führen können (z.b Verwarnungen für das Konto oder Sperrung des Kontos). Basierend auf Stichproben betrug die Genauigkeitsrate dieser automatisierten Tools im ersten Halbjahr 2025 etwa 96 % und die Fehlerquote bei etwa 4 %.
Automatisierte Tools, die Inhalte auf unseren öffentlichen Übertragungsflächen auf der Grundlage unserer Richtlinien für die Empfehlung von Inhalten erkennen und/oder Maßnahmen diesbezüglich ergreifen. Basierend auf Stichproben betrug die Genauigkeitsrate dieser automatisierten Tools im ersten Halbjahr 2025 etwa 88 % und die Fehlerquote bei etwa 12 %.
Basierend auf Stichproben lag die kombinierte Genauigkeitsrate der automatisierten Tools, die in den beiden oben genannten Kategorien eingesetzt wurden, im ersten Halbjahr 2025 etwa 90 %, während die Fehlerquote bei etwa 10 % lag .
Grundsätzlich verfolgen wir die Sprache der Inhalte nicht, die wir auf Snapchat moderieren. Daher können wir keine Aufschlüsselung der Genauigkeit und der Fehlerraten unserer automatisierten Moderationstools für jede offizielle Sprache der Mitgliedstaaten anbieten. Als Ersatz für diese Informationen finden Sie nachfolgend eine Aufschlüsselung unserer kombinierten Genauigkeits- und Fehlerquoten für automatisch moderierte Inhalte (sowohl gemäß unseren Community-Richtlinien als auch gemäß unseren Richtlinien für die Empfehlung von Inhalten.
Sicherheitsmaßnahmen
Wir sind uns der möglichen Auswirkungen automatisierter Moderationstools auf die Grundrechte bewusst und streben danach, diese durch Sicherheitsmaßnahmen so gering wie möglich zu halten.
Unsere automatisierten Tools für die Inhaltsmoderation werden vor ihrem Einsatz getestet. Die Modelle werden offline getestet und über A/B-Tests implementiert, um sicherzustellen, dass sie ordnungsgemäß funktionieren, bevor sie vollständig in die Produktivumgebung aufgenommen werden. Wir führen vor dem Start Qualitätsprüfungen (QA), Start‑Reviews sowie fortlaufende Präzisions‑QA‑Kontrollen während der Rollouts durch.
Nach der Einführung unserer automatisierten Tools bewerten wir kontinuierlich deren Leistung und Genauigkeit und nehmen bei Bedarf Anpassungen vor. Dieser Prozess beinhaltet die erneute Überprüfung von Stichproben automatisierter Aufgaben durch unsere menschlichen Moderatoren. So sollen Modelle identifiziert werden, deren Genauigkeit durch Anpassungen verbessert werden kann. Wir überwachen auch die Verbreitung bestimmter Risiken auf Snapchat, indem wir täglich Stichproben aus bestimmten öffentlichen Inhalten untersuchen. Anhand dieser Informationen identifizieren wir Bereiche, die noch verbessert werden können.
Unsere Richtlinien und Systeme (einschließlich unserer automatisierten Tools) fördern konsequente und faire Vollstreckungsmaßnahmen und bieten Snapchattern die Möglichkeit, Maßnahmendurchsetzungen auf sinnvolle Weise durch Benachrichtigungs- und Beschwerdeverfahren anzufechten, die darauf abzielen, die Interessen unserer Community zu schützen, während sie die Rechte einzelner Snapchatter wahren.
Wir streben danach, unsere automatisierten Tools für die Inhaltsmoderation kontinuierlich zu verbessern und ihre Genauigkeit zu steigern, um die konsequente und faire Durchsetzung unserer Richtlinien zu unterstützen.
Für den Berichtszeitraum (1. Halbjahr 2025) stellen wir die folgenden Informationen zu Streitfällen, die gegen Snap eingereicht wurden, auf die in Artikel 21 des DSA Bezug genommen wird:
Die obige Tabelle zeigt den Status zum 30. Juni 2025 der im Berichtszeitraum (erstes Halbjahr 2025) bei zertifizierten außergrichtlichen Streibeilegungsstellen gemäß Artikel 21 der DSA eingereichten Streitfälle. Für alle Messwerte haben wir Fälle berücksichtigt, die Snap erreicht haben, auch wenn Informationen vollständig oder teilweise fehlten, die Snap dann angefordert hat und erst zu einem späteren Zeitpunkt erhalten wurden. Bezüglich Streitfällen, zu denen eine Entscheidung gefallen ist, haben wir nur diejenigen Entscheidungen berücksichtigt, die im Berichtszeitraum eingegangen sind. Ebenso sind von den 3 zugunsten des Klägers ergangenen Entscheidungen derzeit 2 noch in Berufung. In einem Fall wurde erfolgreich Berufung eingelegt; da die geänderte Entscheidung zugunsten von Snap jedoch außerhalb des relevanten Berichtszeitraum ergangen ist, wird dieser Fall weiterhin als zugunsten des Beschwerdeführers entschieden ausgewiesen.
Die durchschnittlicche Dauer für die Durchführung von Streitbeilegungsverfahren wurde ab dem Zeitpunkt berechnet, an dem Snap eine Beschwerde erhält, bis zum Eingang der Entscheidung der außergerichtlichen Streitbeilegungsstelle.
Bitte beachte, dass wir in der obigen Tabelle keine Beschwerden berücksichtigt haben, die bei einer zertifizierten Artikel-21-Stelle eingereicht wurden, die diese aber vor der Weiterleitung an Snap als unzulässig eingestuft hat. Wir können die Anzahl der Streitfälle in dieser Kategorie nicht bestätigen, da einige, aber nicht alle, zertifizierten Stellen Snap über solche Streitfälle informieren Wir sind jedoch über 28 Beschwerden in dieser Kategorie in der ersten Hälfte 2025 informiert.
Sperrungen gemäß Artikel 23.1: Sperrung von Konten, die regelmäßig offensichtlich rechtswidrige Inhalte verbreiten
Wie in unseren Snapchat-Erläuterungen zu Moderation, Vollstreckungsmaßnahmen und Einsprüchen erläutert, werden Accounts sofort deaktiviert, sofern sie in erster Linie dazu verwendet werden, gegen unsere Community-Richtlinien zu verstoßen (einschließlich der Bereitstellung offensichtlich illegaler Inhalte) oder schwere Risiken hervorrufen. Bei allen anderen Verstößen gegen unsere Community-Richtlinien wendet Snap im Allgemeinen ein dreiteiliges Durchsetzungsverfahren an:
Schritt 1: Die regelwidrigen Inhalte werden entfernt.
Schritt zwei: Der Nutzer erhält eine Benachrichtigung, dass er gegen unsere Community‑Richtlinien verstoßen hat, dass seine Inhalte entfernt wurden und dass wiederholte Verstöße zu weiteren Durchsetzungsmaßnahmen führen, einschließlich der Deaktivierung seines Accounts.
Schritt 3: Unser Team vermerkt eine Verwarnung gegen den Account des Nutzers.
Informationen über die Anzahl der Verwarnungen und Sperren, die im ersten Halbjahr 2025 für Konten in der EU vermerkt oder verhängt wurden, findest du oben in den Abschnitten 3(a) und 3(b).
Sperrungen gemäß Artikel 23.2: Aussetzung der Bearbeitung von Meldungen und Beschwerden von Einzelpersonen, Organisationen und weiteren, die häufig Meldungen oder Beschwerden einreichen, die offensichtlich unbegründet sind
Unter Anwendung unserer internen Definition von „offensichtlich unbegründeten" Meldungen und Beschwerden, und unserer internen Schwellenwerte für die Häufigkeit derartiger Hinweise und Beschwerden ergibt sich für das 1. Halbjahr 2025 gemäß Artikel 23.2 des DSA folgende Anzahl von Aussetzung der Bearbeitung von Meldungen und Beschwerden:
Unsere Teams für die Moderation von Inhalten sind rund um die Uhr weltweit tätig und sorgen so für die Sicherheit unserer Community. Nachfolgend die Aufschlüsselung unserer personellen Moderationsressourcen nach primärer Sprachspezialisierung der Moderatoren (bitte beachten: Einige Moderatoren sind auf mehrere Sprachen spezialisiert, mehrsprachige Moderatoren werden jedoch nur einmal gezählt) - Stand 30. Juni 2025:
Die obige Tabelle enthält alle Personalressourcen für die Inhaltsmoderation, die ab 30. Juni 2025 die offiziellen Sprachen der EU-Mitgliedstaaten unterstützen. In Situationen, in denen wir zusätzliche sprachliche Unterstützung benötigen, greifen wir auf Übersetzungsdienste zurück.
Moderatoren werden auf der Grundlage einer Standardstellenbeschreibung eingestellt, die je nach Bedarf auch eine bestimmte Sprachanforderung voraussetzt. Die sprachlichen Anforderungen sehen vor, dass der Bewerber schriftliche und mündliche Sprachkenntnisse nachweisen kann. Für Einstiegspositionen wird mindestens ein Jahr Berufserfahrung empfohlen. Die Bewerber müssen die Anforderungen an Ausbildung und persönlichen Hintergrund erfüllen, um berücksichtigt zu werden. Die Bewerber müssen außerdem ein Verständnis für die aktuellen Ereignisse in dem Land oder der Region nachweisen, in dem/der sie die Moderation von Inhalten übernehmen.
Siehe oben für Informationen zu den Schulungen und der Unterstützung, die Snap den Inhaltsmoderatoren bietet, die gemäß Artikel 15(1)(c) des Gesetzes über digitale Dienstleistungen vorgeschrieben sind und deshalb in Abschnitt 3(b) im letzten Unterabschnitt mit der Überschrift „Maßnahmen zur Schulung und Unterstützung von Inhaltsmoderatoren“ enthalten sind.
Erstellt: 31. Januar 2025
Letzte Aktualisierung: 31. Januar 2025
Dieser Bericht deckt den Zeitraum ab dem 1. Januar 2024 bis zum 31. Dezember 2024 ab.
Hintergrund
Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.
Die von uns verwendeten Technologien umfassen (a) solides Hash-Matching mit PhotoDNA und Google's Bildabgleich zum sexuellen Missbrauch von Kindern (Child Sexual Abuse Imagery, CSAI) zur Identifikation bereits bekannter illegaler Bilder und Videos im Bereich der sexuellen Ausbeutung von Kindern (CSEA) sowie (b) die Google-API für Contentsicherheit, die neue, „noch nie zuvor gehashte“ CSEA-Bilder identifiziert. Wie gesetzlich vorgeschrieben, melden wir dem U.S. National Center for Missing and Exploited Children (NCMEC) Bilder, die mit CSEA in Zusammenhang stehen. Das NCMEC wiederum koordiniert sich gegebenenfalls mit den Strafverfolgungsbehörden in den USA und anderen Ländern.
Bericht
Die nachfolgende Grafik enthält Daten zur proaktiven Erkennungen solcher Inhalte und zu den darauf basierenden Maßnahmen, die 2024 gegen Nutzer in der EU wegen der Verbreitung von CSEA-Bilden ergriffen wurden. (Bitte beachte, dass einige Vollstreckungsmaßnahmen auf der Grundlage der 2024 durchgeführten, proaktiven Scans zum Zeitpunkt der Erstellung dieses Berichts noch Gegenstand von Einsprüchen sein können. Diese wären dementsprechend in den unten aufgeführten Daten zu Einsprüchen und in deren Folge wiedereingestellten Bildern nicht berücksichtigt.)
*Die Berichte zu dieser Katergorie enthalten Maßnahmen wegen Verstößen gegen die Community-Richtlinien von Snap gegen die sexuelle Ausbeutung von Kindern. Proaktiv erkannte Inhalte, gegen die wegen anderer Verstöße gegen Snaps Community-Richtlinien vorgegangen wird, fließen nicht in diesen Bericht ein.
**Eine bereits verhängte Maßnahme kann aufgehoben werden, wenn wir feststellen, dass sie hinsichtlich der zum Zeitpunkt ihrer Verhängung geltenden Richtlinien fehlerhaft war oder wenn wir feststellen, dass sie ursprünglich korrekt ergriffen wurde, sich unsere Richtlinien zum Zeitpunkt der Überprüfung jedoch geändert haben.
Sicherheitsvorkehrungen für die Moderation von Inhalten
Die für das Mediascanning hinsichtlich CSEA angewandten Sicherheitsstandards sind im obenstehenden DSA-Transparenzbericht für die EU dargelegt.
Veröffentlicht: 28. Februar 2025
Letzte Aktualisierung: 28. Februar 2025
Berichtszeitraum: 1. Januar 2024 – 31. Dezember 2024
Dieser Transparenzbericht wird gemäß Artikel 7(2) und 7(3) der Verordnung 2021/784 des Europäischen Parlaments und des Rates der EU über die Verbreitung terroristischer Inhalte im Internet (die Verordnung) veröffentlicht. Er deckt den Berichtszeitraum vom 1. Januar bis 31. Dezember 2024 ab.
Artikel 7(3)(a): Informationen über seitens des Hosting-Anbieters ergriffenen Maßnahmen in Bezug auf die Identifizierung und Entfernung oder Deaktivierung des Zugangs zu terroristischen Inhalten
Artikel 7(3)(b): Informationen über die seitens des Hosting-Anbieters ergriffenen Maßnahmen zur Verhinderung eines erneuten Auftauchens von zuvor entferntem Material oder solchem, zu dem aufgrund einer Einstufung als terroristischer Inhalt der Zugang gesperrt wurde, insbesondere wenn automatisierte Tools eingesetzt wurden
Snapchat hat eine sehr geringe Anzahl terroristischer Inhalte verzeichnet und erhielt 2024 keine Anordnung zum Entfernen gemäß Verordnung.
Terroristen, terroristischen Organisationen und gewalttätigen Extremisten ist die Nutzung von Snapchat untersagt. Inhalte, die Terrorismus oder sonstige gewalttätige, kriminelle Handlungen befürworten, fördern, verherrlichen oder sie vorantreiben, sind gemäß unseren Community-Richtlinien untersagt. Nutzer können Inhalte, die gegen unsere Community-Richtlinien verstoßen, über unser In-App-Meldemenü und unsere Supportseite melden. Wir verwenden auch proaktive Erkennungen zur Identifizierung rechtswidriger Inhalte auf öffentlichen Oberflächen wie Spotlight and Discover.
Unabhängig davon, wie wir auf unzulässige Inhalte aufmerksam werden, überprüfen unsere Sicherheitsteams mithilfe von Automatisierung und menschlicher Moderation umgehend identifizierte Inhalte und treffen Entscheidungen bzgl. zu treffender Maßnahmen. Zu den möglichen Maßnahmen gehören das Entfernen des Inhalts, die Verwarnung oder Deaktivierung des zuwiderhandelnden Accounts. In einigen Fällen kann der Account auch den Strafverfolgungsbehörden gemeldet werden. Zur Verhinderung des erneuten Auftauchens terroristischer und anderer gewalttätiger extremistischer Inhalte auf Snapchat ergreifen wir zusätzlich zur Zusammenarbeit mit den Strafverfolgungsbehörden Maßnahmen, um das mit dem Account verbundene Gerät zu sperren und den Nutzer so an der Erstellung eines weiteren Snapchat Accounts zu verhindern.
Weitere Informationen über unsere Maßnahmen zur Erkennung und Entfernung terroristischer Inhalte findest du in unserer Erklärung über hasserfüllte Inhalte, Terrorismus und gewalttätigen Extremismus und unserer Erklärung zu Moderation, Vollstreckung und Einsprüchen.
Artikel 7(3)(c): Die Anzahl der Elemente terroristischer Inhalte, die nach Entfernungsanordnungen oder spezifischen Maßnahmen entfernt wurden oder auf die der Zugriff gesperrt wurde und die Anzahl der Entfernungsanordnungen, die gemäß Artikel 3(7) und dem ersten Unterabsatz von Artikel 3(8) nicht entfernt wurden oder auf die der Zugriff gesperrt wurde, samt Gründe dafür.
Während des Berichtszeitraums erhielt Snap weder Entfernungsaufträge noch waren wir verpflichtet, bestimmte Maßnahmen gemäß Artikel 5 der Verordnung zu ergreifen. Dementsprechend waren wir im Rahmen der Verordnung nicht verpflichtet, Vollstreckungsmaßnahmen zu ergreifen.
In folgender Tabelle sind Vollstreckungsmaßnahmen beschrieben, die aufgrund von Benutzermeldungen und der proaktiven Erkennung von Inhalten und Accounts sowohl in der EU als auch weltweit durchgeführt wurden, weil sie gegen unsere Community-Richtlinien in Bezug auf terroristische Inhalte und gewalttätigen Extremismus verstoßen haben.
Artikel 7 (3)(d): Anzahl und Ergebnis der durch den Hosting-Anbieter bearbeiteten Beschwerden gemäß Artikel 10
Artikel 7(3)(g): Anzahl der Fälle, in denen der Hosting-Anbieter den Inhalt oder Zugang zu demselben nach einer Beschwerde des Inhaltsanbieters wieder bereitgestellt hat
Da wir, wie oben erwähnt, im Berichtszeitraum keine Vollstreckungsmaßnahmen ergriffen haben, wurden keine Beschwerden im Rahmen der Verordnung gemäß Artikel 10 bearbeitet und somit auch keine Wiedereinstellungen vorgenommen.
Die folgende Tabelle bietet Informationen zu Beschwerden und Wiedereinstellungen, sowohl in der EU als auch anderen Ländern, im Zusammenhang mit terroristischen und gewalttätigen extremistischen Inhalten, die gemäß unseren Community-Richtlinien durchgesetzt wurden.
Artikel 7(3)(e): die Anzahl und das Ergebnis der vom Anbieter von Hostingdiensten eingeleiteten verwaltungsrechtlichen oder gerichtlichen Überprüfungsverfahren
Artikel 7(3)(f): Anzahl der Fälle, in denen der Hosting-Anbieter den Inhalt oder den Zugriff darauf aufgrund eines verwaltungsrechtlichen oder gerichtlichen Überprüfungsverfahrens wiederherstellen musste
Da wir während des Berichtszeitraums keine Vollstreckungsmaßnahmen ergriffen haben, wie oben erwähnt, haben wir kein verwaltungsmäßiges oder gerichtliches Überprüfungsverfahren durchgeführt und waren nicht verpflichtet, die Inhalte aufgrund eines solchen Verfahrens wiederherzustellen.
Dieser Bericht wurde erstellt, um Snaps Verpflichtungen gemäß den Artikeln 34 und 35 der Verordnung (EU) 2022/2065 zu erfüllen. Er enthält die Ergebnisse unserer Bewertung der Systemrisiken, die sich aus Design, Funktion und Nutzung der Online-Plattformen von Snapchat ergeben, und er legt die zur Bewertung dieser Risiken verwendete Methodik sowie die mit Blick auf die Risiken ergriffenen Maßnahmen dar.
Bericht zur Bewertung und Begrenzung von Risiken gemäß DSA | Snapchat | August 2023 (PDF)
Diese Berichte wurden erstellt, um Snaps Verpflichtungen gemäß Artikel 37 der Verordnung (EU) 2022/2065 nachzukommen. Sie enthalten (i) die Ergebnisse der unabhängigen Überprüfung der Einhaltung der Verpflichtungen gemäß Kapitel III der Verordnung (EU) 2022/2065 durch Snap und (ii) die ergriffenen Maßnahmen zur Umsetzung der operativen Empfehlungen aus dieser unabhängigen Überprüfung.
Unabhängiger Prüfbericht gemäß DSA | Snapchat | August 2024 (PDF)
Bericht zur Umsetzung der DSA-Prüfung | Snapchat | September 2024 (PDF)
EU VSP-Verfahrenskodex
Snap ist ein Anbieter eines „Video-Sharing-Plattform-Dienstes“ („VSP“) gemäß Artikel 1 (1) (aa) AVMSD. Dieser Verhaltenskodex („Kodex“) wurde erstellt, um zu beschreiben, wie Snap seinen Verpflichtungen als VSP gemäß dem niederländischen Mediengesetz („DMA“) und der EU-Richtlinie 2010/13 (laut Änderung durch EU-Richtlinie 2018/1808, „Richtlinie über audiovisuelle Mediendienste“ oder „AVMSD“) nachkommt. Der Kodex ist in der gesamten Europäischen Union sowie im Europäischen Wirtschaftsraum anwendbar.
EU VSP-Verhaltenskodex | Snapchat | März 2025 (PDF)
Bulgarisch | Kroatisch | Tschechisch | Dänisch | Niederländisch | Estnisch | Finnisch | Französisch | Deutsch | Griechisch | Ungarisch | Irisch | Italienisch | Lettisch | Litauisch | Maltesisch | Polnisch | Portugiesisch | Rumänisch | Slowakisch | Slowenisch | Spanisch | Schwedisch