Snap Values
Europäische Union

Willkommen auf unserer Transparenzseite für die Europäische Union (EU). Hier veröffentlichen wir EU-spezifische Informationen, die erforderlich sind gemäß den Vorschriften aus dem Gesetz über digitale Dienste (Digital Services Act, DSA), der Richtlinie über audiovisuelle Mediendienste (Audiovisual Media Services Directive, AVMSD), dem niederländischen Mediengesetz (DMA) und der Verordnung über Online-Terrorismus (Terrorist Content Online Regulation – TCO). Bitte beachte, dass die aktuellste Version dieser Transparenzberichte in der Sprachversion en-US zu finden ist.

Gesetzlicher Vertreter 

Snap Group Limited hat Snap B.V. zu seinem gesetzlichen Vertreter für die Zwecke des DSA ernannt. Kontaktieren kannst du den Vertreter unter dsa-enquiries [at] snapchat.com für das DSA, unter vsp-enquiries [at] snapchat.com für AVMSD und DMA, über tco-enquiries [at] snapchat.com für die TCO, über unsere Support-Website [hier] oder unter:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Niederlande

Wenn du eine Strafverfolgungsbehörde vertrittst, befolge bitte die hier beschriebenen Schritte.

Bitte kommuniziere auf Englisch oder Niederländisch, wenn du uns kontaktierst.

Regulierungsbehörden

In Bezug auf den DSA werden wir von der Europäischen Kommission und der niederländischen Behörde für Verbraucher und Märkte (ACM) reguliert. Für AVMSD und das DMA werden wir von der niederländischen Medienbehörde CvdM reguliert. Bezüglich der TCO unterliegen wir der Kontrolle der niederländischen Behörde zum Kampf gegen Online-Inhalte im Bereich Terrorismus und Kindesmissbrauch (ATKM).

DSA-Transparenzbericht

Veröffentlicht: 28. Februar 2025

Zuletzt aktualisiert: 23. April 2025 (Version 2.0)

Berichtszeitraum: 1. Juli 2024 – 31. Dezember 2024

Wir veröffentlichen diesen Bericht in Übereinstimmung mit den Transparenzanforderungen der Artikel 15, 24 und 42 des Gesetzes über digitale Dienstleistungen der EU (EU-Verordnung 2022/2065). Sofern nicht anders angegeben, beziehen sich die Informationen dieses Berichts auf den Zeitraum vom 1. Juli 2024 bis zum 30. Juni 2024 (2. Halbjahr 2024). 

1. Durchschnittlich aktive Dienstleistungsempfänger pro Monat  
(DSA-Artikel 24.2 und 42.3)

Mit Stand vom 1. Januar 2025 haben wir in der EU pro Monat durchschnittlich 93,7 Millionen aktive Dienstleistungsempfänger in unserer Snapchat App. Das bedeutet, dass im Durchschnitt der letzten 6 Monate bis zum 31. Dezember 2024 93,7 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im Monat geöffnet haben.

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:

Diese Zahlen wurden berechnet, um den aktuellen Vorschriften des Gesetzes über digitale Dienstleistungen zu entsprechen, und sollten nur für entsprechende Zwecke verwendet werden. Wir haben die Art und Weise, wie wir diese Zahl im Laufe der Zeit berechnen, geändert, auch als Reaktion auf geänderte interne Richtlinien, Richtlinien für die Regulierungsbehörden und Technologien. Die Zahlen sind nicht für einen Vergleich zwischen Zeiträumen vorgesehen. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.

2. Ersuchen der Behörden von Mitgliedsstaaten
(DSA Artikel 15.1(a))

a) Anordnungen zum Vorgehen gegen illegale Inhalte


Während dieses Berichtszeitraums (2. Halbjahr 2024) haben wir vonseiten der Behörden der EU-Mitgliedstaaten null (0) Anordnungen erhalten, gegen spezifisch identifizierte illegale Inhalte vorzugehen, einschließlich solcher, die gemäß Artikel 9 des Gesetzes über digitale Dienstleistungen erlassen wurden. 

Da diese Zahl bei null (0) liegt, können wir die illegalen Inhalte nicht nach ihrer Art oder dem Mitgliedstaat aufschlüsseln, der die Anordnung erlassen hat. Auch die durchschnittliche Zeit für die Empfangsbestätigung oder die Ausführung der Anordnung kann nicht angegeben werden.

b) Anordnungen zur Bereitstellung von Informationen 

Während dieses Berichtszeitraums (2. Halbjahr 2024) haben wir die folgenden Anordnungen zur Offenlegung von Nutzerdaten vonseiten der Behörden der EU-Mitgliedstaaten erhalten, einschließlich derjenigen, die gemäß Artikel 10 des Gesetzes über digitale Dienstleistungen erlassen wurden:

Die durchschnittliche Zeit die zuständigen Behörden über den Eingang dieser Anordnungen zur Bereitstellung von Informationen zu informieren, betrug 0 Minuten. Wir senden eine automatisierte Antwort zur Eingangsbestätigung. 

Die durchschnittliche Zeit bis zur Umsetzung dieser Anordnungen zur Bereitstellung von Informationen betrug circa 12 Tage. Diese Kennzahl spiegelt den Zeitraum wider, ab dem Snap eine Anordnung erhalten hat, bis hin zu dem Zeitpunkt, zu dem Snap die Angelegenheit als vollständig gelöst betrachtet. In Einzelfällen kann dies davon abhängen, wie schnell die Behörde des betreffenden Mitgliedstaats auf Klärungsanfragen von Snap reagiert, die für die Bearbeitung erforderlich sind.


Bitte beachte, dass wir die oben genannten Anordnungen nicht nach der Art der betreffenden illegalen Inhalte aufschlüsseln, da uns diese Informationen nicht allgemein zur Verfügung stehen.

3. Inhaltsmoderation 


Alle Inhalte auf Snapchat müssen unseren Community-Richtlinien und Geschäftsbedingungen entsprechen. Bestimmte Inhalte müssen auch weiteren Richtlinien und Normen entsprechen. Beispielsweise müssen Inhalte, die für algorithmische Empfehlungen an eine breitere Zielgruppe auf unseren öffentlichen Sendeflächen gepostet werden, die angegebenen zusätzlichen, höheren Standards unserer Richtlinien für die Empfehlung von Inhalten gerecht werden, während Werbung unseren Werberichtlinien entsprechen muss.

Wir setzen diese Normen mithilfe von Technologie und menschlichen Überprüfungen durch. Wir stellen Mechanismen zur Verfügung, mit denen Nutzer und Nicht-Nutzer Verstöße, einschließlich illegaler Inhalte und Aktivitäten, direkt in der App oder über unsere Website melden können. Wir verwenden außerdem proaktive Technologie zur Erkennung von Risiken. Mechanismen zur proaktiven Erkennung und Meldungen führen zu einer Überprüfung, bei der dann eine Mischung aus automatisierten Tools und menschlichen Moderatoren eingesetzt wird, um angemessene Schritte in Übereinstimmung mit unseren Vorschriften einzuleiten. 

Weitere Informationen zu unserer Inhaltsmoderation im 2. Halbjahr 2024 stellen wir unten zur Verfügung.

a) Meldungen, die gemäß Artikel 16 des Gesetzes über digitale Dienstleistungen eingereicht wurden 
Artikel 15.1(b) des Gesetzes über digitale Dienstleistungen

In Übereinstimmung mit Artikel 16 des Gesetzes über digitale Dienstleistungen hat Snap Mechanismen eingeführt, mit denen sowohl Nutzer als auch Nicht-Nutzer Snap darauf aufmerksam machen können, dass auf der Plattform bestimmte Informationen verbreitet werden, die illegale Inhalte darstellen könnten. Nutzer können dabei bestimmte Inhalte oder Konten entweder direkt in der Snapchat-App oder auf unserer Website melden. 

Bei Meldungen in der App oder auf der Website kann aus einer Reihe von Optionen für den Grund der Meldung gewählt werden, die in unseren Community-Richtlinien aufgelistet sind (z. B. Hassreden, Drogen). Unsere Community-Richtlinien verbieten Inhalte und Aktivitäten, die in der EU illegal sind. Daher spiegeln unsere Meldegründe auch weitgehend bestimmte Kategorien illegaler Inhalte in der EU wider. Wenn ein Melder in der EU allerdings der Meinung ist, dass der von ihm gemeldete Inhalt oder das Konto illegal sind, die Gründe in unserem Meldemenü aber nicht explizit aufgeführt sind, kann er die Meldung mit dem Grund „andere illegale Inhalte“ anzeigen und erklären, warum er den Inhalt für illegal hält. 

Während des Berichtszeitraums (2. Halbjahr 2024) haben wir die folgenden Meldungen erhalten, die gemäß Artikel 16 des Gesetzes über digitale Dienstleistungen in der EU eingereicht wurden:

Nachfolgend wird aufgeschlüsselt, wie diese Meldungen verarbeitet wurden, d.h. ob sie von Menschen oder ausschließlich automatisiert überprüft wurden: 

Wenn wir bei der Überprüfung feststellen, dass ein gemeldeter Inhalt oder ein Konto gegen unsere Community-Richtlinien verstößt (einschließlich aus Gründen der Illegalität), können wir (i) den anstößigen Inhalt entfernen, (ii) den betreffenden Kontoinhaber verwarnen und das Konto vorübergehend sperren und / oder (iii) das betreffende Konto sperren, wie in unserer Erklärung zu Moderation, Vollstreckungen und Einsprüchen genauer erklärt.

Im ersten Halbjahr 2024 haben wir die folgenden Durchsetzungsmaßnahmen nach dem Erhalt von Meldungen ergriffen, die gemäß Artikel 16 der DSA in der EU eingereicht wurden:

Im zweiten Halbjahr 2024 wurden alle Meldungen über „sonstige illegale Inhalte“, gegen die wir vorgegangen sind, schließlich im Rahmen unserer Community-Richtlinien durchgesetzt, da diese Richtlinien die betreffenden Inhalte oder Aktivitäten verbieten. Wir haben diese Vollstreckungen daher in die entsprechende Kategorie der Verstöße gegen die Community-Richtlinien eingeordnet, siehe dazu die Tabelle oben.

Zusätzlich zu den oben aufgeführten Vollstreckungsmaßnahmen können wir auch Maßnahmen zu Inhalten ergreifen, die uns in Übereinstimmung mit anderen einschlägigen Snapchat-Vorschriften und Richtlinien gemeldet werden:
 

  • Bezüglich Inhalten auf unseren öffentlichen Broadcast-Flächen: Wenn wir feststellen, dass die gemeldeten Inhalte nicht unseren Richtlinien für die Empfehlung von Inhalten ensprechen, können wir die Inhalte aufgrund einer algorithmischen Empfehlung ablehnen oder die Verbreitung der Inhalte einschränken, um bestimmte Zielgruppen auszuschließen (wenn der Inhalt unsere Kriterien für eine Empfehlung erfüllt, aber ansonsten sensibel oder suggestiv ist).

Im zweiten Halbjahr 2024 haben wir im Einklang mit unseren Richtlinien für die Empfehlung von Inhalten die folgenden Maßnahmen in Bezug auf Inhalte auf den öffentlichen Broadcast-Flächen von Snapchat ergriffen, die uns in der EU gemeldet wurden:

  • Wenn eine gemeldete Werbung gegen unsere Richtlinien verstößt, können wir sie nach einer Prüfung entfernen.


Im zweiten Halbjahr 2024 haben wir die folgenden Maßnahmen in Bezug auf uns gemeldete Werbung in der EU ergriffen:


b) Die Moderation von Inhalten findet auf die eigene Initiative von Snap statt 
(Artikel 15.1(c))


Neben der Überprüfung der gemäß Artikel 16 der DSA eingereichten Mitteilungen nimmt Snap auch auf eigene Initiative die Inhaltsmoderation wahr. Nachstehend findest Informationen über die Inhaltsmoderation, die Snap eigenverantwortlich durchgeführt hat, einschließlich der Verwendung automatisierter Tools, der Maßnahmen zur Schulung und Unterstützung der für die Inhaltsmoderation zuständigen Personen und der Anzahl und der Arten der Einschränkungen, die aufgrund dieser proaktiven Bemühungen zur Inhaltsmoderation auferlegt wurden.

  • Einsatz automatisierter Tools bei der Moderation auf Eigeninitiative von Snap

Wir setzen automatisierte Tools ein, um Verstöße gegen unsere Bedingungen und Richtlinien proaktiv zu erkennen und in einigen Fällen zu ahnden. Diese Tools umfassen Hash‑Matching‑Werkzeuge (einschließlich PhotoDNA und Google CSAI Match), die Google Content Safety API, Modelle zur Erkennung missbräuchlicher Sprache (die Inhalte auf Grundlage einer identifizierten und regelmäßig aktualisierten Liste missbräuchlicher Schlüsselwörter und Emojis erkennen und ablehnen) sowie Technologien, die künstliche Intelligenz, maschinelles Lernen und große Sprachmodelle nutzen. Unsere automatisierten Tools erkennen Verstöße gegen unsere Community-Richtlinien (die unter anderem illegale Inhalte verbieten) und ggf. unsere Richtlinien für die Empfehlung von Inhalten und Werberichtlinien. 

Im zweiten Halbjahr 2024 wurden alle unsere proaktive Erkennung mithilfe automatisierter Tools durchgeführt. Wenn unsere automatisierten Tools einen möglichen Verstoß gegen unsere Richtlinien erkennen, ergreifen sie entweder automatisch eine Maßnahme gemäß unserer Richtlinien oder sie erstellen eine Aufgabe für die menschliche Überprüfung. Die Anzahl und die Arten der aufgrund dieses Prozesses auferlegten Einschränkungen sind unten beschrieben.

  • Anzahl und Art der Einschränkungen, die auf die Eigeninitiative von Snap hin auferlegt wurden

Im zweiten Halbjahr 2024 ergriff Snap folgende Durchsetzungsmaßnahmen, nachdem Verstöße gegen unsere Community-Richtlinien proaktiv erkannt wurden (eintschließlich Veröße, die nach EU-Recht und dem Recht der Mitgliedsstaaten rechtswidrige Inhalte und Aktivitäten darstellen):

Darüber hinaus haben wir im zweiten Halbjahr 2024 hinsichtlich unserer Inhalte auf öffentlich Broadcast-Flächen die folgenden Maßnahmen ergriffen, nachdem wir mithilfe unserer automatisierten Tools proaktiv Verstöße auf Snapchat gegen unsere Richtlinien für die Empfehlung von Inhalten festgestellt haben:

* Wie in unseren Inhaltsrichtlinien für Empfehlungen angegeben, können Konten, die wiederholt oder in ungeheuerem Maße gegen unsere Inhaltsrichtlinien für Empfehlungen verstoßen, vorübergehend oder dauerhaft von Empfehlungen auf unseren öffentlichen Veröffentlichungsflächen ausgeschlossen werden. Wir wenden diese Maßnahme im Kontext unserer proaktiven Moderation an.

Darüber hinaus haben wir im zweiten Halbjahr 2024 die folgenden Maßnahmen ergriffen, nachdem wir auf Snapchat durch den Einsatz automatisierter Tools proaktiv Verstöße gegen unsere Werberichtlinien entdeckt haben:

  • Maßnahmen zur Schulung und Unterstützung von Personen, die für die Inhaltsmoderation verantwortlich sind

Die Richtlinien für die Inhaltsmoderation und deren Anwendung durch unser Inhaltsmoderationsteam dienen dem Schutz unserer Snapchat-Community. Über den Verlauf einer Woche werden neue Teammitglieder zu den Snap-Richtlinien, Tools und Eskalationsverfahren geschult. Unsere Moderationsteams absolvieren regelmäßig relevante Schulungen zur Auffrischung, insbsondere, was grenzwertige und kontextabhängige Fälle betrifft. Wir führen auch Fortbildungsprogramme, Zertifizierungssitzungen und Quizze durch, um sicherzustellen, dass alle Moderatoren auf dem neuste Stand sind und in Übereinstimmung mit allen aktualisierten Richtlinien arbeiten. Und wenn dringende Inhaltstrends aufgrund aktueller Ereignisse auftauchen, verbreiten wir schnell Klarstellungen zu den Richtlinien, damit die Teams entsprechend den Richtlinien von Snap reagieren können.

Wir stellen unseren Inhaltsmoderationsteams umfangreiche Unterstützung und Ressourcen bereit. Dazu zählen auch Wellness-Unterstützung am Arbeitsplatz sowie einfacher Zugang zu psychologischen Diensten.

c) Beschwerden, die über Snaps interne Beschwerdesysteme (z.B. Einsprüche) eingehen 
(Artikel 15.1 (d))


Nutzer, deren Konten von unseren Sicherheitsteams wegen Verstößen gegen die Community-Richtlinien gesperrt wurden (einschließlich illegaler Inhalte und Aktivitäten) können einen Einspruch wegen ihres gesperrten Kontos einreichen. Nutzer können auch Beschwerde gegen bestimmte Entscheidungen zur Inhaltsmoderation einreichen.

Während des Berichtszeitraums (2. Halbjahr 2024) bearbeitete Snap die folgenden Beschwerden (einschließlich Beschwerden gegen sowohl Kontosperrungen als auch Entscheidungen zur Inhaltsmoderation), die über die internen Beschwerdesysteme in der EU eingereicht wurden:

d) Verwendung automatisierter Mittel für die Inhaltsmoderation 
(Artkel 15.1(e( und 42.2(c))

  • Qualitative Beschreibung und Ziele

Wie oben in Abschnitt 3(b) erläutert, setzen wir automatisierte Tools ein, um Verstöße gegen unsere Bedingungen und Richtlinien proaktiv zu erkennen und in einigen Fällen zu ahnden. Diese Tools umfassen Hash‑Matching‑Werkzeuge (einschließlich PhotoDNA und Google CSAI Match), die Google Content Safety API, Modelle zur Erkennung missbräuchlicher Sprache (die Inhalte auf Grundlage einer identifizierten und regelmäßig aktualisierten Liste missbräuchlicher Schlüsselwörter und Emojis erkennen und ablehnen) sowie Technologien, die künstliche Intelligenz, maschinelles Lernen und große Sprachmodelle nutzen. Unsere automatisierten Tools erkennen Verstöße gegen unsere Community-Richtlinien (die unter anderem illegale Inhalte verbieten) und ggf. unsere Richtlinien für die Empfehlung von Inhalten und Werberichtlinien.

Wenn unsere automatisierten Tools einen möglichen Verstoß gegen unsere Richtlinien erkennen, ergreifen sie entweder automatisch eine Maßnahme gemäß unserer Richtlinien oder sie erstellen eine Aufgabe für die menschliche Überprüfung.

  • Indikatoren für die Genauigkeit und mögliche Fehlerrate nach Mitgliedstaat

Wir überwachen Indikatoren für die Genauigkeit und die mögliche Fehlerquote unserer automatisierten Moderationswerkzeuge, indem wir Stichproben von Aufgaben auswählen, die von unseren automatisierten Werkzeugen bearbeitet wurden, und diese zur erneuten Überprüfung durch unsere menschlichen Moderationsteams vorlegen. Die Genauigkeitsrate ist der Prozentsatz der Aufgaben aus diesen Zufallsstichproben, bei denen nach einer erneuten Überprüfung durch menschliche Moderatoren bestätigt wurde, dass die Moderationsentscheidungen korrekt waren. Die Fehlerrate ist die Differenz zwischen 100 % und der wie oben beschrieben ermittelten Genauigkeitsrate. 

Wir überwachen die Genauigkeit und die mögliche Fehlerquote für zwei breite Kategorien automatisierter Moderationswerkzeuge, nämlich:

  • Automatisierte Tools, die Verstöße gegen Community-Richtlinien erkennen und/oder dagegen vorgehen und zu Maßnahmen gegen den Account eines Nutzers führen können (z.b Verwarnungen für das Konto oder Sperrung des Kontos). Basierend auf Stichproben betrug die Genauigkeitsrate dieser automatisierten Tools im zweiten Halbjahr 2024 etwa 95 % und die Fehlerquote bei etwa 5 %.

  • Automatisierte Tools, die Inhalte auf unseren öffentlichen Übertragungsflächen auf der Grundlage unserer Richtlinien für die Empfehlung von Inhalten erkennen und/oder Maßnahmen diesbezüglich ergreifen. Basierend auf Stichproben betrug die Genauigkeitsrate dieser automatisierten Tools im zweiten Halbjahr 2024 etwa 85 % und die Fehlerquote bei etwa 15 %.

Basierend auf Stichproben lag die kombinierte Genauigkeitsrate der automatisierten Tools, die in den beiden oben genannten Kategorien eingesetzt wurden, im zweiten Halbjahr 2024 etwa 89 %, während die Fehlerquote bei etwa 11 % lag .


Grundsätzlich verfolgen wir die Sprache der Inhalte nicht, die wir auf Snapchat moderieren. Daher können wir keine Aufschlüsselung der Genauigkeit und der Fehlerraten unserer automatisierten Moderationstools für jede offizielle Sprache der Mitgliedstaaten anbieten. Als Ersatz für diese Informationen finden Sie nachfolgend eine Aufschlüsselung unserer kombinierten Genauigkeits- und Fehlerquoten für automatisch moderierte Inhalte (sowohl gemäß unseren Community-Richtlinien als auch gemäß unseren Richtlinien für die Empfehlung von Inhalten) aus jedem Mitgliedstaat.

  • Sicherheitsmaßnahmen

Wir sind uns der möglichen Auswirkungen automatisierter Moderationstools auf die Grundrechte bewusst und streben danach, diese durch Sicherheitsmaßnahmen so gering wie möglich zu halten.

Unsere automatisierten Tools für die Inhaltsmoderation werden vor ihrem Einsatz getestet. Die Modelle werden offline getestet und über A/B-Tests implementiert, um sicherzustellen, dass sie ordnungsgemäß funktionieren, bevor sie vollständig in die Produktivumgebung aufgenommen werden. Wir führen vor dem Launch Kontrollen zur Qualitätssicherung (QS), Überprüfungen während der Markteinführung und fortlaufende QS-Kontrollen während schrittweiser Rollouts durch. 

Nach der Einführung unserer automatisierten Tools bewerten wir kontinuierlich deren Leistung und Genauigkeit und nehmen bei Bedarf Anpassungen vor. Dieser Prozess beinhaltet die erneute Überprüfung von Stichproben automatisierter Aufgaben durch unsere menschlichen Moderatoren. So sollen Modelle identifiziert werden, deren Genauigkeit durch Anpassungen verbessert werden kann. Wir überwachen auch die Verbreitung bestimmter Risiken auf Snapchat, indem wir täglich Stichproben aus bestimmten öffentlichen Inhalten untersuchen. Anhand dieser Informationen identifizieren wir Bereiche, die noch verbessert werden können. 

Unsere Richtlinien und Systeme (einschließlich unserer automatisierten Tools) fördern konsequente und faire Vollstreckungsmaßnahmen und bieten Snapchattern die Möglichkeit, Maßnahmendurchsetzungen auf sinnvolle Weise durch Benachrichtigungs- und Beschwerdeverfahren anzufechten, die darauf abzielen, die Interessen unserer Community zu schützen, während sie die Rechte einzelner Snapchatter wahren.

Wir streben danach, unsere automatisierten Tools für die Inhaltsmoderation kontinuierlich zu verbessern und ihre Genauigkeit zu steigern, um die konsequente und faire Durchsetzung unserer Richtlinien zu unterstützen.

e) Streitigkeiten, die bei den außergerichtlichen Streitbeilegungsstellen gemäß Artikel 21 eingereicht wurden
(Artikel 24.1(a))

Für den Berichtszeitraum (2. Halbjahr 2024) stellen wir die folgenden Informationen zu Streitigkeiten bereit, die gegen Snap bei den in Artikel 21 des DSA genannten außergerichtlichen Streitbeilegungsstellen eingereicht wurden: 

Die obige Tabelle zeigt den Stand zum 31. Dezember 2024 der im Berichtszeitraum (zweites Halbjahr 2024) bei zertifizierten außergerichtlichen Streitbeilegungsstellen gemäß Artikel 21 der DSA eingereichten Streitfälle. Zum 31. Dezember 2024 waren von 20 im zweiten Halbjahr 2024 bei solchen Stellen eingereichten Streitfällen 15 noch anhängig, und 5 wurden vor Erteilung einer Entscheidung beigelegt.

Hinweis: In der obigen Tabelle sind keine Beschwerden enthalten, die bei einer zertifizierten Art‑21‑Stelle eingereicht wurden, die diese jedoch vor der Weiterleitung an Snap als unzulässig eingestuft hat. Wir können die Anzahl der Streitfälle in dieser Kategorie nicht bestätigen, da einige, aber nicht alle, zertifizierten Stellen Snap über solche Streitfälle informieren Wir sind jedoch über 6 Beschwerden in dieser Kategorie in der zweiten Hälfte 2024 informiert.

f) Gemäß Artikel 23 verhängte Sperrungen
(Artikel 24.1(b))
  • Sperrungen gemäß Artikel 23.1: Sperrung von Konten, die regelmäßig offensichtlich rechtswidrige Inhalte verbreiten 

Wie in unseren Snapchat-Erläuterungen zu Moderation, Vollstreckungsmaßnahmen und Einsprüchen erläutert, werden Accounts sofort deaktiviert, sofern sie in erster Linie dazu verwendet werden, gegen unsere Community-Richtlinien zu verstoßen (einschließlich der Bereitstellung offensichtlich illegaler Inhalte) oder schwere Risiken hervorrufen. Bei allen anderen Verstößen gegen unsere Community-Richtlinien wendet Snap im Allgemeinen ein dreiteiliges Durchsetzungsverfahren an:

  • Schritt 1: Die regelwidrigen Inhalte werden entfernt.

  • Schritt zwei: Der Nutzer erhält eine Benachrichtigung, dass er gegen unsere Community‑Richtlinien verstoßen hat, dass seine Inhalte entfernt wurden und dass wiederholte Verstöße zu weiteren Durchsetzungsmaßnahmen führen, einschließlich der Deaktivierung seines Accounts.

  • Schritt 3: Unser Team vermerkt eine Verwarnung gegen den Account des Nutzers.

Informationen über die Anzahl der Verwarnungen und Sperren, die im zweiten Halbjahr 2024 für Konten in der EU verhängt wurden, finden sich oben in den Abschnitten 3(a) und 3(b).

  • Sperrungen gemäß Artikel 23.2: Aussetzung der Bearbeitung von Meldungen und Beschwerden von Einzelpersonen, Organisationen und weiteren, die häufig Meldungen oder Beschwerden einreichen, die offensichtlich unbegründet sind

Unter Anwendung unserer internen Definition von „offensichtlich unbegründeten" Meldungen und Beschwerden, und unserer internen Schwellenwerte für die Häufigkeit derartiger Hinweise und Beschwerden ergibt sich für das 2. Halbjahr 2024 gemäß Artikel 23.2 des DSA folgende Anzahl von Aussetzungen der Bearbeitung von Meldungen und Beschwerden:

4. Informationen über unsere Inhaltsmoderations-Teams 
a) Anzahl der Beschäftigten für die Moderation von Inhalten, einschließlich der Einhaltung der Artikel 16, 20 und 22 des Gesetzes über digitale Dienstleistungen, aufgeschlüsselt nach den Amtssprachen der Mitgliedstaaten
(Artikel 42.2(a))


Unsere Teams für die Moderation von Inhalten sind rund um die Uhr weltweit tätig und sorgen so für die Sicherheit unserer Community. Nachfolgend findest du eine Aufschlüsselung unserer Ressourcen für die menschliche Moderation, geordnet nach den Sprachkenntnissen der Moderatoren (einige Moderatoren sind auf mehrere Sprachen spezialisiert) mit Stand vom 31. Dezember 2024:

Die obige Tabelle enthält alle Personalressourcen für die Inhaltsmoderation, die ab 31. Dezember 2024 die offiziellen Sprachen der EU-Mitgliedstaaten unterstützen. In Situationen, in denen wir zusätzliche sprachliche Unterstützung benötigen, greifen wir auf Übersetzungsdienste zurück.

b) Qualifikationen und sprachliche Kenntnisse der Inhaltsmoderatoren; Schulung und Unterstützung bereitgestellt
(Artikel 42.2(b))

Moderatoren werden auf der Grundlage einer Standardstellenbeschreibung eingestellt, die je nach Bedarf auch eine bestimmte Sprachanforderung voraussetzt. Die sprachlichen Anforderungen sehen vor, dass der Bewerber schriftliche und mündliche Sprachkenntnisse nachweisen kann. Für Einstiegspositionen wird mindestens ein Jahr Berufserfahrung empfohlen. Die Bewerber müssen die Anforderungen an Ausbildung und persönlichen Hintergrund erfüllen, um berücksichtigt zu werden. Die Bewerber müssen außerdem ein Verständnis für die aktuellen Ereignisse in dem Land oder der Region nachweisen, in dem/der sie die Moderation von Inhalten übernehmen. 


Siehe oben für Informationen zu den Schulungen und der Unterstützung, die Snap den Inhaltsmoderatoren bietet, die gemäß Artikel 15(1)(c) des Gesetzes über digitale Dienstleistungen vorgeschrieben sind und deshalb in Abschnitt 3(b) im letzten Unterabschnitt mit der Überschrift "Maßnahmen zur Schulung und Unterstützung von Inhaltsmoderatoren” enthalten sind.

Bericht zum Medienscanning auf Inhalte im Zusammenhang mit der sexuellen Ausbeutung und den Missbrauch von Kindern (Child Sexual Exploitation and Abuse; CSEA)

Erstellt: 31. Januar 2025

Letzte Aktualisierung: 31. Januar 2025

Dieser Bericht deckt den Zeitraum ab dem 1. Januar 2024 bis zum 31. Dezember 2024 ab.

Hintergrund

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.


Die von uns verwendeten Technologien umfassen (a) solides Hash-Matching mit PhotoDNA und Google's Bildabgleich zum sexuellen Missbrauch von Kindern (Child Sexual Abuse Imagery, CSAI) zur Identifikation bereits bekannter illegaler Bilder und Videos im Bereich der sexuellen Ausbeutung von Kindern (CSEA) sowie (b) die Google-API für Contentsicherheit, die neue, „noch nie zuvor gehashte“ CSEA-Bilder identifiziert. Wie gesetzlich vorgeschrieben, melden wir dem U.S. National Center for Missing and Exploited Children (NCMEC) Bilder, die mit CSEA in Zusammenhang stehen. Das NCMEC wiederum koordiniert sich gegebenenfalls mit den Strafverfolgungsbehörden in den USA und anderen Ländern.


Bericht

Die nachfolgende Grafik enthält Daten zur proaktiven Erkennungen solcher Inhalte und zu den darauf basierenden Maßnahmen, die 2024 gegen Nutzer in der EU wegen der Verbreitung von CSEA-Bilden ergriffen wurden. (Bitte beachte, dass einige Vollstreckungsmaßnahmen auf der Grundlage der 2024 durchgeführten, proaktiven Scans zum Zeitpunkt der Erstellung dieses Berichts noch Gegenstand von Einsprüchen sein können. Diese wären dementsprechend in den unten aufgeführten Daten zu Einsprüchen und in deren Folge wiedereingestellten Bildern nicht berücksichtigt.)

*Die Berichte zu dieser Katergorie enthalten Maßnahmen wegen Verstößen gegen die Community-Richtlinien von Snap gegen die sexuelle Ausbeutung von Kindern.  Proaktiv erkannte Inhalte, gegen die wegen anderer Verstöße gegen Snaps Community-Richtlinien vorgegangen wird, fließen nicht in diesen Bericht ein.

**Eine bereits verhängte Maßnahme kann aufgehoben werden, wenn wir feststellen, dass sie hinsichtlich der zum Zeitpunkt ihrer Verhängung geltenden Richtlinien fehlerhaft war oder wenn wir feststellen, dass sie ursprünglich korrekt ergriffen wurde, sich unsere Richtlinien zum Zeitpunkt der Überprüfung jedoch geändert haben.

Sicherheitsvorkehrungen für die Moderation von Inhalten

Die für das Mediascanning hinsichtlich CSEA angewandten Sicherheitsstandards sind im obenstehenden DSA-Transparenzbericht für die EU dargelegt.

Transparenzbericht der Europäischen Union über terroristische Inhalte im Internet

Veröffentlicht: 28. Februar 2025

Letzte Aktualisierung: 28. Februar 2025

Berichtszeitraum: 1. Januar 2024 – 31. Dezember 2024

Dieser Transparenzbericht wird gemäß Artikel 7(2) und 7(3) der Verordnung 2021/784 des Europäischen Parlaments und des Rates der EU über die Verbreitung terroristischer Inhalte im Internet (die Verordnung) veröffentlicht. Er deckt den Berichtszeitraum vom 1. Januar bis 31. Dezember 2024 ab. 

Allgemeine Informationen
  • Artikel 7(3)(a): Informationen über seitens des Hosting-Anbieters ergriffenen Maßnahmen in Bezug auf die Identifizierung und Entfernung oder Deaktivierung des Zugangs zu terroristischen Inhalten

  • Artikel 7(3)(b): Informationen über die vom Hosting-Anbieter ergriffenen Maßnahmen zur Verhinderung des erneuten Auftauchens von zuvor entferntem Material oder solchem, zu dem aufgrund einer Einstufung als terroristischen Inhalt der Zugang gesperrt wurde, insbesondere wenn automatisierte Tools eingesetzt wurden


Snapchat hat eine sehr geringe Anzahl terroristischer Inhalte verzeichnet und erhielt 2024 keine Anordnung zum Entfernen gemäß Verordnung.

Terroristen, terroristischen Organisationen und gewalttätigen Extremisten ist die Nutzung von Snapchat untersagt. Inhalte, die Terrorismus oder sonstige gewalttätige, kriminelle Handlungen befürworten, fördern, verherrlichen oder sie vorantreiben, sind gemäß unseren Community-Richtlinien untersagt. Nutzer können Inhalte, die gegen unsere Community-Richtlinien verstoßen, über unser In-App-Meldemenü und unsere Supportseite melden. Wir verwenden auch proaktive Erkennungen zur Identifizierung rechtswidriger Inhalte auf öffentlichen Oberflächen wie ​​Spotlight and Discover. 


Unabhängig davon, wie wir auf unzulässige Inhalte aufmerksam werden, überprüfen unsere Sicherheitsteams mithilfe von Automatisierung und menschlicher Moderation umgehend identifizierte Inhalte und treffen Entscheidungen bzgl. zu treffender Maßnahmen. Zu den möglichen Maßnahmen gehören das Entfernen des Inhalts, die Verwarnung oder Deaktivierung des zuwiderhandelnden Accounts. In einigen Fällen kann der Account auch den Strafverfolgungsbehörden gemeldet werden. Zur Verhinderung eines erneuten Auftauchens terroristischer oder anderer gewalttätiger extremistischer Inhalte auf Snapchat ergreifen wir zusätzlich zur Zusammenarbeit mit den Strafverfolgungsbehörden Maßnahmen zur Sperrung des mit dem zuwiderhandelnden Account verbundenen Geräts und zur Verhinderung der Erstellung eines weiteren Snapchat Accounts durch den Nutzer. 


Weitere Informationen über unsere Maßnahmen zur Erkennung und Entfernung terroristischer Inhalte findest du in unserer Erklärung über hasserfüllte Inhalte, Terrorismus und gewalttätigen Extremismus und unserer Erklärung zu Moderation, Vollstreckung und Einsprüchen.



Berichte & Durchsetzungen 
  • Artikel 7(3)(c): Die Anzahl der Elemente terroristischer Inhalte, die nach Entfernungsanordnungen oder spezifischen Maßnahmen entfernt wurden oder auf die der Zugriff gesperrt wurde und die Anzahl der Entfernungsanordnungen, die gemäß Artikel 3(7) und dem ersten Unterabsatz von Artikel 3(8) nicht entfernt wurden oder auf die der Zugriff gesperrt wurde, samt Gründe dafür.


Während des Berichtszeitraums erhielt Snap weder Entfernungsaufträge noch waren wir verpflichtet, bestimmte Maßnahmen gemäß Artikel 5 der Verordnung zu ergreifen. Dementsprechend waren wir im Rahmen der Verordnung nicht verpflichtet, Vollstreckungsmaßnahmen zu ergreifen.

In folgender Tabelle sind Vollstreckungsmaßnahmen beschrieben, die aufgrund von Benutzermeldungen und der proaktiven Erkennung von Inhalten und Accounts sowohl in der EU als auch weltweit durchgeführt wurden, weil sie gegen unsere Community-Richtlinien in Bezug auf terroristische Inhalte und gewalttätigen Extremismus verstoßen haben.

Vollstreckungsbeschwerden
  • Artikel 7 (3)(d): Anzahl und Ergebnis der durch den Hosting-Anbieter bearbeiteten Beschwerden gemäß Artikel 10

  • Artikel 7(3)(g): Anzahl der Fälle, in denen der Hosting-Anbieter den Inhalt oder Zugang zu demselben nach einer Beschwerde des Inhaltsanbieters wieder bereitgestellt hat

Da wir, wie oben erwähnt, im Berichtszeitraum keine Vollstreckungsmaßnahmen ergriffen haben, wurden keine Beschwerden im Rahmen der Verordnung gemäß Artikel 10 bearbeitet und somit auch keine Wiedereinstellungen vorgenommen.

Die folgende Tabelle bietet Informationen zu Beschwerden und Wiedereinstellungen, sowohl in der EU als auch anderen Ländern, im Zusammenhang mit terroristischen und gewalttätigen extremistischen Inhalten, die gemäß unseren Community-Richtlinien durchgesetzt wurden.

Gerichtsverfahren & Berufungen
  • Artikel 7(3)(e): die Anzahl und das Ergebnis der vom Anbieter von Hostingdiensten eingeleiteten verwaltungsrechtlichen oder gerichtlichen Überprüfungsverfahren

  • Artikel 7(3)(f): Anzahl der Fälle, in denen der Hosting-Anbieter den Inhalt oder den Zugriff darauf aufgrund eines verwaltungsrechtlichen oder gerichtlichen Überprüfungsverfahrens wiederherstellen musste

Da wir während des Berichtszeitraums keine Vollstreckungsmaßnahmen ergriffen haben, wie oben erwähnt, haben wir kein verwaltungsmäßiges oder gerichtliches Überprüfungsverfahren durchgeführt und waren nicht verpflichtet, die Inhalte aufgrund eines solchen Verfahrens wiederherzustellen.

DSA-Risikobewertung

Dieser Bericht wurde erstellt, um Snaps Verpflichtungen gemäß den Artikeln 34 und 35 der Verordnung (EU) 2022/2065 zu erfüllen. Er enthält die Ergebnisse unserer Bewertung der Systemrisiken, die sich aus Design, Funktion und Nutzung der Online-Plattformen von Snapchat ergeben, und er legt die zur Bewertung dieser Risiken verwendete Methodik sowie die mit Blick auf die Risiken ergriffenen Maßnahmen dar.


Bericht zur Bewertung und Begrenzung von Risiken gemäß DSA | Snapchat | August 2023 (PDF)


DSA-Audit und Umsetzung der Prüfung

Diese Berichte wurden erstellt, um Snaps Verpflichtungen gemäß Artikel 37 der Verordnung (EU) 2022/2065 nachzukommen. Sie enthalten (i) die Ergebnisse der unabhängigen Überprüfung der Einhaltung der Verpflichtungen gemäß Kapitel III der Verordnung (EU) 2022/2065 durch Snap und (ii) die ergriffenen Maßnahmen zur Umsetzung der operativen Empfehlungen aus dieser unabhängigen Überprüfung.

Unabhängiger Prüfbericht gemäß DSA | Snapchat | August 2024 (PDF)

Bericht zur Umsetzung der DSA-Prüfung | Snapchat | September 2024 (PDF)



EU VSP-Verfahrenskodex

Snap ist ein Anbieter eines „Video-Sharing-Plattform-Dienstes“ („VSP“) gemäß Artikel 1 (1) (aa) AVMSD. Dieser Verhaltenskodex („Kodex“) wurde erstellt, um zu beschreiben, wie Snap seinen Verpflichtungen als VSP gemäß dem niederländischen Mediengesetz („DMA“) und der EU-Richtlinie 2010/13 (laut Änderung durch EU-Richtlinie 2018/1808, „Richtlinie über audiovisuelle Mediendienste“ oder „AVMSD“) nachkommt. Der Kodex ist in der gesamten Europäischen Union sowie im Europäischen Wirtschaftsraum anwendbar.

EU VSP-Verhaltenskodex | Snapchat | März 2025 (PDF)

Bulgarisch | Kroatisch | Tschechisch | Dänisch | Niederländisch | Estnisch | Finnisch | Französisch | Deutsch | Griechisch | Ungarisch | Irisch | Italienisch | Lettisch | Litauisch | Maltesisch | Polnisch | Portugiesisch | Rumänisch | Slowakisch | Slowenisch | Spanisch | Schwedisch