Europäische Union
Zuletzt aktualisiert: 7. Februar 2024

Diese Zahlen wurden berechnet, um die aktuellen DSA-Bestimmungen zu erfüllen, und sollten nur für DSA-Zwecke verwendet werden. Wir können die Berechnung dieser Zahl im Laufe der Zeit ändern, auch als Reaktion auf sich ändernde regulatorische Vorgaben und Technologien. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.

Gesetzlicher Vertreter 

Snap Group Limited hat Snap B.V. zu seinem gesetzlichen Vertreter ernannt. Du kannst den Vertreter unter dsa-enquiries [at] snapchat.com für das DSA, unter vsp-enquiries [at] snapchat.com für AVMSD und DMA, über unsere Support-Website [hier] oder unter:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Niederlande kontaktieren.

Wenn du eine Strafverfolgungsbehörde bist, befolge bitte die hier beschriebenen Schritte.

Regulierungsbehörden

In Bezug auf den DSA werden wir von der Europäischen Kommission und der niederländischen Behörde für Verbraucher und Märkte (ACM) reguliert. 

Für AVMSD und das DMA werden wir von der niederländischen Medienbehörde (CvdM) reguliert.

DSA-Transparenzbericht

Snap ist gemäß den Artikeln 15, 24 und 42 des DSA verpflichtet, Berichte zu veröffentlichen, die vorgeschriebene Informationen über die Moderation von Snap für die Dienste von Snapchat enthalten, die als „Online-Plattformen“ gelten, d. h. Spotlight, Für dich, Öffentliche Profile, Maps, Linsen und Werbung. Dieser Bericht muss ab dem 25. Oktober 2023 alle 6 Monate veröffentlicht werden.

Snap veröffentlicht zweimal im Jahr Transparenzberichte, um einen Einblick in die Sicherheitsbemühungen von Snap und die Art und das Volumen der auf unserer Plattform gemeldeten Inhalte zu geben. Unseren aktuellen Bericht für das 1. Halbjahr 2023 (1. Januar bis 30. Juni) findest du hier. Dieser Bericht enthält die folgenden Informationen:

  • Regierungsanfragen, einschließlich Anträge auf Entfernung von Informationen und Inhalten; 

  • Verstöße gegen Inhalte, einschließlich der Maßnahmen, die im Zusammenhang mit illegalen Inhalten ergriffen wurden, und der mittleren Reaktionszeit; 

  • Einsprüche, die über unser internes Verfahren zur Bearbeitung von Beschwerden eingehen und bearbeitet werden.

Diese Abschnitte sind für die in Artikel 15.1 Buchstaben a), b) und d) der vom DSA geforderten Informationen relevant. Beachte, dass sie noch keinen vollständigen Datensatz enthalten, da der aktuelle Bericht das 1. Halbjahr 2023 abdeckt, also vor dem Inkrafttreten des DSA. 

Nachstehend findest du einige zusätzliche Informationen zu Aspekten, die in unserem Transparenzbericht für das 1. Halbjahr 2023 nicht berücksichtigt wurden:

Moderation von Inhalten (Artikel 15.1(c) und (e), Artikel 42.2)

Alle Inhalte auf Snapchat müssen sich an unsere Community-Richtlinien und Servicebestimmungen sowie an unterstützende Bedingungen, Richtlinien und Erklärungen halten. Proaktive Erkennungsmechanismen und Berichte über illegale oder verletzende Inhalte oder Konten führen zu einer Überprüfung. An diesem Punkt verarbeiten unsere Tooling-Systeme die Anfrage, erfassen relevante Metadaten und leiten die relevanten Inhalte über eine strukturierte Benutzeroberfläche, die für effektive und effiziente Überprüfungsvorgänge konzipiert ist, an unser Moderationsteam weiter. Wenn unsere Moderationsteams entweder durch menschliche Überprüfung oder durch automatische Vorgänge feststellen, dass ein Nutzer gegen unsere Bedingungen verstoßen hat, können wir den anstößigen Inhalt oder den Account löschen, die Sichtbarkeit des betreffenden Kontos beenden oder einschränken und/oder die Strafverfolgungsbehörden benachrichtigen, wie in unserem Infobereich zu Moderation, Durchsetzung und Einsprüchen von Snapchat erläutert.  Nutzer, deren Konten von unserem Sicherheitsteam für Verstöße gegen die Community-Richtlinien gesperrt wurden, können Einspruch gegen gesperrte Konten einlegen, und Nutzer können Einspruch gegen die Durchsetzung bestimmter Inhalte einlegen.

Automatisierte Tools für die Moderation von Inhalten

Auf unseren Oberflächen für öffentliche Inhalte durchlaufen die Inhalte in der Regel sowohl eine automatische Moderation als auch eine menschliche Überprüfung, bevor sie für die Verbreitung an ein breites Publikum zugelassen werden. Zu den automatisierten Tools gehören unter anderem:

  • Proaktive Erkennung illegaler und verletzender Inhalte mittels maschinellem Lernen;

  • Hash-Matching-Tools (wie PhotoDNA und CSAI-Match von Google);

  • Schimpfwörter-Spracherkennung zur Ablehnung von Inhalten auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste von Schimpfwörter-Schlüsselwörtern, einschließlich Emojis.

Im Zeitraum unseres aktuellen Transparenzberichts (1. Halbjahr 2023) war es nicht erforderlich, formale Indikatoren/Fehlerraten für diese automatisierten Systeme zu erheben. Wir überwachen diese Systeme jedoch regelmäßig auf Probleme, und unsere menschlichen Moderationsentscheidungen werden regelmäßig auf ihre Richtigkeit überprüft.


Menschliche Moderation

Unser Inhalte-Moderationsteam ist weltweit tätig und kann so rund um die Uhr für die Sicherheit von Snapchattern sorgen. Nachstehend findest du die Aufschlüsselung unserer menschlichen Moderationsressourcen nach den Sprachspezialisierungen der Moderatoren (beachte, dass einige Moderatoren auf mehrere Sprachen spezialisiert sind) ab August 2023:

Willkommen auf unserer Transparenzseite der Europäischen Union (EU), auf der wir EU-spezifische Informationen veröffentlichen, die nach dem EU-Gesetz für digitale Dienste (DSA), der Richtlinie über audiovisuelle Mediendienste (AVMSD) und dem niederländischen Mediengesetz (DMA) erforderlich sind.  

Durchschnittlich aktive Empfänger pro Monat 

Mit Stand vom 1. August 2023 verzeichnen wir 102 Millionen durchschnittlich monatlich aktive Empfänger („AMAR“) unserer Snapchat App in der EU. Das bedeutet, dass im Durchschnitt der letzten 6 Monate 102 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im jeweiligen Monat geöffnet haben.

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:

Diese Zahlen wurden berechnet, um die aktuellen DSA-Bestimmungen zu erfüllen, und sollten nur für DSA-Zwecke verwendet werden. Wir haben die Art und Weise, wie wir diese Zahl im Laufe der Zeit berechnen, geändert, auch als Reaktion auf geänderte interne Richtlinien, Richtlinien für die Regulierungsbehörden und Technologien. Die Zahlen sind nicht für einen Vergleich zwischen Zeiträumen vorgesehen. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.


Anfragen der Mitgliedstaaten
(DSA Artikel 15.1(a))

Anfragen zum Löschen 

In diesem Zeitraum haben wir 0 Anfragen zum Löschen von EU-Mitgliedstaaten gemäß Artikel 9 von DSA erhalten. 

Informationsanfragen 

In diesem Zeitraum haben wir die folgenden Informationsanfragen von EU-Mitgliedstaaten gemäß Artikel 10 von DSA erhalten:

Die mittlere Bearbeitungszeit für die Information der Behörden über den Eingang von Informationsanfragen beträgt 0 Minuten. Wir senden eine automatisierte Antwort zur Bestätigung des Eingangs. Die mittlere TAT für Informationsanfragen beträgt ca. 10 Tage. Diese Metrik spiegelt den Zeitraum wider, ab dem Snap eine IR erhält, bis zu dem Zeitpunkt, zu dem Snap der Meinung ist, dass die Anfrage vollständig gelöst wurde. In einigen Fällen hängt die Länge dieses Prozesses zum Teil davon ab, wie schnell die Strafverfolgungsbehörden auf Anfragen von Snap reagieren, die für die Bearbeitung ihrer Anfrage erforderlich sind.

Moderation von Inhalten


Alle Inhalte auf Snapchat müssen sich an unsere Community-Richtlinien und Servicebestimmungen sowie an unterstützende Bedingungen, Richtlinien und Erklärungen halten. Proaktive Erkennungsmechanismen und Berichte über illegale oder verletzende Inhalte oder Konten führen zu einer Überprüfung. An diesem Punkt verarbeiten unsere Tooling-Systeme die Anfrage, erfassen relevante Metadaten und leiten die relevanten Inhalte über eine strukturierte Benutzeroberfläche, die für effektive und effiziente Überprüfungsvorgänge konzipiert ist, an unser Moderationsteam weiter. Wenn unsere Moderationsteams entweder durch menschliche Überprüfung oder durch automatische Vorgänge feststellen, dass ein Nutzer gegen unsere Bedingungen verstoßen hat, können wir den anstößigen Inhalt oder den Account löschen, die Sichtbarkeit des betreffenden Kontos beenden oder einschränken und/oder die Strafverfolgungsbehörden benachrichtigen, wie in unserem Infobereich zu Moderation, Durchsetzung und Einsprüchen von Snapchat erläutert.  Nutzer, deren Konten von unserem Sicherheitsteam für Verstöße gegen die Community-Richtlinien gesperrt wurden, können Einspruch gegen gesperrte Konten einlegen, und Nutzer können Einspruch gegen die Durchsetzung bestimmter Inhalte einlegen.

Mitteilungen über Inhalte und Konten (DSA Artikel 15.1(b))

Snap hat Mechanismen eingeführt, die es Nutzern und Nicht-Nutzern ermöglichen, Snap über Inhalte und Konten zu informieren, die auf der Plattform gegen unsere Community-Richtlinien und Servicebestimmungen verstoßen, einschließlich derjenigen, die sie gemäß Artikel 16 von DSA für illegal halten.  Diese Meldemechanismen sind in der App selbst (d. h. direkt aus dem Inhalt heraus) und auf unserer Website verfügbar.

Im betreffenden Zeitraum erhielten wir die folgenden Mitteilungen zu Inhalten und Konten in der EU:

In H2’23 haben wir 664.896 Mitteilungen ausschließlich mit automatisierten Mitteln bearbeitet. All diese wurden gegen unsere Community-Richtlinien durchgesetzt, da unsere Community-Richtlinien illegale Inhalte enthielten. 

Zusätzlich zu nutzergenerierten Inhalten und Konten moderieren wir Werbung, wenn sie gegen unsere Plattform-Richtlinien verstoßen. Nachfolgend ist die Gesamtzahl der Anzeigen aufgeführt, die in der EU gemeldet und entfernt wurden. 

Mitteilungen über Trusted Flaggers (Artikel 15.1(b))

Im Zeitraum unseres neuesten Transparenzberichts (H2 2023) gab es im Rahmen des DSA keine offiziell ernannten Trusted Flagger. Infolgedessen lag die Anzahl der Mitteilungen solcher Trusted Flagger in diesem Zeitraum bei null (0).

Proaktive Moderation von Inhalten (Artikel 15.1(c))

Im betreffenden Zeitraum setzte Snap in der EU die folgenden Inhalte und Konten durch, nachdem Snap von sich aus eine Moderation von Inhalten eingeleitet hatte:

Bei allen auf Initiative von Snap unternommenen Moderationsbemühungen wurden Menschen oder Automatisierung eingesetzt. Auf unseren Oberflächen für öffentliche Inhalte durchlaufen die Inhalte in der Regel sowohl eine automatische Moderation als auch eine menschliche Überprüfung, bevor sie für die Verbreitung an ein breites Publikum zugelassen werden. Zu den automatisierten Tools gehören unter anderem:

  • Proaktive Erkennung illegaler und verletzender Inhalte mittels maschinellem Lernen;

  • Hash-Matching-Tools (wie PhotoDNA und CSAI-Match von Google);

  • Schimpfwörter-Spracherkennung zur Ablehnung von Inhalten auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste von Schimpfwörter-Schlüsselwörtern, einschließlich Emojis.


Einsprüche (Artikel 15.1(d))

Im betreffenden Zeitraum verarbeitete Snap in der EU die folgenden Einsprüche gegen Inhalte und Konten über seine internen Beschwerdesysteme:


Willkommen auf unserer Transparenzseite der Europäischen Union (EU), auf der wir EU-spezifische Informationen veröffentlichen, die nach dem EU-Gesetz für digitale Dienste (DSA), der Richtlinie über audiovisuelle Mediendienste (AVMSD) und dem niederländischen Mediengesetz (DMA) erforderlich sind.  

Durchschnittlich aktive Empfänger pro Monat 

Mit Stand vom 1. August 2023 verzeichnen wir 102 Millionen durchschnittlich monatlich aktive Empfänger („AMAR“) unserer Snapchat App in der EU. Das bedeutet, dass im Durchschnitt der letzten 6 Monate 102 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im jeweiligen Monat geöffnet haben.

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:

Diese Zahlen wurden berechnet, um die aktuellen DSA-Bestimmungen zu erfüllen, und sollten nur für DSA-Zwecke verwendet werden. Wir können die Berechnung dieser Zahl im Laufe der Zeit ändern, auch als Reaktion auf sich ändernde regulatorische Vorgaben und Technologien. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.

Gesetzlicher Vertreter 

Snap Group Limited hat Snap B.V. zu seinem gesetzlichen Vertreter ernannt. Du kannst den Vertreter unter dsa-enquiries [at] snapchat.com für das DSA, unter vsp-enquiries [at] snapchat.com für AVMSD und DMA, über unsere Support-Website [hier] oder unter:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Niederlande kontaktieren.

Wenn du eine Strafverfolgungsbehörde bist, befolge bitte die hier beschriebenen Schritte.

Regulierungsbehörden

In Bezug auf den DSA werden wir von der Europäischen Kommission und der niederländischen Behörde für Verbraucher und Märkte (ACM) reguliert. 

Für AVMSD und das DMA werden wir von der niederländischen Medienbehörde (CvdM) reguliert.

DSA-Transparenzbericht

Snap ist gemäß den Artikeln 15, 24 und 42 des DSA verpflichtet, Berichte zu veröffentlichen, die vorgeschriebene Informationen über die Moderation von Snap für die Dienste von Snapchat enthalten, die als „Online-Plattformen“ gelten, d. h. Spotlight, Für dich, Öffentliche Profile, Maps, Linsen und Werbung. Dieser Bericht muss ab dem 25. Oktober 2023 alle 6 Monate veröffentlicht werden.

Snap veröffentlicht zweimal im Jahr Transparenzberichte, um einen Einblick in die Sicherheitsbemühungen von Snap und die Art und das Volumen der auf unserer Plattform gemeldeten Inhalte zu geben. Unseren aktuellen Bericht für das 1. Halbjahr 2023 (1. Januar bis 30. Juni) findest du hier. Dieser Bericht enthält die folgenden Informationen:

  • Regierungsanfragen, einschließlich Anträge auf Entfernung von Informationen und Inhalten; 

  • Verstöße gegen Inhalte, einschließlich der Maßnahmen, die im Zusammenhang mit illegalen Inhalten ergriffen wurden, und der mittleren Reaktionszeit; 

  • Einsprüche, die über unser internes Verfahren zur Bearbeitung von Beschwerden eingehen und bearbeitet werden.

Diese Abschnitte sind für die in Artikel 15.1 Buchstaben a), b) und d) der vom DSA geforderten Informationen relevant. Beachte, dass sie noch keinen vollständigen Datensatz enthalten, da der aktuelle Bericht das 1. Halbjahr 2023 abdeckt, also vor dem Inkrafttreten des DSA. 

Nachstehend findest du einige zusätzliche Informationen zu Aspekten, die in unserem Transparenzbericht für das 1. Halbjahr 2023 nicht berücksichtigt wurden:

Moderation von Inhalten (Artikel 15.1(c) und (e), Artikel 42.2)

Alle Inhalte auf Snapchat müssen sich an unsere Community-Richtlinien und Servicebestimmungen sowie an unterstützende Bedingungen, Richtlinien und Erklärungen halten. Proaktive Erkennungsmechanismen und Berichte über illegale oder verletzende Inhalte oder Konten führen zu einer Überprüfung. An diesem Punkt verarbeiten unsere Tooling-Systeme die Anfrage, erfassen relevante Metadaten und leiten die relevanten Inhalte über eine strukturierte Benutzeroberfläche, die für effektive und effiziente Überprüfungsvorgänge konzipiert ist, an unser Moderationsteam weiter. Wenn unsere Moderationsteams entweder durch menschliche Überprüfung oder durch automatische Vorgänge feststellen, dass ein Nutzer gegen unsere Bedingungen verstoßen hat, können wir den anstößigen Inhalt oder den Account löschen, die Sichtbarkeit des betreffenden Kontos beenden oder einschränken und/oder die Strafverfolgungsbehörden benachrichtigen, wie in unserem Infobereich zu Moderation, Durchsetzung und Einsprüchen von Snapchat erläutert.  Nutzer, deren Konten von unserem Sicherheitsteam für Verstöße gegen die Community-Richtlinien gesperrt wurden, können Einspruch gegen gesperrte Konten einlegen, und Nutzer können Einspruch gegen die Durchsetzung bestimmter Inhalte einlegen.

Automatisierte Tools für die Moderation von Inhalten

Auf unseren Oberflächen für öffentliche Inhalte durchlaufen die Inhalte in der Regel sowohl eine automatische Moderation als auch eine menschliche Überprüfung, bevor sie für die Verbreitung an ein breites Publikum zugelassen werden. Zu den automatisierten Tools gehören unter anderem:

  • Proaktive Erkennung illegaler und verletzender Inhalte mittels maschinellem Lernen;

  • Hash-Matching-Tools (wie PhotoDNA und CSAI-Match von Google);

  • Schimpfwörter-Spracherkennung zur Ablehnung von Inhalten auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste von Schimpfwörter-Schlüsselwörtern, einschließlich Emojis.

Im Zeitraum unseres aktuellen Transparenzberichts (1. Halbjahr 2023) war es nicht erforderlich, formale Indikatoren/Fehlerraten für diese automatisierten Systeme zu erheben. Wir überwachen diese Systeme jedoch regelmäßig auf Probleme, und unsere menschlichen Moderationsentscheidungen werden regelmäßig auf ihre Richtigkeit überprüft.


Menschliche Moderation

Unser Inhalte-Moderationsteam ist weltweit tätig und kann so rund um die Uhr für die Sicherheit von Snapchattern sorgen. Nachstehend findest du die Aufschlüsselung unserer menschlichen Moderationsressourcen nach den Sprachspezialisierungen der Moderatoren (beachte, dass einige Moderatoren auf mehrere Sprachen spezialisiert sind) ab August 2023:

Willkommen auf unserer Transparenzseite der Europäischen Union (EU), auf der wir EU-spezifische Informationen veröffentlichen, die nach dem EU-Gesetz für digitale Dienste (DSA), der Richtlinie über audiovisuelle Mediendienste (AVMSD) und dem niederländischen Mediengesetz (DMA) erforderlich sind.  

Durchschnittlich aktive Empfänger pro Monat 

Mit Stand vom 1. August 2023 verzeichnen wir 102 Millionen durchschnittlich monatlich aktive Empfänger („AMAR“) unserer Snapchat App in der EU. Das bedeutet, dass im Durchschnitt der letzten 6 Monate 102 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im jeweiligen Monat geöffnet haben.

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:

Willkommen auf unserer Transparenzseite der Europäischen Union (EU), auf der wir EU-spezifische Informationen veröffentlichen, die nach dem EU-Gesetz für digitale Dienste (DSA), der Richtlinie über audiovisuelle Mediendienste (AVMSD) und dem niederländischen Mediengesetz (DMA) erforderlich sind.  

Durchschnittlich aktive Empfänger pro Monat 

Mit Stand vom 1. August 2023 verzeichnen wir 102 Millionen durchschnittlich monatlich aktive Empfänger („AMAR“) unserer Snapchat App in der EU. Das bedeutet, dass im Durchschnitt der letzten 6 Monate 102 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im jeweiligen Monat geöffnet haben.

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt: