Europäische Union
Zuletzt aktualisiert: 7. Februar 2024

Willkommen auf unserer Transparenzseite der Europäischen Union (EU), auf der wir EU-spezifische Informationen veröffentlichen, die nach dem EU-Gesetz für digitale Dienste (DSA), der Richtlinie über audiovisuelle Mediendienste (AVMSD) und dem niederländischen Mediengesetz (DMA) erforderlich sind.  

Durchschnittlich aktive Empfänger pro Monat 

Mit Stand vom 1. August 2023 verzeichnen wir 102 Millionen durchschnittlich monatlich aktive Empfänger („AMAR“) unserer Snapchat App in der EU. Das bedeutet, dass im Durchschnitt der letzten 6 Monate 102 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im jeweiligen Monat geöffnet haben.

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:

Diese Zahlen wurden berechnet, um die aktuellen DSA-Bestimmungen zu erfüllen, und sollten nur für DSA-Zwecke verwendet werden. Wir können die Berechnung dieser Zahl im Laufe der Zeit ändern, auch als Reaktion auf sich ändernde regulatorische Vorgaben und Technologien. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.

Gesetzlicher Vertreter 

Snap Group Limited hat Snap B.V. zu seinem gesetzlichen Vertreter ernannt. Du kannst den Vertreter unter dsa-enquiries [at] snapchat.com für das DSA, unter vsp-enquiries [at] snapchat.com für AVMSD und DMA, über unsere Support-Website [hier] oder unter:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Niederlande kontaktieren.

Wenn du eine Strafverfolgungsbehörde bist, befolge bitte die hier beschriebenen Schritte.

Regulierungsbehörden

In Bezug auf den DSA werden wir von der Europäischen Kommission und der niederländischen Behörde für Verbraucher und Märkte (ACM) reguliert. 

Für AVMSD und das DMA werden wir von der niederländischen Medienbehörde (CvdM) reguliert.

DSA-Transparenzbericht

Snap ist gemäß den Artikeln 15, 24 und 42 des DSA verpflichtet, Berichte zu veröffentlichen, die vorgeschriebene Informationen über die Moderation von Snap für die Dienste von Snapchat enthalten, die als „Online-Plattformen“ gelten, d. h. Spotlight, Für dich, Öffentliche Profile, Maps, Linsen und Werbung. Dieser Bericht muss ab dem 25. Oktober 2023 alle 6 Monate veröffentlicht werden.

Snap veröffentlicht zweimal im Jahr Transparenzberichte, um einen Einblick in die Sicherheitsbemühungen von Snap und die Art und das Volumen der auf unserer Plattform gemeldeten Inhalte zu geben. Unseren aktuellen Bericht für das 1. Halbjahr 2023 (1. Januar bis 30. Juni) findest du hier. Dieser Bericht enthält die folgenden Informationen:

  • Regierungsanfragen, einschließlich Anträge auf Entfernung von Informationen und Inhalten; 

  • Verstöße gegen Inhalte, einschließlich der Maßnahmen, die im Zusammenhang mit illegalen Inhalten ergriffen wurden, und der mittleren Reaktionszeit; 

  • Einsprüche, die über unser internes Verfahren zur Bearbeitung von Beschwerden eingehen und bearbeitet werden.

Diese Abschnitte sind für die in Artikel 15.1 Buchstaben a), b) und d) der vom DSA geforderten Informationen relevant. Beachte, dass sie noch keinen vollständigen Datensatz enthalten, da der aktuelle Bericht das 1. Halbjahr 2023 abdeckt, also vor dem Inkrafttreten des DSA. 

Nachstehend findest du einige zusätzliche Informationen zu Aspekten, die in unserem Transparenzbericht für das 1. Halbjahr 2023 nicht berücksichtigt wurden:

Moderation von Inhalten (Artikel 15.1(c) und (e), Artikel 42.2)

Alle Inhalte auf Snapchat müssen sich an unsere Community-Richtlinien und Servicebestimmungen sowie an unterstützende Bedingungen, Richtlinien und Erklärungen halten. Proaktive Erkennungsmechanismen und Berichte über illegale oder verletzende Inhalte oder Konten führen zu einer Überprüfung. An diesem Punkt verarbeiten unsere Tooling-Systeme die Anfrage, erfassen relevante Metadaten und leiten die relevanten Inhalte über eine strukturierte Benutzeroberfläche, die für effektive und effiziente Überprüfungsvorgänge konzipiert ist, an unser Moderationsteam weiter. Wenn unsere Moderationsteams entweder durch menschliche Überprüfung oder durch automatische Vorgänge feststellen, dass ein Nutzer gegen unsere Bedingungen verstoßen hat, können wir den anstößigen Inhalt oder den Account löschen, die Sichtbarkeit des betreffenden Kontos beenden oder einschränken und/oder die Strafverfolgungsbehörden benachrichtigen, wie in unserem Infobereich zu Moderation, Durchsetzung und Einsprüchen von Snapchat erläutert.  Nutzer, deren Konten von unserem Sicherheitsteam für Verstöße gegen die Community-Richtlinien gesperrt wurden, können Einspruch gegen gesperrte Konten einlegen, und Nutzer können Einspruch gegen die Durchsetzung bestimmter Inhalte einlegen.

Automatisierte Tools für die Moderation von Inhalten

Auf unseren Oberflächen für öffentliche Inhalte durchlaufen die Inhalte in der Regel sowohl eine automatische Moderation als auch eine menschliche Überprüfung, bevor sie für die Verbreitung an ein breites Publikum zugelassen werden. Zu den automatisierten Tools gehören unter anderem:

  • Proaktive Erkennung illegaler und verletzender Inhalte mittels maschinellem Lernen;

  • Hash-Matching-Tools (wie PhotoDNA und CSAI-Match von Google);

  • Schimpfwörter-Spracherkennung zur Ablehnung von Inhalten auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste von Schimpfwörter-Schlüsselwörtern, einschließlich Emojis.

Im Zeitraum unseres aktuellen Transparenzberichts (1. Halbjahr 2023) war es nicht erforderlich, formale Indikatoren/Fehlerraten für diese automatisierten Systeme zu erheben. Wir überwachen diese Systeme jedoch regelmäßig auf Probleme, und unsere menschlichen Moderationsentscheidungen werden regelmäßig auf ihre Richtigkeit überprüft.


Menschliche Moderation

Unser Inhalte-Moderationsteam ist weltweit tätig und kann so rund um die Uhr für die Sicherheit von Snapchattern sorgen. Nachstehend findest du die Aufschlüsselung unserer menschlichen Moderationsressourcen nach den Sprachspezialisierungen der Moderatoren (beachte, dass einige Moderatoren auf mehrere Sprachen spezialisiert sind) ab August 2023:

Die oben genannten Zahlen schwanken häufig, da wir die Entwicklung des eingehenden Volumens oder der Einreichungen nach Sprache/Land beobachten. In Situationen, in denen wir zusätzliche sprachliche Unterstützung benötigen, greifen wir auf Übersetzungsdienste zurück.

Moderatoren werden auf der Grundlage einer Standardstellenbeschreibung eingestellt, die je nach Bedarf auch eine bestimmte Sprachanforderung voraussetzt. Die Sprachanforderung besagt, dass der Bewerber die Sprache in Wort und Schrift fließend beherrschen und über mindestens ein Jahr Berufserfahrung für Einstiegspositionen verfügen sollte. Die Bewerber müssen außerdem die Anforderungen an Ausbildung und Hintergrund erfüllen, um berücksichtigt zu werden. Die Bewerber müssen außerdem ein Verständnis für die aktuellen Ereignisse in dem Land oder der Region nachweisen, in dem/der sie die Moderation von Inhalten übernehmen. 

Unser Moderationsteam wendet unsere Richtlinien und Durchsetzungsmaßnahmen an, um unsere Snapchat Community zu schützen. Die Schulung für neue Teammitglieder erstreckt sich über einen mehrwöchigen Zeitraum, in dem sie mit den Richtlinien, Tools und Eskalationsverfahren von Snap vertraut gemacht werden. Nach der Schulung muss jeder Moderator eine Zertifizierungsprüfung ablegen, bevor er Inhalte überprüfen darf. Unser Moderationsteam nimmt regelmäßig an Auffrischungsschulungen teil, die für die jeweiligen Workflows relevant sind, insbesondere dann, wenn wir mit grenzwertigen und kontextabhängigen Fällen konfrontiert werden. Wir führen auch Fortbildungsprogramme, Zertifizierungssitzungen und Quizze durch, um sicherzustellen, dass alle Moderatoren auf dem neuste Stand sind und in Übereinstimmung mit allen aktualisierten Richtlinien arbeiten. Und wenn dringende Inhaltstrends aufgrund aktueller Ereignisse auftauchen, verbreiten wir schnell Klarstellungen zu den Richtlinien, damit die Teams entsprechend den Richtlinien von Snap reagieren können.

Wir bieten unserem Moderationsteam – den "digitalen Ersthelfern" von Snap – umfangreiche Unterstützung und Ressourcen, einschließlich Wellness-Unterstützung bei der Arbeit und einfachen Zugriff auf psychische Gesundheitsversorgung. 


Sicherheitsvorkehrungen für die Moderation von Inhalten

Wir sind uns der Risiken bewusst, die mit der Moderation von Inhalten verbunden sind, einschließlich der Risiken für die Meinungs- und Versammlungsfreiheit, die durch die Voreingenommenheit automatischer und menschlicher Moderatoren und durch missbräuchliche Berichte, auch von Regierungen, politischen Gruppierungen oder gut organisierten Einzelpersonen, verursacht werden können. Snapchat ist in der Regel kein Ort für politische oder aktivistische Inhalte, insbesondere nicht in unseren öffentlichen Räumen. 

Um sich gegen diese Risiken abzusichern, hat Snap Tests und Schulungen durchgeführt und verfügt über solide, einheitliche Verfahren für den Umgang mit Meldungen über illegale oder verletzende Inhalte, auch von Strafverfolgungs- und Regierungsbehörden. Wir bewerten und entwickeln unsere Algorithmen für die Moderation von Inhalten ständig weiter. Auch wenn potenzielle Beeinträchtigungen des Rechts auf Meinungsfreiheit schwer zu erkennen sind, sind uns keine nennenswerten Probleme bekannt. Wir bieten unseren Nutzern die Möglichkeit, Fehler zu melden, falls sie auftreten. 

Unsere Richtlinien und Systeme fördern eine konsequente und faire Durchsetzung und geben Snapchattern, wie oben beschrieben, die Möglichkeit, die Ergebnisse der Durchsetzung durch Mitteilungen und Einspruchsverfahren anzufechten, die darauf abzielen, die Interessen unserer Community zu wahren und gleichzeitig die Rechte des einzelnen Snapchatters zu schützen.

Wir bemühen uns ständig um die Verbesserung unserer Durchsetzungsrichtlinien und -prozesse und haben große Fortschritte bei der Bekämpfung potenziell schädlicher und illegaler Inhalte und Aktivitäten auf Snapchat gemacht. Dies spiegelt sich in einem Aufwärtstrend bei unseren Melde- und Durchsetzungszahlen in unserem jüngsten Transparenzbericht sowie in den sinkenden Prävalenzraten für Verstöße auf Snapchat insgesamt wider. 


Mitteilungen über Trusted Flaggers (Artikel 15.1(b))

Im Zeitraum unseres letzten Transparenzberichts (H1 2023) gab es keine offiziell ernannten Trusted Flagger im Rahmen der DSA. Infolgedessen lag die Anzahl der Mitteilungen solcher Trusted Flagger in diesem Zeitraum bei null (0).


Außergerichtliche Streitigkeiten (Artikel 24.1(a))

Im Zeitraum unseres letzten Transparenzberichts (H1 2023) gab es keine formell ernannten außergerichtlichen Streitbeilegungsstellen im Rahmen des DSA. Infolgedessen lag die Anzahl der Streitigkeiten, die solchen Stellen vorgelegt wurden, in diesem Zeitraum bei null (0).


Account-Aussetzungen gemäß Artikel 23 (Artikel 24.1(b))

Im Zeitraum unseres letzten Transparenzberichts (1. Halbjahr 2023) war es nicht erforderlich, Konten gemäß Artikel 23 des DSA wegen der Bereitstellung offensichtlich illegaler Inhalte, unbegründeter Hinweise oder Beschwerden zu sperren. Infolgedessen lag die Anzahl solcher Aussetzungen bei null (0). Jedoch ergreift Snap immer angemessene Durchsetzungsmaßnahmen gegen Accounts, wie in unserem Snapchat Moderation, Enforcement, and Appeals Explainer erklärt wird. Informationen über das Ausmaß der Durchsetzung von Accounts durch Snap findest du in unserem Transparenzbericht (H1 2023).