Europäische Union
1. Juli 2023 – 31. Dezember 2023

Veröffentlicht:

25. April 2024

Aktualisiert:

25. April 2024

Willkommen auf unserer Transparenzseite der Europäischen Union (EU), auf der wir EU-spezifische Informationen veröffentlichen, die nach dem Gesetz für digitale Dienste (Digital Services Act, DSA), der Richtlinie über audiovisuelle Mediendienste (AVMSD) und dem niederländischen Mediengesetz (DMA) erforderlich sind. Bitte beachte, dass die aktuellste Version dieser Transparenzberichte in der Sprachversion en-US zu finden ist.

Gesetzlicher Vertreter 

Snap Group Limited hat Snap B.V. zu seinem gesetzlichen Vertreter für die Zwecke des DSA ernannt. Du kannst den Vertreter unter dsa-enquiries [at] snapchat.com für das DSA, unter vsp-enquiries [at] snapchat.com für AVMSD und DMA, über unsere Support-Website [hier] oder unter:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Niederlande, kontaktieren.

Wenn du eine Strafverfolgungsbehörde vertrittst, befolge bitte die hier beschriebenen Schritte. Bitte kommuniziere auf Niederländisch oder Englisch, wenn du uns kontaktierst.

Regulierungsbehörden

In Bezug auf den DSA werden wir von der Europäischen Kommission und der niederländischen Behörde für Verbraucher und Märkte (ACM) reguliert. Für die AVMSD und das DMA werden wir von der niederländischen Medienbehörde (CvdM) reguliert.

DSA-Transparenzbericht

Snap ist gemäß den Artikeln 15, 24 und 42 des DSA verpflichtet, Berichte zu veröffentlichen, die vorgeschriebene Informationen über die Moderation von Snap für die Dienste von Snapchat enthalten, die als „Online-Plattformen“ gelten, d. h. Spotlight, Für dich, Öffentliche Profile, Maps, Linsen und Werbung. Dieser Bericht muss ab dem 25. Oktober 2023 alle 6 Monate veröffentlicht werden.

Snap veröffentlicht zweimal im Jahr Transparenzberichte, um einen Einblick in die Sicherheitsbemühungen von Snap und die Art und das Volumen der auf unserer Plattform gemeldeten Inhalte zu geben. Unseren neuesten Bericht für H2 2023 (1. Juli bis 31. Dezember) findest du hier. Auf dieser Seite findest du Metriken, die sich speziell auf das Gesetz über digitale Dienste beziehen.

Durchschnittlich aktive Empfänger pro Monat 
(DSA-Artikel 24.2 und 42.3)

Mit Stand vom 31. Dezember 2023 verzeichnen wir 90,9 Millionen durchschnittlich monatlich aktive Empfänger („AMAR“) unserer Snapchat App in der EU. Das bedeutet, dass im Durchschnitt der letzten 6 Monate 90,9 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im jeweiligen Monat geöffnet haben.

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:

Diese Zahlen wurden berechnet, um die aktuellen DSA-Bestimmungen zu erfüllen, und sollten nur für DSA-Zwecke verwendet werden. Wir haben die Art und Weise, wie wir diese Zahl im Laufe der Zeit berechnen, geändert, auch als Reaktion auf geänderte interne Richtlinien, Richtlinien für die Regulierungsbehörden und Technologien. Die Zahlen sind nicht für einen Vergleich zwischen Zeiträumen vorgesehen. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.


Anfragen der Mitgliedstaaten
(DSA Artikel 15.1(a))

Anfragen zum Löschen 

In diesem Zeitraum haben wir 0 Anfragen zum Löschen von EU-Mitgliedstaaten gemäß Artikel 9 von DSA erhalten. 

Informationsanfragen 

In diesem Zeitraum haben wir die folgenden Informationsanfragen von EU-Mitgliedstaaten gemäß Artikel 10 von DSA erhalten:

Die mittlere Bearbeitungszeit für die Information der Behörden über den Eingang von Informationsanfragen beträgt 0 Minuten. Wir senden eine automatisierte Antwort zur Bestätigung des Eingangs. Die mittlere Bearbeitungszeit für Informationsanfragen beträgt ca. 10 Tage. Diese Metrik spiegelt den Zeitraum wider, ab dem Snap eine IR erhält, bis zu dem Zeitpunkt, zu dem Snap der Meinung ist, dass die Anfrage vollständig gelöst wurde. In einigen Fällen hängt die Länge dieses Prozesses zum Teil davon ab, wie schnell die Strafverfolgungsbehörden auf Anfragen von Snap reagieren, die für die Bearbeitung ihrer Anfrage erforderlich sind.

Moderation von Inhalten


Alle Inhalte auf Snapchat müssen sich an unsere Community-Richtlinien und Servicebestimmungen sowie an unterstützende Bedingungen, Richtlinien und Erklärungen halten. Proaktive Erkennungsmechanismen und Berichte über illegale oder verletzende Inhalte oder Konten führen zu einer Überprüfung. An diesem Punkt verarbeiten unsere Tooling-Systeme die Anfrage, erfassen relevante Metadaten und leiten die relevanten Inhalte über eine strukturierte Benutzeroberfläche, die für effektive und effiziente Überprüfungsvorgänge konzipiert ist, an unser Moderationsteam weiter. Wenn unsere Moderationsteams entweder durch menschliche Überprüfung oder durch automatische Vorgänge feststellen, dass ein Nutzer gegen unsere Bedingungen verstoßen hat, können wir den anstößigen Inhalt oder den Account löschen, die Sichtbarkeit des betreffenden Kontos beenden oder einschränken und/oder die Strafverfolgungsbehörden benachrichtigen, wie in unserem Infobereich zu Moderation, Durchsetzung und Einsprüchen von Snapchat erläutert.  Nutzer, deren Konten von unserem Sicherheitsteam für Verstöße gegen die Community-Richtlinien gesperrt wurden, können Einspruch gegen gesperrte Konten einlegen, und Nutzer können Einspruch gegen die Durchsetzung bestimmter Inhalte einlegen.

Mitteilungen über Inhalte und Konten (DSA Artikel 15.1(b))

Snap hat Mechanismen eingeführt, die es Nutzern und Nicht-Nutzern ermöglichen, Snap über Inhalte und Konten zu informieren, die auf der Plattform gegen unsere Community-Richtlinien und Servicebestimmungen verstoßen, einschließlich derjenigen, die sie gemäß Artikel 16 von DSA für illegal halten.  Diese Meldemechanismen sind in der App selbst (d. h. direkt aus dem Inhalt heraus) und auf unserer Website verfügbar.

Im betreffenden Zeitraum erhielten wir die folgenden Mitteilungen zu Inhalten und Konten in der EU:

In H2’23 haben wir 664.896 Mitteilungen ausschließlich mit automatisierten Mitteln bearbeitet. All diese wurden gegen unsere Community-Richtlinien durchgesetzt, da unsere Community-Richtlinien illegale Inhalte enthielten. 

Zusätzlich zu nutzergenerierten Inhalten und Konten moderieren wir Werbung, wenn sie gegen unsere Plattform-Richtlinien verstoßen. Nachfolgend ist die Gesamtzahl der Anzeigen aufgeführt, die in der EU gemeldet und entfernt wurden. 

Mitteilungen über Trusted Flaggers (Artikel 15.1(b))

Im Zeitraum unseres neuesten Transparenzberichts (H2 2023) gab es im Rahmen des DSA keine offiziell ernannten Trusted Flagger. Infolgedessen lag die Anzahl der Mitteilungen solcher Trusted Flagger in diesem Zeitraum bei null (0).

Proaktive Moderation von Inhalten (Artikel 15.1(c))

Im betreffenden Zeitraum setzte Snap in der EU die folgenden Inhalte und Konten durch, nachdem Snap von sich aus eine Moderation von Inhalten eingeleitet hatte:

Bei allen auf Initiative von Snap unternommenen Moderationsbemühungen wurden Menschen oder Automatisierung eingesetzt. Auf unseren Oberflächen für öffentliche Inhalte durchlaufen die Inhalte in der Regel sowohl eine automatische Moderation als auch eine menschliche Überprüfung, bevor sie für die Verbreitung an ein breites Publikum zugelassen werden. Zu den automatisierten Tools gehören unter anderem:

  • Proaktive Erkennung illegaler und verletzender Inhalte mittels maschinellem Lernen;

  • Hash-Matching-Tools (wie PhotoDNA und CSAI-Match von Google);

  • Schimpfwörter-Spracherkennung zur Ablehnung von Inhalten auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste von Schimpfwörter-Schlüsselwörtern, einschließlich Emojis.


Einsprüche (Artikel 15.1(d))

Im betreffenden Zeitraum verarbeitete Snap in der EU die folgenden Einsprüche gegen Inhalte und Konten über seine internen Beschwerdesysteme:


* Die Bekämpfung der sexuelle Ausbeutung von Kindern hat oberste Priorität. Snap setzt erhebliche Ressourcen dafür ein und duldet kein solches Verhalten.  Für die Prüfung von Einsprüchen im Bereich CSE (Child Sexual Explotation: Sexuelle Ausbeutung von Kindern) ist eine spezielle Schulung erforderlich. Da in diesem Bereich explizite Abbildungen untersucht werden, ist das Ermittlungsteam auf eine begrenzte Anzahl von Mitarbeitern beschränkt.  Im Herbst 2023 hat Snap Änderungen an seinen Richtlinien vorgenommen, die sich auf die Konsistenz bestimmter Maßnahmen zur Durchsetzung der CSE-Vorschriften auswirken. Wir haben diesen Inkonsistenzen durch Schulungen der Mitarbeiter und durch eine Verschärfung unserer Qualitätssicherung entgegengetreten. Wir gehen davon aus, dass der nächste Transparenzbericht Fortschritte bei den Reaktionszeiten für Einsprüche im Bereich CSE und bei der Optimierung der unmittelbaren Reaktion auf solche Hinweise aufzeigen wird. 

Automatisierte Mittel zur Überprüfung der Inhalte (Artikel 15.1(e))

Auf unseren öffentlichen Inhaltsplattformen durchlaufen die Inhalte in der Regel sowohl eine automatische Moderation als auch eine menschliche Überprüfung, bevor sie für die Verbreitung an ein breites Publikum zugelassen werden. Zu den automatisierten Tools gehören unter anderem:

  • Proaktive Erkennung illegaler und verletzender Inhalte mittels maschinellem Lernen;

  • Hash-Matching-Tools (wie PhotoDNA und CSAI-Match von Google);

  • Schimpfwörter-Spracherkennung zur Ablehnung von Inhalten auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste von Schimpfwörter-Schlüsselwörtern, einschließlich Emojis.


Die Präzision unserer automatisierten Moderationstechnologien für das gesamte Spektrum potenzieller Bedrohungen lag bei 96,61 %, die Fehlerquote bei 3,39 %.


Garantien für die Überprüfung von Inhalten (Artikel 15.1(d))

Wir sind uns der Risiken bewusst, die mit der Moderation von Inhalten verbunden sind, einschließlich der Risiken für die Meinungs- und Versammlungsfreiheit, die durch die Voreingenommenheit automatischer und menschlicher Moderatoren und durch missbräuchliche Berichte, auch von Regierungen, politischen Gruppierungen oder gut organisierten Einzelpersonen, verursacht werden können. Snapchat ist in der Regel kein Ort für politische oder aktivistische Inhalte, insbesondere nicht in unseren öffentlich zugänglichen Bereichen. 


Dennoch handelt es sich um Risiken, gegen die wir Vorkehrungen treffen müssen. Dazu führt Snap Tests und Schulungen durch und verfügt über solide, konsistente Verfahren zum Umgang mit Meldungen illegaler oder verletzender Inhalte, auch wenn diese von Strafverfolgungs- oder sonstigen Behörden stammen. Wir bewerten und entwickeln unsere Algorithmen für die Moderation von Inhalten ständig weiter. Auch wenn potenzielle Beeinträchtigungen des Rechts auf Meinungsfreiheit schwer zu erkennen sind, sind uns keine nennenswerten Probleme bekannt. Wir bieten unseren Nutzern die Möglichkeit, Fehler zu melden, falls sie auftreten. 


Unsere Richtlinien und Systeme fördern eine konsequente und faire Durchsetzung und bieten Snapchattern, wie oben beschrieben, die Möglichkeit, Durchsetzungsergebnisse auf sinnvolle Weise durch Benachrichtigungs- und Beschwerdeverfahren anzufechten, die darauf abzielen, die Interessen unserer Community zu schützen, während sie die Rechte einzelner Snapchatter wahren.

Wir bemühen uns ständig um die Verbesserung unserer Durchsetzungsrichtlinien und -prozesse und haben große Fortschritte bei der Bekämpfung potenziell schädlicher und illegaler Inhalte und Aktivitäten auf Snapchat gemacht. Dies spiegelt sich in unserem jüngsten Transparenzbericht in einem Aufwärtstrend der Zahl der gemeldeten und von uns verfolgten Fälle sowie in den sinkenden Prävalenzraten für Verstöße auf Snapchat insgesamt wider.


Außergerichtlich beigelegte Fälle (Artikel 24.1(a))

Im Zeitraum unseres neuesten Transparenzberichts (H2 2023) wurden gemäß DSA keine außergerichtlichen Streitschlichtungsorgane angerufen. Also lag die Anzahl der Streitfälle, die solchen Stellen vorgelegt wurden, in diesem Zeitraum bei Null (0) und wir können dementsprechend keine Ergebnisse oder mittleren Bearbeitungszeiten für solcherlei Beilegung von Streitfällen angeben, und ebenso keinen Anteil an geschlichteten Streitfällen, bei denen wir den Beschluss einer Schlichtungsstelle umgesetzt hätten. 



Accountsperren (Artikel 24.1(b))

Im H2 2023 kam es zu keinen Accountsperrungen gemäß Artikel 23. Das Trust-&-Safety-Team von Snap hat Verfahren eingerichtet, mit denen der Handlungsspielraum solcher Nutzerkonten eingeschränkt wird, seitens derer häufig offenkundig unbegründete Meldungen oder Beschwerden vorgebracht werden. Diese Verfahren unterbinden unter anderem die Erstattung doppelter Meldungen/Berichte und sie verwenden E-Mail-Filter, um weitere Meldungen durch solche Nutzer zu verhindern, die häufig offenkundig unbegründete Meldungen erstattet haben. Snaps angemessenes Vorgehen gegen Accounts wird in unserem „Explainer“ zu Moderation, Durchsetzung und Einsprüchen bei Snapchat erläutert. Informationen über den jeweiligen Umfang von Snaps Durchsetzungsmaßnahmen gegen Accounts findest du in unserem Transparenzbericht (H2 2023). Solcherlei Maßnahmen werden weiterhin kontinuierlich überprüft und iteriert.


Ressourcen, Fachwissen und Unterstützung für Moderatoren (Artikel 42.2)

Unser Inhalte-Moderationsteam ist weltweit tätig und kann so rund um die Uhr für die Sicherheit von Snapchattern sorgen. Nachstehend findest du eine Aufschlüsselung unserer Ressourcen für menschliche Moderation, geordnet nach den Sprachen der Moderatoren (zu beachten: Einige Moderatoren sind auf mehrere Sprachen spezialisiert) mit Stand vom 31. Dezember 2023:

Die obige Tabelle enthält alle Moderatoren, die ab dem 31. Dezember 2023 die Sprachen der EU-Mitgliedstaaten unterstützen. In Situationen, in denen wir zusätzliche sprachliche Unterstützung benötigen, greifen wir auf Übersetzungsdienste zurück.

Moderatoren werden auf der Grundlage einer Standardstellenbeschreibung eingestellt, die je nach Bedarf auch eine bestimmte Sprachanforderung voraussetzt. Die Sprachanforderung besagt, dass der Bewerber die Sprache in Wort und Schrift fließend beherrschen und über mindestens ein Jahr Berufserfahrung für Einstiegspositionen verfügen sollte. Die Bewerber müssen die Anforderungen an Ausbildung und Hintergrund erfüllen, um berücksichtigt zu werden. Die Bewerber müssen außerdem ein Verständnis für die aktuellen Ereignisse in dem Land oder der Region nachweisen, in dem/der sie die Moderation von Inhalten übernehmen.

Unser Moderationsteam wendet unsere Richtlinien und Durchsetzungsmaßnahmen an, um unsere Snapchat Community zu schützen. Die Schulung für neue Teammitglieder erstreckt sich über einen mehrwöchigen Zeitraum, in dem sie mit den Richtlinien, Tools und Eskalationsverfahren von Snap vertraut gemacht werden. Nach der Schulung muss jeder Moderator eine Zertifizierungsprüfung ablegen, bevor er Inhalte überprüfen darf. Unser Moderationsteam nimmt regelmäßig an Auffrischungsschulungen teil, die für die jeweiligen Workflows relevant sind, insbesondere dann, wenn wir mit grenzwertigen und kontextabhängigen Fällen konfrontiert werden. Wir führen auch Fortbildungsprogramme, Zertifizierungssitzungen und Quizze durch, um sicherzustellen, dass alle Moderatoren auf dem neuste Stand sind und in Übereinstimmung mit allen aktualisierten Richtlinien arbeiten. Und wenn dringende Inhaltstrends aufgrund aktueller Ereignisse auftauchen, verbreiten wir schnell Klarstellungen zu den Richtlinien, damit die Teams entsprechend den Richtlinien von Snap reagieren können.

Wir bieten unserem Moderationsteam – den "digitalen Ersthelfern" von Snap – umfangreiche Unterstützung und Ressourcen, einschließlich Wellness-Unterstützung bei der Arbeit und einfachen Zugriff auf psychische Gesundheitsversorgung. 

Medienscanning-Bericht über die sexuelle Ausbeutung und den Missbrauch von Kindern (CSEA)


Hintergrund

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.


Wir nutzen PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.


Bericht

Die nachstehenden Daten basieren auf dem Ergebnis einer proaktiven Überprüfung mit PhotoDNA und/oder CSAI Match von Medien, die von der Kamerarolle eines Nutzers auf Snapchat hochgeladen wurden.

Der Kampf gegen die sexuelle Ausbeutung von Kindern hat oberste Priorität. Snap setzt dafür erhebliche Ressourcen ein und hat keine Toleranz für solches Verhalten.  Für die Prüfung von Einsprüchen im Bereich CSE (Child Sexual Explotation: Sexuelle Ausbeutung von Kindern) ist eine spezielle Schulung erforderlich. Da in diesem Bereich explizite Abbildungen untersucht werden, ist das Ermittlungsteam auf eine begrenzte Anzahl von Mitarbeitern beschränkt.  Im Herbst 2023 hat Snap Änderungen an seinen Richtlinien vorgenommen, die sich auf die Konsistenz konkreter Maßnahmen zur Durchsetzung der CSE-Vorschriften auswirken. Wir sind bestehenden Unstimmigkeiten durch Schulungen der Mitarbeiter und durch eine Verschärfung unserer Qualitätssicherung entgegengetreten. Wir gehen davon aus, dass der nächste Transparenzbericht Fortschritte bei den Reaktionszeiten für Einsprüche im Bereich CSE und bei der Optimierung der unmittelbaren Reaktion auf solche Hinweise aufzeigen wird.  

Sicherheitsvorkehrungen für die Moderation von Inhalten

Die Sicherheitsvorkehrungen für das CSEA-Medienscanning sind im Abschnitt „Sicherheitsvorkehrungen für die Moderation von Inhalten“ in unserem DSA-Bericht aufgeführt.


Medienscanning-Bericht über die sexuelle Ausbeutung und den Missbrauch von Kindern (CSEA)


Hintergrund

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.


Wir nutzen PhotoDNA robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.


Bericht

Die nachstehenden Daten basieren auf dem Ergebnis einer proaktiven Überprüfung mit PhotoDNA und/oder CSAI Match von Medien, die von der Kamerarolle eines Nutzers auf Snapchat hochgeladen wurden.

Der Kampf gegen die sexuelle Ausbeutung von Kindern hat oberste Priorität. Snap setzt dafür erhebliche Ressourcen ein und hat keine Toleranz für solches Verhalten.  Für die Prüfung von Einsprüchen im Bereich CSE (Child Sexual Explotation: Sexuelle Ausbeutung von Kindern) ist eine spezielle Schulung erforderlich. Da in diesem Bereich explizite Abbildungen untersucht werden, ist das Ermittlungsteam auf eine begrenzte Anzahl von Mitarbeitern beschränkt.  Im Herbst 2023 hat Snap Änderungen an seinen Richtlinien vorgenommen, die sich auf die Konsistenz konkreter Maßnahmen zur Durchsetzung der CSE-Vorschriften auswirken. Wir sind bestehenden Unstimmigkeiten durch Schulungen der Mitarbeiter und durch eine Verschärfung unserer Qualitätssicherung entgegengetreten. Wir gehen davon aus, dass der nächste Transparenzbericht Fortschritte bei den Reaktionszeiten für Einsprüche im Bereich CSE und bei der Optimierung der unmittelbaren Reaktion auf solche Hinweise aufzeigen wird.  

Sicherheitsvorkehrungen für die Moderation von Inhalten

Die Sicherheitsvorkehrungen für das CSEA-Medienscanning sind im Abschnitt „Sicherheitsvorkehrungen für die Moderation von Inhalten“ in unserem DSA-Bericht aufgeführt.


Der Kampf gegen die sexuelle Ausbeutung von Kindern hat oberste Priorität. Snap setzt dafür erhebliche Ressourcen ein und hat keine Toleranz für solches Verhalten.  Für die Prüfung von Einsprüchen im Bereich CSE (Child Sexual Explotation: Sexuelle Ausbeutung von Kindern) ist eine spezielle Schulung erforderlich. Da in diesem Bereich explizite Abbildungen untersucht werden, ist das Ermittlungsteam auf eine begrenzte Anzahl von Mitarbeitern beschränkt.  Im Herbst 2023 hat Snap Änderungen an seinen Richtlinien vorgenommen, die sich auf die Konsistenz konkreter Maßnahmen zur Durchsetzung der CSE-Vorschriften auswirken. Wir sind bestehenden Unstimmigkeiten durch Schulungen der Mitarbeiter und durch eine Verschärfung unserer Qualitätssicherung entgegengetreten. Wir gehen davon aus, dass der nächste Transparenzbericht Fortschritte bei den Reaktionszeiten für Einsprüche im Bereich CSE und bei der Optimierung der unmittelbaren Reaktion auf solche Hinweise aufzeigen wird.  

Sicherheitsvorkehrungen für die Moderation von Inhalten

Die Sicherheitsvorkehrungen für das CSEA-Medienscanning sind im Abschnitt „Sicherheitsvorkehrungen für die Moderation von Inhalten“ in unserem DSA-Bericht aufgeführt.


Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:

Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt: