25. Oktober 2024
17. Dezember 2024
Willkommen auf unserer Transparenzseite für die Europäische Union (EU). Hier veröffentlichen wir EU-spezifische Informationen, die erforderlich sind gemäß den Vorschriften aus dem Gesetz über digitale Dienste (Digital Services Act, DSA), der Richtlinie über audiovisuelle Mediendienste (Audiovisual Media Services Directive, AVMSD), dem niederländischen Mediengesetz (DMA) und der Verordnung über Online-Terrorismus (Terrorist Content Online Regulation – TCO). Bitte beachte, dass die aktuellste Version dieser Transparenzberichte in der Sprachversion en-US zu finden ist.
Snap Group Limited hat Snap B.V. zu seinem gesetzlichen Vertreter für die Zwecke des DSA ernannt. Kontaktieren kannst du den Vertreter unter dsa-enquiries [at] snapchat.com für das DSA, unter vsp-enquiries [at] snapchat.com für AVMSD und DMA, über tco-enquiries [at] snapchat.com für die TCO, über unsere Support-Website [hier] oder unter:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Niederlande
Wenn du eine Strafverfolgungsbehörde vertrittst, befolge bitte die hier beschriebenen Schritte.
Bitte kommuniziere auf Englisch oder Niederländisch, wenn du uns kontaktierst.
In Bezug auf den DSA werden wir von der Europäischen Kommission und der niederländischen Behörde für Verbraucher und Märkte (ACM) reguliert. Für AVMSD und das DMA werden wir von der niederländischen Medienbehörde CvdM reguliert. Bezüglich der TCO unterliegen wir der Kontrolle der Niederländischen Behörde zum Kampf gegen Online-Inhalte im Bereich Terrorismus und Kindesmissbrauch (ATKM).
Zuletzt aktualisiert: 25. Oktober 2024
Wir veröffentlichen diesen Bericht über unsere Bemühungen zur Inhaltsmoderation auf Snapchat in Übereinstimmung mit den Transparenzanforderungen der Artikel 15, 24 und 42 des Gesetzes über digitale Dienstleistungen der EU (EU-Verordnung 2022/2065). Sofern nicht anders angegeben, beziehen sich die Informationen dieses Berichts auf den Zeitraum vom 1. Januar 2024 bis 30. Juni 2024 (1. Halbjahr 2024) und umfassen die Moderation von Inhalten über die Funktionen von Snapchat, die in den Anwendungsbereich des Gesetzes über digitale Dienstleistungen fallen.
Wir streben stets danach, unsere Berichte zu verbessern. Für diesen Berichtszeitraum (1. Halbjahr 2024) haben wir die Struktur des Berichts mit neuen und vielfältigeren Tabellen überarbeitet, um einen besseren Einblick in unsere Bemühungen zur Inhaltsmoderation zu bieten.
Mit Stand vom 1. August 2024 haben wir in der EU pro Monat durchschnittlich 92,4 Millionen aktive Empfänger in unserer Snapchat App. Das bedeutet, dass im Durchschnitt der letzten 6 Monate bis zum 30. September 2024 92,9 Millionen registrierte Nutzer in der EU die Snapchat App mindestens einmal im Monat geöffnet haben.
Diese Zahl ist wie folgt nach Mitgliedstaaten aufgeschlüsselt:
Diese Zahlen wurden berechnet, um die aktuellen Vorschriften des Gesetzes über digitale Dienstleistungen zu erfüllen, und sollten nur für entsprechende Zwecke verwendet werden. Wir haben die Art und Weise, wie wir diese Zahl im Laufe der Zeit berechnen, geändert, auch als Reaktion auf geänderte interne Richtlinien, Richtlinien für die Regulierungsbehörden und Technologien. Die Zahlen sind nicht für einen Vergleich zwischen Zeiträumen vorgesehen. Dies kann auch von den Berechnungen abweichen, die für andere aktive Nutzerzahlen verwendet werden, die wir für andere Zwecke veröffentlichen.
Während dieses Berichtszeitraums (1. Halbjahr 2024) haben wir von den Behörden der EU-Mitgliedstaaten null (0) Anordnungen erhalten, gegen spezifisch identifizierte illegale Inhalte vorzugehen, einschließlich solcher, die in Übereinstimmung mit Artikel 9 des Gesetzes über digitale Dienstleistungen stehen.
Da diese Zahl bei null (0) liegt, können wir die illegalen Inhalte nicht nach ihrer Art oder dem Mitgliedstaat aufschlüsseln, der die Anordnung erlassen hat. Auch die durchschnittliche Zeit für die Empfangsbestätigung oder die Ausführung der Anordnung kann nicht angegeben werden.
Während dieses Berichtszeitraums (1. Halbjahr 2024) haben wir die folgenden Anordnungen zur Offenlegung von Nutzerdaten vonseiten der Behörden der EU-Mitgliedstaaten erhalten, einschließlich derjenigen, die gemäß Artikel 10 des Gesetzes über digitale Dienstleistungen erlassen wurden:
Die durchschnittliche Zeit die zuständigen Behörden über den Eingang dieser Anordnungen zur Bereitstellung von Informationen zu informieren, betrug 0 Minuten. Wir senden eine automatisierte Antwort zur Eingangsbestätigung.
Die durchschnittliche Zeit, um diese Anordnungen zur Bereitstellung von Informationen umzusetzen, betrug sieben Tage. Diese Kennzahl spiegelt den Zeitraum wider, ab dem Snap eine Anordnung erhalten hat, bis hin zu dem Zeitpunkt, zu dem Snap die Angelegenheit als vollständig gelöst betrachtet. In Einzelfällen kann dies davon abhängen, wie schnell die Behörde des betreffenden Mitgliedstaats auf Klärungsanfragen von Snap reagiert, die für die Bearbeitung erforderlich sind.
Bitte beachte, dass wir die oben genannten Anordnungen nicht nach der Art der betreffenden illegalen Inhalte aufschlüsseln, da uns diese Informationen nicht allgemein zur Verfügung stehen.
Alle Inhalte auf Snapchat müssen unseren Community-Richtlinien und Geschäftsbedingungen entsprechen. Bestimmte Inhalte müssen auch weiteren Richtlinien und Normen entsprechen. Beispielsweise müssen Inhalte, die für algorithmische Empfehlungen an ein breiteres Publikum auf unseren öffentlichen Sendeflächen gepostet werden, die zusätzlichen, höheren Standards unserer Richtlinien für die Empfehlung von Inhalten gerecht werden, während Werbung unseren Werbevorschriften entsprechen muss.
Wir setzen diese Normen mithilfe von Technologie und menschlichen Überprüfungen durch. Außerdem bieten wir Snapchattern Mechanismen, mit denen sie Verstöße einschließlich illegaler Inhalte und Aktivitäten direkt in der App oder auf unserer Website melden können. Mechanismen zur proaktiven Erkennung und Meldungen führen zu einer Überprüfung, bei der dann eine Mischung aus automatisierten Tools und menschlichen Moderatoren eingesetzt wird, um angemessene Schritte in Übereinstimmung mit unseren Vorschriften einzuleiten.
Weitere Informationen über unsere Inhaltsmoderation auf unseren öffentlichen Oberflächen im ersten Halbjahr 2024 findest du im Folgenden.
In Übereinstimmung mit Artikel 16 des Gesetzes über digitale Dienstleistungen hat Snap Mechanismen eingeführt, mit denen sowohl Nutzer als auch Nicht-Nutzer Snap darauf aufmerksam machen können, dass auf der Plattform bestimmte Informationen verbreitet werden, die illegale Inhalte darstellen könnten. Sie können dabei bestimmte Inhalte oder Konten entweder direkt in der Snapchat-App oder auf unserer Website melden.
Während des Berichtszeitraums (1. Halbjahr 2024) haben wir die folgenden Meldungen erhalten, die gemäß Artikel 16 des Gesetzes über digitale Dienstleistungen in der EU eingereicht wurden:
Nachfolgend wird aufgeschlüsselt, wie diese Meldungen verarbeitet wurden, d.h. ob sie von Menschen oder ausschließlich automatisiert überprüft wurden:
Bei Meldungen in der App oder auf der Website kann aus einer Reihe von Optionen für den Grund der Meldung gewählt werden, die in unseren Community-Richtlinien aufgelistet sind (z. B. Hassreden, Drogenkonsum oder -verkauf). Unsere Community-Richtlinien verbieten Inhalte und Aktivitäten, die in der EU illegal sind. Daher spiegeln unsere Meldegründe auch weitgehend bestimmte Kategorien illegaler Inhalte in der EU wider. Wenn ein Melder in der EU allerdings der Meinung ist, dass der von ihm gemeldete Inhalt oder das Konto illegal sind, die Gründe in unserem Meldemenü aber nicht explizit aufgeführt sind, kann er die Meldung mit dem Grund „andere illegale Inhalte“ anzeigen und erklären, warum er den Inhalt für illegal hält.
Wenn wir bei der Überprüfung feststellen, dass ein gemeldeter Inhalt oder ein Konto gegen unsere Community-Richtlinien verstößt (einschließlich aus Gründen der Illegalität), können wir (i) den anstößigen Inhalt entfernen, (ii) den betreffenden Kontoinhaber verwarnen und das Konto vorübergehend sperren und / oder (iii) das betreffende Konto sperren, wie in unserer Erklärung zu Moderation, Vollstreckungen und Einsprüchen genauer erklärt.
Im ersten Halbjahr 2024 haben wir die folgenden Vollzugsmaßnahmen nach dem Erhalt von Meldungen ergriffen, die gemäß Artikel 16 des Gesetzes über digitale Dienstleistungen in der EU eingereicht wurden:
Im ersten Halbjahr 2024 wurden alle Meldungen über „sonstige illegale Inhalte“, gegen die wir vorgegangen sind, schließlich im Rahmen unserer Community-Richtlinien durchgesetzt, da diese Richtlinien die betreffenden Inhalte oder Aktivitäten verbieten. Wir haben diese Vollstreckungen daher in die entsprechende Kategorie der Verstöße gegen die Community-Richtlinien eingeordnet, siehe dazu die Tabelle oben.
Zusätzlich zu den oben aufgeführten Vollstreckungsmaßnahmen können wir auch Maßnahmen zu Inhalten ergreifen, die uns in Übereinstimmung mit anderen einschlägigen Snapchat-Vorschriften und Richtlinien gemeldet werden:
Wenn wir feststellen, dass der gemeldete Inhalt nicht den höheren Standards unserer Inhaltsrichtlinien für Empfehlungsberechtigungen entspricht, können wir ihn für algorithmische Empfehlungen ablehnen (wenn der Inhalt nicht unseren Berechtigungskriterien entspricht) oder die Verbreitung des Inhalts so begrenzen, dass ein sensibles Publikum nicht zugreifen kann (wenn der Inhalt unsere Berechtigungskriterien für eine Empfehlung erfüllt, ansonsten aber sensibel oder suggestiv ist).
Im ersten Halbjahr 2024 haben wir die folgenden Maßnahmen zu auf Snapchats öffentlichen Sendeflächen verbreiteten Inhalten ergriffen, die uns in der EU gemeldet wurden, in Übereinstimmung mit unsere Inhaltsrichtlinien für die Empfehlungsberechtigung:
Wenn eine gemeldete Werbung gegen unsere Richtlinien verstößt, können wir sie nach einer Prüfung entfernen.
Im ersten Halbjahr 2024 haben wir die folgenden Maßnahmen in Bezug auf uns in der EU gemeldete Werbung ergriffen:
Zusätzlich zur Überprüfung der gemäß Artikel 16 des Datenschutzgesetzes eingereichten Meldungen moderiert Snap auf eigene Initiative Inhalte auf den öffentlichen Oberflächen von Snapchat (z. B. Spotlight, Discover). Nachstehend finden Sie Informationen über die Inhaltsmoderation, die Snap eigenverantwortlich durchgeführt hat, einschließlich der Verwendung automatisierter Tools, der Maßnahmen zur Schulung und Unterstützung der für die Inhaltsmoderation zuständigen Personen und der Anzahl und der Arten der Einschränkungen, die aufgrund dieser proaktiven Bemühungen zur Inhaltsmoderation auferlegt wurden.
Einsatz automatisierter Tools bei der Moderation auf Eigeninitiative von Snap
Wir setzen automatisierte Tools ein, um Verstöße gegen unsere Bedingungen und Richtlinien auf unseren öffentlichen Inhaltsflächen proaktiv zu erkennen und in einigen Fällen diese durchzusetzen. Dazu gehören Hash-Matching-Tools (einschließlich PhotoDNA und Google CSAI-Match), Modelle zur Missbrauchserkennung (diese identifizieren Inhalte basierend auf einer regelmäßig aktualisierten Liste missbräuchlicher Schlüsselbegriffe und Emojis) und Technologien rund um künstliche Intelligenz und maschinelles Lernen. Unsere automatisierten Tools erkennen Verstöße gegen unsere Community-Richtlinien (die unter anderem illegale Inhalte verbieten) und ggf. unsere Inhaltsrichtlinien für Empfehlungsberechtigungen und Werberichtlinien.
Im ersten Halbjahr 2024 wurden alle unsere proaktive Erkennung mithilfe automatisierter Tools durchgeführt. Wenn unsere automatisierten Tools einen möglichen Verstoß gegen unsere Richtlinien erkennen, ergreifen sie entweder automatisch eine Maßnahme gemäß unserer Richtlinien oder sie erstellen eine Aufgabe für die menschliche Überprüfung. Die Anzahl und die Arten der aufgrund dieses Prozesses auferlegten Einschränkungen sind unten beschrieben.
Anzahl und Art der Einschränkungen, die auf die Eigeninitiative von Snap hin auferlegt wurden
Im ersten Halbjahr 2024 hat Snap die folgenden Vollstreckungsmaßnahmen ergriffen, nachdem mithilfe automatisierter Tools proaktiv Verstöße gegen unsere Community-Guidelines (einschließlich illegaler Inhalte und Aktivitäten, die gegen die Gesetze der EU und Mitgliedstaaten verstoßen) erkannt wurden:
Darüber hinaus haben wir im ersten Halbjahr 2024 hinsichtlich unserer Inhalte auf öffentlich-rechtlichen Sendeflächen die folgenden Maßnahmen ergriffen, nachdem wir mithilfe unserer automatisierten Tools proaktiv Verstöße auf Snapchat gegen unsere Richtlinien für die Empfehlungswürdigkeit von Inhalten festgestellt haben:
* Wie in unseren Inhaltsrichtlinien für Empfehlungen angegeben, können Konten, die wiederholt oder in ungeheuerem Maße gegen unsere Inhaltsrichtlinien für Empfehlungen verstoßen, vorübergehend oder dauerhaft von Empfehlungen auf unseren öffentlichen Veröffentlichungsflächen ausgeschlossen werden. Wir wenden diese Maßnahme im Kontext unserer proaktiven Moderation an.
Darüber hinaus haben wir im ersten Halbjahr 2024 die folgenden Maßnahmen ergriffen, nachdem wir auf Snapchat durch den Einsatz automatisierter Tools proaktiv Verstöße gegen unsere Werberichtlinien entdeckt haben:
Maßnahmen zur Schulung und Unterstützung von Personen, die für die Inhaltsmoderation verantwortlich sind
Die Richtlinien für die Inhaltsmoderation und deren Anwendung durch unser Inhaltsmoderationsteam dienen dem Schutz unserer Snapchat-Community. Über den Verlauf einer Woche werden neue Teammitglieder zu den Snap-Richtlinien, Tools und Eskalationsverfahren geschult. Unsere Moderationsteams absolvieren regelmäßig relevante Schulungen zur Auffrischung, insbsondere, was grenzwertige und kontextabhängige Fälle betrifft. Wir führen auch Fortbildungsprogramme, Zertifizierungssitzungen und Quizze durch, um sicherzustellen, dass alle Moderatoren auf dem neuste Stand sind und in Übereinstimmung mit allen aktualisierten Richtlinien arbeiten. Und wenn dringende Inhaltstrends aufgrund aktueller Ereignisse auftauchen, verbreiten wir schnell Klarstellungen zu den Richtlinien, damit die Teams entsprechend den Richtlinien von Snap reagieren können.
Wir stellen unseren Inhaltsmoderationsteams umfangreiche Unterstützung und Ressourcen bereit. Dazu zählen auch Wellness-Unterstützung am Arbeitsplatz sowie der Zugang zu psychologischen Diensten.
Nutzer, deren Konten von unseren Sicherheitsteams wegen Verstößen gegen die Community-Richtlinien gesperrt wurden (einschließlich illegaler Inhalte und Aktivitäten) können einen Einspruch wegen ihres gesperrten Kontos einreichen. Nutzer können auch Beschwerde gegen bestimmte Entscheidungen zur Inhaltsmoderation einreichen.
Während des Berichtszeitraums (1. Halbjahr 2024) bearbeitete Snap die folgenden Beschwerden (einschließlich Beschwerden gegen sowohl Kontosperrungen als auch Inhaltsmoderations-Entscheidungen), die über die internen Beschwerdesysteme in der EU eingereicht wurden:
Qualitative Beschreibung und Ziele
Wie in Abschnitt 3(b) erklärt verwenden wir automatisierte Tools, um proaktiv Verstöße gegen unsere Geschäftsbedingungen und Richtlinien in unseren öffentlichen Inhalten zu erkennen und ggf. auch dagegen vorzugehen. Dazu gehören Hash-Matching-Tools (einschließlch PhotoDNA und Google CSAI-Match), Modelle zur Missbrauchserkennung (diese identifizieren Inhalte basierend auf einer regelmäßig aktualisierten Liste missbräuchlicher Schlüsselbegriffe und Emojis und lehnen diese ab) und Technologien rund um künstliche Intelligenz und maschinelles Lernen. Unsere automatisierten Tools erkennen Verstöße gegen unsere Community-Richtlinien (die unter anderem illegale Inhalte verbieten) und ggf. auch gegen unsere Inhaltsrichtlinien für Empfehlungsberechtigungen und Werberichtlinien.
Wenn unsere automatisierten Tools einen möglichen Verstoß gegen unsere Richtlinien erkennen, ergreifen sie entweder automatisch eine Maßnahme gemäß unserer Richtlinien oder sie erstellen eine Aufgabe für die menschliche Überprüfung.
Indikatoren für die Genauigkeit und mögliche Fehlerrate nach Mitgliedstaat
Wir überwachen die Genauigkeit unserer automatisierten Moderationstools, indem wir zufällige Stichproben von Aufgaben auswählen, die unsere automatisierten Tools auf unseren öffentlichen Oberflächen verarbeiten und sie zur erneuten Überprüfung durch unsere menschlichen Moderationsteams einreichen. Die Genauigkeitsrate ist der Prozentsatz der Aufgaben aus diesen zufälligen Stichproben, die von unseren menschlichen Moderatoren bei einer erneuten Überprüfung bestätigt wurden. Die Fehlerrate ist die Differenz zwischen 100 % und der wie oben beschrieben ermittelten Genauigkeitsrate.
Diesen Stichproben zufolge lagen die Indikatoren für die Genauigkeit und die mögliche Fehlerquote der verwendeten automatisierten Mittel für das 1. Halbjahr 2024 in allen Verstoßkategorien bei 93 %, die Fehlerrate hingegen bei etwa 7 %.
Grundsätzlich verfolgen wir die Sprache der Inhalte nicht, die wir auf Snapchat moderieren. Daher können wir keine Aufschlüsselung der Genauigkeit und der Fehlerraten unserer automatisierten Moderationstools für jede offizielle Sprache der Mitgliedstaaten anbieten. Stellvertretend für diese Information liefern wir unten eine Aufschlüsselung über unsere Genauigkeits- und Fehlerraten für automatisch moderierte Inhalte der einzelnen Mitgliedstaaten.
Sicherheitsmaßnahmen
Wir sind uns der möglichen Auswirkungen automatisierter Moderationstools auf die Grundrechte bewusst und streben danach, diese durch Sicherheitsmaßnahmen so gering wie möglich zu halten.
Unsere automatisierten Tools für die Inhaltsmoderation werden vor Ihrem Einsatz bei Snapchat getestet. Die Modelle werden offline getestet und über A/B-Tests implementiert, um sicherzustellen, dass sie ordnungsgemäß funktionieren, bevor sie vollständig in die Produktivumgebung aufgenommen werden. Wir führen vor dem Launch Kontrollen zur Qualitätssicherung (QS), Überprüfungen während der Markteinführung und fortlaufende QS-Kontrollen während schrittweiser Rollouts durch.
Nach der Einführung unserer automatisierten Tools bewerten wir kontinuierlich deren Leistung und Genauigkeit und nehmen bei Bedarf Anpassungen vor. Dieser Prozess beinhaltet die erneute Überprüfung von Stichproben automatisierter Aufgaben durch unsere menschlichen Moderatoren. So sollen Modelle identifiziert werden, deren Genauigkeit durch Anpassungen verbessert werden kann. Wir überwachen auch die Verbreitung bestimmter Risiken auf Snapchat, indem wir täglich Stichproben aus öffentlichen Stories untersuchen. Anhand dieser Informationen identifizieren wir Bereiche, die noch verbessert werden können.
Unsere Richtlinien und Systeme (einschließlich unserer automatisierten Tools) fördern konsequente und faire Vollstreckungsmaßnahmen und bieten Snapchattern die Möglichkeit, Maßnahmendurchsetzungen auf sinnvolle Weise durch Benachrichtigungs- und Beschwerdeverfahren anzufechten, die darauf abzielen, die Interessen unserer Community zu schützen, während sie die Rechte einzelner Snapchatter wahren.
Wir streben danach, unsere automatisierten Tools für die Inhaltsmoderation kontinuierlich zu verbessern und ihre Genauigkeit zu steigern, um die konsequente und faire Durchsetzung unserer Richtlinien zu unterstützen.
Im Berichtszeitraum (1. Halbjahr 2024) lag die Anzahl der Streitigkeiten, die gemäß Artikel 21 des Gesetzes über digitale Dienstleistungen bei offiziell zertifizierten außergerichtlichen Streitbeilegungsstellen eingereicht wurden, bei null (0). Wir können keine Aufschlüsselung der Ergebnisse, der durchschnittlichen Bearbeitungszeiten oder des Anteils der Streitigkeiten bereitstellen, bei denen Snap die Entscheidungen einer außergerichtlichen Streitbeilegungsstelle umgesetzt hat.
Bitte beachte, dass es im ersten Halbjahr 2024 zwei (2) Streitigkeiten gab, die bei einer Stelle eingereicht wurden, die die Zertifizierung als außergerichtliche Streitbeilegungsstelle gemäß Artikel 21 des Gesetzes über digitale Dienstleistungen beantragt hat. Diese Streitigkeiten haben wir nicht in die obige Statistik aufgenommen, da die Stelle, die diese Streitigkeiten übermittelt hat, ihren Zertifizierungsstatus auf unsere Anfrage nicht verifizieren konnte.
Sperrungen gemäß Artikel 23.1: Sperrungen von Konten, die regelmäßig offensichtlich illegale Inhalte verbreiten
Wie in unseren Erläuterungen zu Moderation, Vollstreckungsmaßnahmen und Einsprüchen erläutert, werden Konten sofort deaktiviert, sofern sie in erster Linie dazu verwendet werden, gegen unsere Community-Richtlinien zu verstoßen (einschließlich der Bereitstellung offensichtlich illegaler Inhalte) oder schwere Risiken hervorrufen. Bei allen anderen Verstößen gegen unsere Community-Richtlinien wendet Snap im Allgemeinen ein dreiteiliges Durchsetzungsverfahren an:
Schritt 1: Die rechtsverletzenden Inhalte werden entfernt.
Schritt 2: Der Snapchatter erhält eine Benachrichtigung mit dem Hinweis, dass er gegen unsere Community-Richtlinien verstoßen hat, dass seine Inhalte entfernt wurden und dass wiederholte Verstöße weitere Maßnahmen nach sich ziehen, bis hin zur Deaktivierung seines Accounts.
Schritt 3: Unser Team registriert eine Verwarnung gegen den Account des Snapchatters.
Informationen über die Anzahl an Verwarnungen (Strikes) und Sperrungen im 1. Halbjahr 2024 gegen Konten in der EU im Zusammenhang mit Inhalten oder Aktivitäten auf Snapchats öffentlichen Flächen können oben in den Abschnitt 3(a) und 3(b) gefunden werden.
Aussetzungen gemäß Artikel 23.2: Aussetzung der Bearbeitung von Meldungen und Beschwerden von Einzelpersonen, Organisationen und weiteren, die häufig Meldungen oder Beschwerden einreichen, die offensichtlich unbegründe sind
Unter Anwendung unserer internen Definition von „offensichtlich unbegründeten" Meldungen und Beschwerden, und unserer internen Schwellenwerte für die Häufigkeit derartiger Hinweise und Beschwerden ergibt sich für das 1. Halbjahr 2024 gemäß Artikel 23.2 des Gesetzes über digitale Dienstleistungen folgende Anzahl von Aussetzungen der Bearbeitung von Meldungen und Beschwerden:
Unsere Inhaltsmoderations-Teams sind weltweit tätig und können so rund um die Uhr für die Sicherheit von Snapchattern sorgen. Nachstehend findest du eine Aufschlüsselung unserer Personalressourcen für die Moderation, geordnet nach den Sprachen der Moderatoren (zu beachten: Einige Moderatoren sind auf mehrere Sprachen spezialisiert) mit Stand vom 30. Juni 2024:
Die obige Tabelle enthält alle Personalressourcen für die Inhaltsmoderation, die ab 30. Juni 2024 die offiziellen Sprachen der EU-Mitgliedstaaten unterstützen. In Situationen, in denen wir zusätzliche sprachliche Unterstützung benötigen, greifen wir auf Übersetzungsdienste zurück.
Moderatoren werden auf der Grundlage einer Standardstellenbeschreibung eingestellt, die je nach Bedarf auch eine bestimmte Sprachanforderung voraussetzt. Die Sprachanforderung besagt, dass der Bewerber die Sprache in Wort und Schrift fließend beherrschen und über mindestens ein Jahr Berufserfahrung für Einstiegspositionen verfügen sollte. Die Bewerber müssen die Anforderungen an Ausbildung und persönlichen Hintergrund erfüllen, um berücksichtigt zu werden. Die Bewerber müssen außerdem ein Verständnis für die aktuellen Ereignisse in dem Land oder der Region nachweisen, in dem/der sie die Moderation von Inhalten übernehmen.
Siehe oben für Informationen zu den Schulungen und der Unterstützung, die Snap den Inhaltsmoderatoren bietet, die gemäß Artikel 15(1)(c) des Gesetzes über digitale Dienstleistungen vorgeschrieben sind und deshalb in Abschnitt 3(b) im letzten Unterabschnitt mit der Überschrift "Maßnahmen zur Schulung und Unterstützung von Inhaltsmoderatoren” enthalten sind.
Hintergrund
Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.
Wir nutzen PhotoDNA, robustes Hash-Matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von sexuellem Missbrauch von Kindern zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.
Bericht
Die nachstehenden Daten basieren auf dem Ergebnis einer proaktiven Überprüfung mit PhotoDNA und/oder CSAI Match von Medien, die von der Foto-Mediathek eines Nutzers auf Snapchat hochgeladen wurden.
Der Kampf gegen die sexuelle Ausbeutung von Kindern hat oberste Priorität. Snap setzt dafür erhebliche Ressourcen ein und hat keine Toleranz für solches Verhalten. Für die Prüfung von Einsprüchen im Bereich CSE (Child Sexual Exploitation: Sexuelle Ausbeutung von Kindern) ist eine spezielle Schulung erforderlich. Da in diesem Bereich explizite Abbildungen untersucht werden, ist das Ermittlungsteam auf eine begrenzte Anzahl von Mitarbeitern beschränkt. Im Herbst 2023 hat Snap Änderungen an seinen Richtlinien vorgenommen, die sich auf die Konsistenz konkreter Maßnahmen zur Durchsetzung der CSE-Vorschriften auswirken. Wir sind bestehenden Unstimmigkeiten durch Schulungen der Mitarbeiter und durch eine Verschärfung unserer Qualitätssicherung entgegengetreten. Wir gehen davon aus, dass der nächste Transparenzbericht Fortschritte bei den Reaktionszeiten für Einsprüche im Bereich CSE und bei der Optimierung der unmittelbaren Reaktion auf solche Hinweise aufzeigen wird.
Sicherheitsvorkehrungen für die Moderation von Inhalten
Die Sicherheitsvorkehrungen für das CSEA-Medienscanning sind im Abschnitt „Sicherheitsvorkehrungen für die Moderation von Inhalten“ in unserem DSA-Bericht aufgeführt.
Veröffentlicht: 17. Juni 2024
Letzte Aktualisierung: 17. Juni 2024
Dieser Transparenzbericht wird gemäß Artikel 7(2) und 7(3) der Verordnung 2021/784 des Europäischen Parlaments und des Rates der EU über die Verbreitung terroristischer Inhalte im Internet (die Verordnung) veröffentlicht. Er umfasst den Berichtszeitraum vom 1. Januar bis 31. Dezember 2023.
Artikel 7(3)(a): Informationen über die Maßnahmen des Hosting-Anbieters in Bezug auf die Identifizierung und Entfernung oder die Deaktivierung des Zugangs zu terroristischen Inhalten
Artikel 7(3)(b): Informationen über die vom Hosting-Anbieter ergriffenen Maßnahmen, um das erneute Auftauchen von zuvor entferntem Material oder solchem, zu dem der Zugang gesperrt wurde, weil es als terroristischer Inhalt eingestuft wurde, zu verhindern, insbesondere wenn automatisierte Tools eingesetzt wurden
Terroristen, terroristischen Organisationen und gewalttätigen Extremisten ist die Nutzung von Snapchat untersagt. Inhalte, die Terrorismus oder sonstige gewalttätige, kriminelle Handlungen befürworten, fördern, verherrlichen oder sie vorantreiben, sind gemäß unseren Community-Richtlinien verboten. Nutzer können Inhalte, die gegen unsere Community-Richtlinien verstoßen, über unser In-App-Meldemenü und unsere Support-Website melden. Wir verwenden auch proaktive Erkennungen, um rechtswidrige Inhalte auf öffentlichen Oberflächen wie Spotlight und Entdecken zu identifizieren.
Unabhängig davon, wie wir auf unzulässige Inhalte aufmerksam werden, überprüfen unsere Vertrauens- & Sicherheitsteams durch eine Mischung aus Automatisierung und menschlicher Moderation identifizierte Inhalte umgehend und treffen Entscheidungen bzgl. zu treffender Maßnahmen. Diese Maßnahmen können das Entfernen des Inhalts, die Verwarnung oder die Sperrung des Accounts beinhalten. In einigen Fällen kann der Account auch den Strafverfolgungsbehörden gemeldet werden. Um das erneute Auftauchen terroristischer und anderer gewalttätiger extremistischer Inhalte auf Snapchat zu verhindern, ergreifen wir zusätzlich zur Zusammenarbeit mit den Strafverfolgungsbehörden Maßnahmen, um das mit dem Account verbundene Gerät zu sperren und den Nutzer so daran zu hindern, einen weiteren Snapchat Account zu erstellen.
Weitere Informationen über unsere Maßnahmen zur Erkennung und Entfernung terroristischer Inhalte findest du in unserer Erklärung über hasserfüllte Inhalte, Terrorismus und gewalttätigen Extremismus und unsererErklärung zu Moderation, Vollstreckung und Einsprüchen.
Artikel 7(3)(c): Die Anzahl der Elemente terroristischer Inhalte, die nach Entfernungsanordnungen oder spezifischen Maßnahmen entfernt wurden oder auf die der Zugriff gesperrt wurde und die Anzahl der Entfernungsanordnungen, die gemäß Artikel 3(7) und dem ersten Unterabsatz von Artikel 3(8) nicht entfernt wurden oder auf die der Zugriff gesperrt wurde, zusammen mit den Gründen dafür.
Während des Berichtszeitraums erhielt Snap weder Entfernungsaufträge noch waren wir verpflichtet, bestimmte Maßnahmen gemäß Artikel 5 der Verordnung zu ergreifen. Dementsprechend waren wir im Rahmen der Verordnung nicht verpflichtet, Vollstreckungsmaßnahmen zu ergreifen.
Die folgende Tabelle beschreibt Vollstreckungsmaßnahmen, die auf Grund von Benutzermeldungen und der proaktiven Erkennung von Inhalten und Accounts sowohl in der EU als auch weltweit durchgeführt wurden, weil sie gegen unsere Community-Richtlinien in Bezug auf terroristische Inhalte und gewalttätigen Extremismus verstoßen haben.
Artikel 7 (3)(d): Anzahl und Ergebnis der durch den Hosting-Anbieter bearbeiteten Beschwerden gemäß Artikel 10
Artikel 7(3)(g): Anzahl der Fälle, in denen der Hosting-Anbieter den Inhalt oder Zugang zu demselben nach einer Beschwerde des Inhaltsanbieters wieder bereitgestellt hat
Da wir, wie oben erwähnt, im Berichtszeitraum keine Vollstreckungsmaßnahmen ergriffen haben, wurden keine Beschwerden im Rahmen der Verordnung gemäß Artikel 10 bearbeitet und somit auch keine Wiedereinstellungen vorgenommen.
Die folgende Tabelle bietet Informationen zu Beschwerden und Wiedereinstellungen, sowohl in der EU als auch anderen Ländern, im Zusammenhang mit terroristischen und gewalttätigen extremistischen Inhalten, die gemäß unseren Community-Richtlinien durchgesetzt wurden.
Artikel 7(3)(e): die Anzahl und das Ergebnis der vom Anbieter von Hostingdiensten eingeleiteten verwaltungsrechtlichen oder gerichtlichen Überprüfungsverfahren
Artikel 7(3)(f): Anzahl der Fälle, in denen der Hosting-Anbieter den Inhalt oder den Zugriff darauf aufgrund eines verwaltungsrechtlichen oder gerichtlichen Überprüfungsverfahrens wiederherstellen musste
Da wir während des Berichtszeitraums keine Vollstreckungsmaßnahmen ergriffen haben, wie oben erwähnt, haben wir kein verwaltungsmäßiges oder gerichtliches Überprüfungsverfahren durchgeführt und waren nicht verpflichtet, die Inhalte aufgrund eines solchen Verfahrens wiederherzustellen.
Dieser Bericht wurde erstellt, um Snaps Verpflichtungen gemäß den Artikeln 34 und 35 der Verordnung (EU) 2022/2065 zu erfüllen. Er enthält die Ergebnisse unserer Bewertung der Systemrisiken, die sich aus Design, Funktion und Nutzung der Online-Plattformen von Snapchat ergeben, und er legt die zur Bewertung dieser Risiken verwendete Methodik sowie die mit Blick auf die Risiken ergriffenen Maßnahmen dar.
Bericht zur Bewertung und Begrenzung von Risiken gemäß DSA | Snapchat | August 2023 (PDF)
Diese Berichte wurden erstellt, um Snaps Verpflichtungen gemäß Artikel 37 der Verordnung (EU) 2022/2065 nachzukommen. Sie enthalten (i) die Ergebnisse der unabhängigen Überprüfung der Einhaltung der Verpflichtungen gemäß Kapitel III der Verordnung (EU) 2022/2065 durch Snap und (ii) die ergriffenen Maßnahmen zur Umsetzung der operativen Empfehlungen aus dieser unabhängigen Überprüfung.
Unabhängiger Prüfbericht gemäß DSA | Snapchat | August 2024 (PDF)
Bericht zur Umsetzung der DSA-Prüfung | Snapchat | September 2024 (PDF)
EU VSP-Verfahrenskodex
Snap ist ein Anbieter eines „Video-Sharing-Plattform-Dienstes“ („VSP“) gemäß Artikel 1 (1) (aa) AVMSD. Dieser Verhaltenskodex („Kodex“) wurde erstellt, um zu beschreiben, wie Snap seinen Verpflichtungen als VSP gemäß dem niederländischen Mediengesetz („DMA“) und der EU-Richtlinie 2010/13 (laut Änderung durch EU-Richtlinie 2018/1808, „Richtlinie über audiovisuelle Mediendienste“ oder „AVMSD“) nachkommt. Der Kodex ist in der gesamten Europäischen Union sowie im Europäischen Wirtschaftsraum anwendbar.