Snap Values
Transparenzbericht
1. Juli 2024 – 31. Dezember 2024

Veröffentlicht:

20. Juni 2025

Aktualisiert:

1. Juli 2025

Wir veröffentlichen diesen Transparenzbericht zweimal im Jahr, um Einblicke in die Sicherheitsbemühungen von Snap zu geben. Im Rahmen unserer Verpflichtung zu Sicherheit und Transparenz, bemühen wir uns ständig darum, diese Berichte für unsere zahlreichen Stakeholder noch umfassender und informativer zu gestalten, die sich für unsere Inhaltsmoderation, unsere Strafverfolgungspraktiken und die Sicherheit und das Wohlergehen der Snapchat Community einsetzen. 

Dieser Transparenzbericht deckt die zweite Hälfte des Jahres 2024 (1. Juli – 31. Dezember) ab. Wir teilen globale Daten über Meldungen von Nutzern und die proaktive Erkennung durch Snap; Durchsetzungen durch unsere Sicherheitsteams in bestimmten Kategorien von Verstößen gegen die Community-Richtlinien; wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben; und wie wir auf Mitteilungen über Urheberrechts- und Markenverletzungen reagiert haben. Wir bieten außerdem länderspezifische Einblicke in eine Reihe von verlinkten Seiten.

Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unsere Registerkarte Über Transparenzberichterstattung unten.

Bitte beachte, dass die aktuellste Version dieses Transparenzberichts die englische Version ist.

Übersicht über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien

Unsere Sicherheitsteams setzen unsere Community-Richtlinien sowohl proaktiv (durch die Verwendung automatisierter Erkennungstools) als auch reaktiv (als Antwort auf Meldungen) durch, wie in den folgenden Abschnitten dieses Berichts weiter beschrieben. In diesem Berichtszyklus (H2 2024) haben unsere Sicherheitsteams die folgende Anzahl von Durchsetzungen übernommen:

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

10.032.110

5.698.212

Nachfolgend findest du eine Aufschlüsselung nach Art der betreffenden Community-Richtlinien-Verstöße, einschließlich der durchschnittlichen „Bearbeitungszeit“ zwischen dem Zeitpunkt der Identifizierung des Verstoßes (entweder proaktiv oder reaktiv auf eine Meldung) und dem Zeitpunkt der endgültigen Aktion zum betreffenden Inhalt oder dem Account:

Richtliniengrund

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion

Sexuelle Inhalte

3.860.331

2.099.512

2

Sexuelle Ausbeutung von Kindern

961.359

577.682

23

Belästigung und Mobbing

2.716.966

2.019.439

7

Bedrohungen und Gewalt

199.920

156.578

8

Selbstverletzung und Selbstmord

15.910

14.445

10

Falsche Informationen

6.539

6.176

1

Identitätsbetrug

8.798

8.575

2

Spam

357.999

248.090

1

Drogen

1.113.629

718.952

6

Waffen

211.860

136.953

1

Andere regulierte Güter

247.535

177.643

8

Hassrede

324.478

272.025

27

Terrorismus und gewalttätiger Extremismus

6.786

4.010

5

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent. Das bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Community-Richtlinien verstieß.

Verstöße gegen Community-Richtlinien, die unseren Vertrauens- und Sicherheitsteams gemeldet wurden

Vom 1. Juli bis zum 31. Dezember 2024 haben die Sicherheitsteams von Snap als Antwort auf In-App-Meldungen über Verstöße gegen unsere Community-Richtlinien weltweit insgesamt 6.346.508 Durchsetzungsmaßnahmen ergriffen, einschließlich Durchsetzungen gegen 4.075.838 einzigartige Accounts. Die durchschnittliche Bearbeitungszeit bis zum Ergreifen von Maßnahmen durch unsere Sicherheitsteams in Folge solcher Meldungen lag bei ~6 Minuten. Nachfolgend wird eine Aufschlüsselung nach Berichtskategorie bereitgestellt.

Gesamtzahl zu Inhalts- und Account-Meldungen

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

19.379.848

6.346.508

4.075.838

Richtliniengrund

Inhalts- und Account-Meldungen

Vollstreckungen insgesamt

% aller Berichte, bei denen Snap Maßnahmen ergriffen hat

Gesamtzahl der vollstreckten individuellen Konten

Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion

Sexuelle Inhalte

5.251.375

2.042.044

32,20 %

1.387.749

4

Sexuelle Ausbeutung von Kindern

1.224.502

469.389

7,40 %

393.384

133

Belästigung und Mobbing

6.377.555

2.702.024

42,60 %

2.009.573

7

Bedrohungen und Gewalt

1.000.713

156.295

2,50 %

129.077

8

Selbstverletzung und Selbstmord

307.660

15.149

0,20 %

13.885

10

Falsche Informationen

536.886

6.454

0,10 %

6.095

1

Identitätsbetrug

678.717

8.790

0,10 %

8.569

2

Spam

1.770.216

180.849

2,80 %

140.267

1

Drogen

418.431

244.451

3,90 %

159.452

23

Waffen

240.767

6.473

0,10 %

5.252

1

Andere regulierte Güter

606.882

199.255

3,10 %

143.560

8

Hassrede

768.705

314.134

4,90 %

263.923

27

Terrorismus und gewalttätiger Extremismus

197.439

1.201

< 0,1 %

1.093

4

Im Vergleich zum vorherigen Berichtszeitraum haben wir die durchschnittlichen Bearbeitungszeiten in allen Richtlinienkategorien um durchschnittlich 90 % reduziert. Diese Reduzierung war zum großen Teil auf die gemeinsamen Bemühungen zurückzuführen, unsere Überprüfungskapazität zu erweitern und unsere Priorisierung von Berichten auf der Grundlage des Schweregrades des Schadens zu verbessern. Wir haben im Berichtszeitraum auch mehrere gezielte Änderungen an unseren Sicherheitsbemühungen vorgenommen, die sich auf die hier gemeldeten Daten auswirkten, einschließlich der Ausweitung unserer Bemühungen, Accounts für Nutzernamen und Anzeigenamen durchzusetzen, die gegen unsere Community-Richtlinien verstoßen, die Einführung von verstärkten Meldungen und Schutzes für Communities auf Snapchat und die Einführung von Meldeoptionen für zusätzliche Medientypen, wie etwa Voicenotes, direkt an uns in der App. 

Diese Änderungen sowie andere Sicherheitsbemühungen und externe Kräfte haben im Vergleich zum vorherigen Berichtszeitraum insbesondere bestimmte Richtlinienbereiche beeinflusst. Zu diesen Richtlinienkategorien gehören: Inhalte im Zusammenhang mit mutmaßlicher sexueller Ausbeutung und Missbrauch von Kindern (CSEA), schädliche Falschinformationen und Spam. Konkret heißt das:

  • CSEA: In der zweiten Hälfte des Jahres 2024 haben wir einen Rückgang der CSEA-bezogenen Berichte um 12 % beobachtet und unsere durchschnittliche Bearbeitungszeit für die Antwort auf die gemeldete CSEA um 99 % reduziert. Diese Trends werden hauptsächlich durch die kontinuierlichen Fortschritte in unseren proaktiven Erkennungsbemühungen bestimmt, die es uns ermöglicht haben, CSEA-Inhalte zu entfernen, bevor sie an uns gemeldet werden konnten, und durch Verbesserungen in unseren Prozessen vorgenommen, um CSEA-Meldungen effizienter zu überprüfen und zu handeln. Selbst mit diesen Verbesserungen ist unsere CSEA-Bearbeitungszeit höher als in anderen Richtlinien, da die Inhalte einem spezialisierten Prozess unterliegen, der eine doppelte Überprüfung durch ein ausgewähltes Team speziell geschulter Agenten umfasst.

  • Gefährliche Falschinformationen: Wir haben einen Anstieg der gemeldeten Menge an Meldungen im Zusammenhang mit schädlichen Falschinformationen beobachtet, der in erster Linie auf politische Ereignisse zurückzuführen ist, einschließlich der Wahlen in den USA im November 2024.

  • Spam: In diesem Berichtszeitraum konnten wir einen Rückgang von ~50 % der Durchsetzungsmaßnahmen und einen Rückgang von ~46 % der Gesamtzahl der einzigartigen Accounts verzeichnen, die als Reaktion auf Meldungen über vermuteten Spam durchgesetzt wurden, was auf Verbesserungen in unseren proaktiven Erkennungs- und Durchsetzungstools zurückzuführen ist. Dies ist eine Fortsetzung unserer Bemühungen, Spam über Account-Signale zu bekämpfen und Spam-Akteure früher in ihren Aktivitäten auf der Plattform zu entfernen. Diese Bemühungen waren bereits im letzten Berichtszeitraum im Gange, in dem die Gesamtzahl der Durchsetzungen und die Gesamtzahl der für Spam durchgesetzten eindeutigen Accounts um ~65 % bzw. ~60 % zurückgegangen.

Unsere Bemühungen um die proaktive Identifizierung und Verfolgung von Verstößen gegen unsere Community-Richtlinien

Proaktives Identifizierung und Durchsetzung unserer Community-Richtlinien


Wir verwenden automatisierte Tools, um Verstöße gegen unsere Community-Richtlinien proaktiv zu erkennen und in einigen Fällen gegen sie vorzugehen. Zu diesen Tools gehören die Hash-Matching-Technologie (einschließlich PhotoDNA und Child Sexual Abuse Imagery (CSAI) Match von Google), die Content-Sicherheits-API von Google und andere benutzerdefinierte Technologien, die missbräuchliche Texte und Medien erkennen und manchmal künstliche Intelligenz und maschinelles Lernen nutzen. 

In der zweiten Hälfte des Jahres 2024 haben wir die folgenden Durchsetzungsmaßnahmen ergriffen, nachdem wir Verstöße gegen unsere Community-Richtlinien proaktiv mit automatisierten Erkennungstools entdeckt haben:

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

3.685.602

1.845.125

Richtliniengrund

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion

Sexuelle Inhalte

1.818.287

828.590

<1

Sexuelle Ausbeutung von Kindern

491.970

188.877

1

Belästigung und Mobbing

14.942

11.234

8

Bedrohungen und Gewalt

43.625

29.599

9

Selbstverletzung und Selbstmord

761

624

9

Falsche Informationen

85

81

10

Identitätsbetrug

8

6

19

Spam

177.150

110.551

<1

Drogen

869.178

590.658

5

Waffen

205.387

133.079

<1

Andere regulierte Güter

48.280

37.028

9

Hassrede

10.344

8.683

10

Terrorismus und gewalttätiger Extremismus

5.585

2.951

21

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von CSEA auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir verwenden aktive Technologie-Erkennungstools, um CSEA-bezogene Inhalte zu identifizieren. Zu diesen Tools gehören Hash-Match-Tools (einschließlich PhotoDNA und CSAI Match von Google, um bekannte illegale Bilder und Videos von CSEA zu identifizieren) und die Google Content-Sicherheits-API (um neuartige, „noch nie zuvor gehashte“ illegale Bilder zu identifizieren). Darüber hinaus verwenden wir in einigen Fällen Verhaltenssignale, um gegen andere vermutete CSEA-Aktivitäten vorzugehen. Wie gesetzlich vorgeschrieben melden wir dem U.S. National Center for Missing and Exploited Children (NCMEC) CSEA-bezogene Inhalte. Das NCMEC koordiniert sich dann nach Bedarf mit den nationalen oder internationalen Strafverfolgungsbehörden.

Im 2. Halbjahr 2024 haben auf die Identifizierung von CSEA auf Snapchat hin die folgenden Maßnahmen ergriffen (entweder proaktiv oder folgend auf eine Meldung):


Gesamt: Inhalte, gegen die Maßnahmen ergriffen wurden

Gesamtzahl der deaktivierten Konten

Gesamte Einreichungen bei NCMEC*

1.228.929

242.306

417.842

*Beachte, dass jede Einreichung bei NCMEC mehrere Inhalte enthalten kann. Die Gesamtzahl der bei NCMEC eingereichten Medien entspricht dem Gesamtinhalt, gegen den wir Maßnahmen ergriffen haben.

Unsere Bemühungen, Snapchattern in Not Ressourcen und Unterstützung zu bieten

Snapchat ermöglicht es Freunden, sich in schwierigen Zeiten zu helfen, indem es Ressourcen und Support für Snapchatter in Not bereitstellt. 

Unser Here For You Suchtool bietet Ressourcen von Experten, wenn Nutzer nach bestimmten Themen im Zusammenhang mit psychischer Gesundheit, Angstzuständen, Depression, Stress, Selbstmordgedanken, Trauer und Mobbing suchen. Außerdem haben wir eine Seite entwickelt, die sich mit finanzieller Sextortion und anderen sexuellen Risiken und Schäden befasst, um Menschen in Not zu unterstützen. Unsere globale Liste mit Sicherheitsressourcen ist für alle Snapchatter in unserem Hub für Datenschutz, Sicherheit und Richtlinien verfügbar. 
Wenn unsere Sicherheitsteams von einem Snapchatter in Not erfahren, sind sie in der Lage, um  Ressourcen zur Prävention und Unterstützung von Selbstverletzungen bereitzustellen und bei Bedarf die Notdienste zu benachrichtigen. Die Ressourcen, die wir teilen, sind in unserer globalen Liste der Sicherheitsressourcen verfügbar, die für alle Snapchatter verfügbar ist.

Gesamtanzahl der geteilten Inhalte zum Thema Selbstmord

64.094

Einsprüche

Im Folgenden findest du Informationen zu Einsprüchen, die wir von Nutzern erhalten haben, die eine Überprüfung unserer Entscheidung, ihren Account in der zweiten Hälfte des Jahres 2024 zu sperren, beantragt haben:

Richtliniengrund

Gesamtzahl der Anfechtungen

Gesamtzahl der Wiederherstellungen

Gesamtzahl der aufrechterhaltenen Entscheidungen

Mittlere Bearbeitungszeit (Tage) für die Bearbeitung von Einsprüchen

GESAMT

493.782

35.243

458.539

5

Sexuelle Inhalte

162.363

6.257

156.106

4

Sexuelle Ausbeutung von Kindern

102.585

15.318

87.267

6

Belästigung und Mobbing

53.200

442

52.758

7

Bedrohungen und Gewalt

4.238

83

4.155

5

Selbstverletzung und Selbstmord

31

1

30

5

Falsche Informationen

3

0

3

<1

Identitätsbetrug

847

33

814

7

Spam

19.533

5.090

14.443

9

Drogen

133.478

7.598

125.880

4

Waffen

4.678

136

4.542

6

Andere regulierte Güter

9.153

168

8.985

6

Hassrede

3.541

114

3.427

7

Terrorismus und gewalttätiger Extremismus

132

3

129

9

Regionale und Länderübersicht

Dieser Abschnitt bietet einen Überblick über die Maßnahmen unserer Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien, sowohl proaktiv als auch als Antwort auf In-App-Meldungen von Verstößen, in einer Auswahl geografischer Regionen. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – auf der ganzen Welt, unabhängig vom Standort.

Informationen zu einzelnen Ländern, einschließlich aller EU-Mitgliedsstaaten, können über die angehängte CSV-Datei heruntergeladen werden.


Übersicht über die Maßnahmen unserer Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien  

Region

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

Nordamerika

3.828.389

2.117.048

Europa

2.807.070

1.735.054

Rest der Welt

3.396.651

1.846.110

Insgesamt

10.032.110

5.698.212

Verstöße gegen Community-Richtlinien, die unseren Vertrauens- und Sicherheitsteams gemeldet wurden

Region

Inhalts- und Account-Meldungen

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

Nordamerika

5.916.815

2.229.465

1.391.304

Europa

5.781.317

2.085.109

1.378.883

Rest der Welt

7.681.716

2.031.934

1.319.934

Insgesamt

19.379.848

6.346.508

4.090.121

Proaktives Identifizierung und Durchsetzung unserer Community-Richtlinien

Vollstreckungen insgesamt

Gesamtzahl der vollstreckten individuellen Konten

1.598.924

837.012

721.961

417.218

1.364.717

613.969

3.685.602

1.868.199

Anzeigenmoderation

Snap hat sich verpflichtet, sicherzustellen, dass alle Anzeigen vollständig mit unseren Werberichtlinien übereinstimmen. Wir glauben an einen verantwortungsvollen Ansatz für Werbung, der ein sicheres Erlebnis für alle Snapchatter schafft. Alle Anzeigen unterliegen der Überprüfung und Zustimmung durch uns. Darüber hinaus behalten wir uns das Recht vor, Anzeigen zu entfernen, auch als Reaktion auf Nutzerfeedback, das wir sehr ernst nehmen. 


Nachfolgend geben wir einen Einblick in unsere Moderation für bezahlte Anzeigen, die uns nach ihrer Veröffentlichung auf Snapchat gemeldet werden. Beachte, dass Anzeigen auf Snapchat aus einer Vielzahl von Gründen entfernt werden können, wie in den Werberichtlinien von Snap dargelegt, einschließlich betrügerischer Inhalte, nicht jugendfreier Inhalte, gewalttätiger oder störender Inhalte, Hassreden und Verletzungen des geistigen Eigentums. Darüber hinaus kannst du die Anzeigen-Galerie von Snapchat jetzt im Transparenz-Hub von Snap finden, auf den du direkt über die Navigationsleiste zugreifen kannst.

Gesamtanzahl der gemeldeten Anzeigen

Gesamtanzahl der gelöschten Anzeigen

43.098

17.833