Snap Values
Transparenzbericht
1. Januar 2025 bis 30. Juni 2025

Veröffentlicht:

1. Dezember 2025

Aktualisiert:

1. Dezember 2025

Wir veröffentlichen diesen Transparenzbericht zweimal im Jahr, um Einblicke in die Sicherheitsbemühungen von Snap zu geben. Im Rahmen unseres Engagements für Sicherheit und Transparenz bemühen wir uns ständig darum, diese Berichte für unsere zahlreichen Stakeholder noch umfassender und informativer zu gestalten, denn ihnen ist die Moderation unserer Inhalte, unser Ansatz zur Durchsetzung der gesetzlichen Vorschriften und unser Einsatz für die Sicherheit und das Wohlergehen der Snapchat-Community ein ernstes Anliegen. 

Vorliegender Transparenzbericht deckt die erste Hälfte des Jahres 2025 ab (1. Januar bis 30. Juni). Wir teilen globale Daten über Meldungen von Nutzern und die proaktive Erkennung durch Snap; Durchsetzungen durch unsere Sicherheitsteams in bestimmten Kategorien von Verstößen gegen die Community-Richtlinien; wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben; und wie wir auf Mitteilungen über Urheberrechts- und Markenverletzungen reagiert haben. Wir bieten außerdem länderspezifische Einblicke in eine Reihe von verlinkten Seiten.

Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unsere Registerkarte Über Transparenzberichterstattung unten.

Bitte beachte, dass die aktuellste Version dieses Transparenzberichts die englische Version ist.

Übersicht über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien

Unsere Sicherheitsteams setzen unsere Community-Richtlinien sowohl proaktiv (durch die Verwendung automatisierter Erkennungstools) als auch reaktiv (als Antwort auf Meldungen) durch, wie in den folgenden Abschnitten dieses Berichts weiter beschrieben. In diesem Berichtszyklus (H1 2025) haben unsere Sicherheitsteams die folgende Anzahl an Durchsetzungsmaßnahmen ergriffen:

Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

9.674.414

5.794.201

Nachfolgend findest du eine Aufschlüsselung nach der Art der betreffenden Community-Richtlinien-Verstöße, einschließlich der durchschnittlichen Bearbeitungszeit zwischen dem Zeitpunkt der Identifizierung des Verstoßes (entweder proaktiv oder reaktiv auf eine Meldung) und dem Zeitpunkt der endgültigen Maßnahme zum betreffenden Inhalt oder dem Konto:

Richtliniengrund

Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion

Sexuelle Inhalte

5.461.419

3.233.077

1

Sexuelle Ausbeutung und Missbrauch Minderjähriger

1.095.424

733.106

5

Belästigung und Mobbing

713.448

594.302

3

Bedrohungen und Gewalt

187.653

146.564

3

Selbstverletzung und Selbstmord

47.643

41.216

5

Falsche Informationen

2.088

2.004

1

Identitätsbetrug

7.138

6.881

<1

Spam

267.299

189.344

1

Drogen

1.095.765

726.251

7

Waffen

251.243

173.381

1

Andere regulierte Güter

183.236

126.952

4

Hassrede

343.051

284.817

6

Terrorismus und gewalttätiger Extremismus

10.970

6.783

2

Die Daten zur Gesamtzahl der Durchsetzungsmaßnahmen enthalten solche Maßnahmen, die Snap nach der Überprüfung einer über Snapchat vorgebrachten In-App-Meldung ergriffen hat.  Darunter fallen die meisten der von den Snap-Sicherheitsteams ergriffenen Maßnahmen. Nicht berücksichtigt ist in dieser Zahl der größte Teil der Maßnahmen, die sich entweder aus Untersuchungen solcher Meldungen ergeben haben, die über unsere Support-Website oder andere Mechanismen (etwa per E-Mail) an Snap gesendet wurden, oder die im Zuge unserer proaktiven Untersuchungen durch unsere Sicherheitsteams ergriffen wurden. Diese nicht in der Zahl berücksichtigten Maßnahmen machten weniger als 0,5 % der Gesamtzahl der Durchsetzungsmaßnahmen im ersten Halbjahr 2025 aus.

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent. Das bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Community-Richtlinien verstieß. Die Maßnahmen gegen solche Schädigungen, die wir als „schwerwiegende Schäden“ bewerten, machen einen Anteil von 0,0003 % an der Gesamtzahl aus. In der folgenden Tabelle findest du eine Aufschlüsselung der Verstoßrate (VVR) nach Richtliniengründen.

Richtliniengrund

VVR

Sexuelle Inhalte

0,00482 %

Sexuelle Ausbeutung und Missbrauch Minderjähriger

0,00096 %

Belästigung und Mobbing

0,00099 %

Bedrohungen und Gewalt

0,00176 %

Selbstverletzung und Selbstmord

0,00009 %

Falsche Informationen

0,00002 %

Identitätsbetrug

0,00009 %

Spam

0,00060 %

Drogen

0,00047 %

Waffen

0,00083 %

Andere regulierte Güter

0,00104 %

Hassrede

0,00025 %

Terrorismus und gewalttätiger Extremismus

0,00002 %

Verstöße gegen Community-Richtlinien, die unseren Vertrauens- und Sicherheitsteams gemeldet wurden

Vom 1. Januar bis zum 30. Juni 2025 haben die Sicherheitsteams von Snap als Reaktion auf 19.766.324 In-App-Meldungen von Verstößen gegen unsere Community-Richtlinien weltweit insgesamt 6.278.446 Durchsetzungsmaßnahmen ergriffen, darunter Maßnahmen gegen 4.104.624 konkrete Accounts.  Besagte Anzahl an In-App-Meldungen berücksichtigt keine Meldungen, die über die Supportwebsite oder per E-Mail eingegangen sind, welche jedoch weniger als 1 % der Gesamtzahl aller Meldungen ausmachen.  Die durchschnittliche Bearbeitungszeit bis zum Ergreifen von Maßnahmen durch unsere Sicherheitsteams infolge solcher Meldungen lag bei 2 Minuten. Unten findest du eine Aufschlüsselung nach Gründen, wie sie in den Richtlinien aufgeführt sind. (Hinweis: Wir hatten diese Gründe in früheren Berichten mitunter als „Meldekategorien“ bezeichnet.  Fortan werden wir dafür den Begriff „Grund gemäß Richtlinien“ oder „richtliniengemäßer Grund“ verwenden, der unserer Meinung nach besser dem Charakter der Daten entspricht, denn unsere Sicherheitsteams bemühen sich, ihre Maßnahmen auf den entsprechenden Grund gemäß unseren Richtlinien abzustimmen, unabhängig von der Kategorie, in welche die meldende Person ihre Meldung eingeordnet hat.)


Gesamtzahl der Inhalts- und Account-Meldungen

Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

Insgesamt

19.766.324

6.278.446

4.104.624

Richtliniengrund

Gesamtzahl der Inhalts- und Account-Meldungen

Sanktionen insgesamt

Prozentualer Anteil aller Berichte, bei denen Snap Maßnahmen ergriffen hat

Gesamtzahl der sanktionierten individuellen Konten

Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion

Sexuelle Inhalte

7.315.730

3.778.370

60,2 %

2.463.464

1

Sexuelle Ausbeutung und Missbrauch Minderjähriger

1.627.097

695.679

11,1 %

577.736

10

Belästigungen und Mobbing

4.103.797

700.731

11,2 %

584.762

3

Bedrohungen und Gewalt

997.346

147.162

2,3 %

120.397

2

Selbstverletzung und Selbstmord

350.775

41.150

0,7 %

36.657

3

Falsche Informationen

606.979

2.027

0,0 %

1.960

1

Identitätsbetrug

745.874

7.086

0,1 %

6.837

<1

Spam

1.709.559

122.499

2,0 %

94.837

1

Drogen

481.830

262.962

4,2 %

176.799

5

Waffen

271.586

39.366

0,6 %

32.316

1

Andere regulierte Güter

530.449

143.098

2,3 %

98.023

3

Hassrede

817.262

337.263

5,4 %

280.682

6

Terrorismus und gewalttätiger Extremismus

208.040

1.053

0,0 %

912

2

Im ersten Halbjahr 2025 haben wir die durchschnittlichen Bearbeitungszeiten in allen Kategorien unserer Richtlinien weiter reduziert und sie im Vergleich zum vorherigen Berichtszeitraum um mehr als 75 % auf durchschnittlich 2 Minuten reduziert. Diese Reduzierung gelang zum großen Teil dank unserer kontinuierlichen gemeinsamen Bemühungen zur Verbesserung der Prioritätensetzung bei unserer Überprüfung von Meldungen. Dabei zielt die automatisierte Überprüfung auf die Einstufung der Schwere der Gefährdung ab.

Wir haben im Berichtszeitraum zudem eine Reihe gezielter Änderungen an unseren Sicherheitsmaßnahmen vorgenommen, die sich auf die hier veröffentlichten Daten ausgewirkt haben. Dazu gehört auch eine Verschärfung unserer Richtlinien gegen illegale Aktivitäten mit Waffen. Wir haben einen Anstieg der Meldungen und Durchsetzungsmaßnahmen in der Kategorie des sexuellen Missbrauchs von Kindern festgestellt, was in erster Linie auf eine Zunahme sexualisierter oder sensibler Inhalte zurückzuführen ist, die gegen unsere Richtlinien verstoßen, jedoch weder in den USA illegal sind noch einer Meldepflicht an das US National Center for Missing and Exploited Children (NCMEC) unterliegen. Der zahlenmäßige Anstieg von Meldungen im Zusammenhang mit sexuellen Inhalten (und der Rückgang der Zahl der gemeldeten Fälle von Belästigungen) ist darauf zurückzuführen, dass wir mit sexueller Belästigung verbundene Inhalte künftig nicht mehr in der Kategorie Belästigungen, sondern unter den sexuellen Inhalten führen.

Unsere Bemühungen um die proaktive Identifizierung und Verfolgung von Verstößen gegen unsere Community-Richtlinien

Proaktives Identifizierung und Durchsetzung unserer Community-Richtlinien


Wir verwenden automatisierte Tools, um Verstöße gegen unsere Community-Richtlinien proaktiv zu erkennen und in einigen Fällen gegen sie vorzugehen. Zu diesen Tools gehören die Hash-Matching-Technologie (einschließlich PhotoDNA und Child Sexual Abuse Imagery (CSAI) von Google), die Content Safety-API von Google und andere spezielle Technologien, die dafür konzipiert sind, illegale und verletzende Texte oder Medien zu erkennen. Dabei setzen sie mitunter künstliche Intelligenz und maschinelles Lernen ein. Die Anzahl der durch unsere proaktiven Erkennungstools aufgedeckten Fälle schwankt kontinuierlich, was auf Änderungen des Nutzerverhaltens, Verbesserungen unserer Erkennungsfunktionen und Aktualisierungen unserer Richtlinien zurückzuführen ist.

In der ersten Jahreshälfte 2025 haben wir die folgenden Durchsetzungsmaßnahmen gegen Verstöße gegen unsere Community-Richtlinien ergriffen, die wir proaktiv mit automatisierten Erkennungstools entdeckt hatten:


Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

Insgesamt

3.395.968

1.709.224

Richtliniengrund

Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion

Sexuelle Inhalte

1.683.045

887.059

0

Sexuelle Ausbeutung und Missbrauch Minderjähriger

399.756

162.017

2

Belästigung und Mobbing

12.716

10.412

8

Bedrohungen und Gewalt

40.489

27.662

6

Selbstverletzung und Selbstmord

6.493

4.638

7

Falsche Informationen

61

44

20

Identitätsbetrug

52

44

34

Spam

144.800

96.500

0

Drogen

832.803

578.738

7

Waffen

211.877

144.455

0

Andere regulierte Güter

40.139

31.408

8

Hassrede

5.788

4.518

6

Terrorismus und gewalttätiger Extremismus

9.917

5.899

5

Unser Kampf gegen die sexuelle Ausbeutung und den Missbrauch von Kindern

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von CSEA auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir verwenden aktive Technologie-Erkennungstools, um CSEA-bezogene Inhalte zu identifizieren. Zu diesen Tools gehören Hash-Match-Tools (einschließlich PhotoDNA und CSAI Match von Google, um bekannte illegale CSEA-Bilder und -Videos zu identifizieren) und die Google Content-Safety-API (identifiziert neu erstelltes, „bislang noch nicht gehashtes“ illegales Bildmaterial). Darüber hinaus verwenden wir in einigen Fällen Verhaltenssignale, um gegen andere vermutete CSEA-Aktivitäten vorzugehen. Wie gesetzlich vorgeschrieben melden wir dem U.S. National Center for Missing and Exploited Children (NCMEC) CSEA-bezogene Inhalte. Das NCMEC koordiniert sich dann nach Bedarf mit den nationalen oder internationalen Strafverfolgungsbehörden.

Im ersten Halbjahr 2025 haben wir nach der Identifizierung von CSEA-Inhalten auf Snapchat die folgenden Maßnahmen ergriffen (entweder proaktiv oder als Reaktion auf eine Meldung):

Gesamt: Inhalte, gegen die Maßnahmen ergriffen wurden

Gesamtzahl der deaktivierten Konten

Gesamte Einreichungen bei NCMEC*

994.337

187.387

321.587

*Beachte, dass jede Einreichung bei NCMEC mehrere Inhalte enthalten kann. Die Gesamtzahl der bei NCMEC eingereichten Medien entspricht dem Gesamtinhalt, gegen den wir Maßnahmen ergriffen haben.

Unsere Bemühungen, Snapchattern in Not Ressourcen und Unterstützung zu bieten

Snapchat ermöglicht es Freunden, sich in schwierigen Zeiten zu helfen, indem es Ressourcen und Support für Snapchatter in Not bereitstellt. 

Unser Suchtool „Here For You“ bietet Ressourcen von Experten, wenn Nutzer nach bestimmten Themen im Zusammenhang mit psychischer Gesundheit, Angstzuständen, Depression, Stress, Selbstmordgedanken, Trauer und Mobbing suchen. Außerdem haben wir eine Seite zur Bekämpfung von finanziell motivierter, sexueller Erpressung und anderen sexuellen Risiken und Schädigungen entwickelt, um denjenigen zu helfen, die solcherlei Aggressionen ausgesetzt sind.

Wenn unseren Sicherheitsteams bewusst wird, dass sich ein Snapchatter in einer Notsituation befindet, sind sie darauf vorbereitet, Ressourcen zur Prävention und Unterstützung zur Verfügung zu stellen und gegebenenfalls Notdienste zu alarmieren. Die Ressourcen, die wir zur Verfügung stellen, stehen auf unserer globalen Liste der Sicherheitsressourcen zur Verfügung, die allen Snapchattern über unseren Hub für Datenschutz, Sicherheit und Richtlinien öffentlich zugänglich ist.

Gesamtanzahl der geteilten Inhalte zum Thema Selbstmord

36.162

Einsprüche

Im Folgenden findest du Informationen zu Einsprüchen solcher Nutzer, die in der ersten Jahreshälfte 2025 eine Überprüfung unserer Entscheidung zur Sperrung ihres Accounts beantragt haben:

Richtliniengrund

Gesamtzahl der Anfechtungen

Gesamtzahl der Wiederherstellungen

Gesamtzahl der aufrechterhaltenen Entscheidungen

Mittlere Bearbeitungszeit (Tage) für die Bearbeitung von Einsprüchen

Insgesamt

437.855

22.142

415.494

1

Sexuelle Inhalte

134.358

6.175

128.035

1

Sexuelle Ausbeutung und Missbrauch Minderjähriger

89.493

4.179

85.314

<1

Belästigung und Mobbing

42.779

281

42.496

1

Bedrohungen und Gewalt

3.987

77

3.909

1

Selbstverletzung und Selbstmord

145

2

143

1

Falsche Informationen

4

0

4

1

Identitätsbetrug

1.063

33

1.030

<1

Spam

13.730

3.140

10.590

1

Drogen

128.222

7.749

120.409

1

Waffen

10.941

314

10.626

1

Andere regulierte Güter

9.719

124

9.593

1

Hassrede

3.310

67

3.242

1

Terrorismus und gewalttätiger Extremismus

104

1

103

1

Regionale und Länderübersicht

Dieser Abschnitt bietet einen Überblick über die Maßnahmen unserer Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien, sowohl proaktiv als auch als Antwort auf In-App-Meldungen von Verstößen, in einer Auswahl geografischer Regionen. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – auf der ganzen Welt, unabhängig vom Standort.

Informationen zu einzelnen Ländern, einschließlich aller EU-Mitgliedsstaaten, können über die angehängte CSV-Datei heruntergeladen werden.



Übersicht über Maßnahmen der Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien

Region

Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

Nordamerika

3.468.315

2.046.888

Europa

2.815.474

1.810.223

Rest der Welt

3.390.625

1.937.090

Insgesamt

9.674.414

5.794.201

Verstöße gegen die Community-Richtlinien, die unseren Sicherheitsteams gemeldet wurden

Region

Inhalts- und Account-Meldungen

Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

Nordamerika

5.762.412

2.125.819

1.359.763

Europa

5.961.962

2.144.828

1.440.907

Rest der Welt

8.041.950

2.007.799

1.316.070

Insgesamt

19.766.324

6.278.446

4.116.740

Proaktives Erkennen und Durchsetzung unserer Community-Richtlinien

Region

Sanktionen insgesamt

Gesamtzahl der sanktionierten individuellen Konten

Nordamerika

1.342.496

785.067

Europa

670.646

422.012

Rest der Welt

1.382.826

696.364

Insgesamt

3.395.968

1.709.224

Anzeigenmoderation

Snap hat sich verpflichtet, sicherzustellen, dass alle Anzeigen vollständig mit unseren Werberichtlinien übereinstimmen. Wir glauben an einen verantwortungsvollen Ansatz für Werbung, der ein sicheres Erlebnis für alle Snapchatter schafft. Alle Anzeigen unterliegen der Überprüfung und Zustimmung durch uns. Darüber hinaus behalten wir uns das Recht vor, Anzeigen zu entfernen, auch als Reaktion auf Nutzerfeedback, das wir sehr ernst nehmen. 


Nachfolgend geben wir einen Einblick in unsere Moderation für bezahlte Anzeigen, die uns nach ihrer Veröffentlichung auf Snapchat gemeldet werden. Beachte, dass Anzeigen auf Snapchat aus einer Vielzahl von Gründen entfernt werden können, wie in den Werberichtlinien von Snap dargelegt, einschließlich betrügerischer Inhalte, nicht jugendfreier Inhalte, gewalttätiger oder störender Inhalte, Hassreden und Verletzungen des geistigen Eigentums. Darüber hinaus findest du die Anzeigengalerie von Snapchat unter values.snap.com auf der Registerkarte “Transparenz”.

Gesamtanzahl der gemeldeten Anzeigen

Gesamtanzahl der gelöschten Anzeigen

67.789

16.410