1. Dezember 2025
1. Dezember 2025
Wir veröffentlichen diesen Transparenzbericht zweimal im Jahr, um Einblicke in die Sicherheitsbemühungen von Snap zu geben. Im Rahmen unseres Engagements für Sicherheit und Transparenz bemühen wir uns ständig darum, diese Berichte für unsere zahlreichen Stakeholder noch umfassender und informativer zu gestalten, denn ihnen ist die Moderation unserer Inhalte, unser Ansatz zur Durchsetzung der gesetzlichen Vorschriften und unser Einsatz für die Sicherheit und das Wohlergehen der Snapchat-Community ein ernstes Anliegen.
Vorliegender Transparenzbericht deckt die erste Hälfte des Jahres 2025 ab (1. Januar bis 30. Juni). Wir teilen globale Daten über Meldungen von Nutzern und die proaktive Erkennung durch Snap; Durchsetzungen durch unsere Sicherheitsteams in bestimmten Kategorien von Verstößen gegen die Community-Richtlinien; wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben; und wie wir auf Mitteilungen über Urheberrechts- und Markenverletzungen reagiert haben. Wir bieten außerdem länderspezifische Einblicke in eine Reihe von verlinkten Seiten.
Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unsere Registerkarte Über Transparenzberichterstattung unten.
Bitte beachte, dass die aktuellste Version dieses Transparenzberichts die englische Version ist.
Übersicht über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien
Unsere Sicherheitsteams setzen unsere Community-Richtlinien sowohl proaktiv (durch die Verwendung automatisierter Erkennungstools) als auch reaktiv (als Antwort auf Meldungen) durch, wie in den folgenden Abschnitten dieses Berichts weiter beschrieben. In diesem Berichtszyklus (H1 2025) haben unsere Sicherheitsteams die folgende Anzahl an Durchsetzungsmaßnahmen ergriffen:
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
9.674.414
5.794.201
Nachfolgend findest du eine Aufschlüsselung nach der Art der betreffenden Community-Richtlinien-Verstöße, einschließlich der durchschnittlichen Bearbeitungszeit zwischen dem Zeitpunkt der Identifizierung des Verstoßes (entweder proaktiv oder reaktiv auf eine Meldung) und dem Zeitpunkt der endgültigen Maßnahme zum betreffenden Inhalt oder dem Konto:
Richtliniengrund
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion
Sexuelle Inhalte
5.461.419
3.233.077
1
Sexuelle Ausbeutung und Missbrauch Minderjähriger
1.095.424
733.106
5
Belästigung und Mobbing
713.448
594.302
3
Bedrohungen und Gewalt
187.653
146.564
3
Selbstverletzung und Selbstmord
47.643
41.216
5
Falsche Informationen
2.088
2.004
1
Identitätsbetrug
7.138
6.881
<1
Spam
267.299
189.344
1
Drogen
1.095.765
726.251
7
Waffen
251.243
173.381
1
Andere regulierte Güter
183.236
126.952
4
Hassrede
343.051
284.817
6
Terrorismus und gewalttätiger Extremismus
10.970
6.783
2
Die Daten zur Gesamtzahl der Durchsetzungsmaßnahmen enthalten solche Maßnahmen, die Snap nach der Überprüfung einer über Snapchat vorgebrachten In-App-Meldung ergriffen hat. Darunter fallen die meisten der von den Snap-Sicherheitsteams ergriffenen Maßnahmen. Nicht berücksichtigt ist in dieser Zahl der größte Teil der Maßnahmen, die sich entweder aus Untersuchungen solcher Meldungen ergeben haben, die über unsere Support-Website oder andere Mechanismen (etwa per E-Mail) an Snap gesendet wurden, oder die im Zuge unserer proaktiven Untersuchungen durch unsere Sicherheitsteams ergriffen wurden. Diese nicht in der Zahl berücksichtigten Maßnahmen machten weniger als 0,5 % der Gesamtzahl der Durchsetzungsmaßnahmen im ersten Halbjahr 2025 aus.
Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent. Das bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Community-Richtlinien verstieß. Die Maßnahmen gegen solche Schädigungen, die wir als „schwerwiegende Schäden“ bewerten, machen einen Anteil von 0,0003 % an der Gesamtzahl aus. In der folgenden Tabelle findest du eine Aufschlüsselung der Verstoßrate (VVR) nach Richtliniengründen.
Richtliniengrund
VVR
Sexuelle Inhalte
0,00482 %
Sexuelle Ausbeutung und Missbrauch Minderjähriger
0,00096 %
Belästigung und Mobbing
0,00099 %
Bedrohungen und Gewalt
0,00176 %
Selbstverletzung und Selbstmord
0,00009 %
Falsche Informationen
0,00002 %
Identitätsbetrug
0,00009 %
Spam
0,00060 %
Drogen
0,00047 %
Waffen
0,00083 %
Andere regulierte Güter
0,00104 %
Hassrede
0,00025 %
Terrorismus und gewalttätiger Extremismus
0,00002 %
Verstöße gegen Community-Richtlinien, die unseren Vertrauens- und Sicherheitsteams gemeldet wurden
Vom 1. Januar bis zum 30. Juni 2025 haben die Sicherheitsteams von Snap als Reaktion auf 19.766.324 In-App-Meldungen von Verstößen gegen unsere Community-Richtlinien weltweit insgesamt 6.278.446 Durchsetzungsmaßnahmen ergriffen, darunter Maßnahmen gegen 4.104.624 konkrete Accounts. Besagte Anzahl an In-App-Meldungen berücksichtigt keine Meldungen, die über die Supportwebsite oder per E-Mail eingegangen sind, welche jedoch weniger als 1 % der Gesamtzahl aller Meldungen ausmachen. Die durchschnittliche Bearbeitungszeit bis zum Ergreifen von Maßnahmen durch unsere Sicherheitsteams infolge solcher Meldungen lag bei 2 Minuten. Unten findest du eine Aufschlüsselung nach Gründen, wie sie in den Richtlinien aufgeführt sind. (Hinweis: Wir hatten diese Gründe in früheren Berichten mitunter als „Meldekategorien“ bezeichnet. Fortan werden wir dafür den Begriff „Grund gemäß Richtlinien“ oder „richtliniengemäßer Grund“ verwenden, der unserer Meinung nach besser dem Charakter der Daten entspricht, denn unsere Sicherheitsteams bemühen sich, ihre Maßnahmen auf den entsprechenden Grund gemäß unseren Richtlinien abzustimmen, unabhängig von der Kategorie, in welche die meldende Person ihre Meldung eingeordnet hat.)
Gesamtzahl der Inhalts- und Account-Meldungen
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
Insgesamt
19.766.324
6.278.446
4.104.624
Richtliniengrund
Gesamtzahl der Inhalts- und Account-Meldungen
Sanktionen insgesamt
Prozentualer Anteil aller Berichte, bei denen Snap Maßnahmen ergriffen hat
Gesamtzahl der sanktionierten individuellen Konten
Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion
Sexuelle Inhalte
7.315.730
3.778.370
60,2 %
2.463.464
1
Sexuelle Ausbeutung und Missbrauch Minderjähriger
1.627.097
695.679
11,1 %
577.736
10
Belästigungen und Mobbing
4.103.797
700.731
11,2 %
584.762
3
Bedrohungen und Gewalt
997.346
147.162
2,3 %
120.397
2
Selbstverletzung und Selbstmord
350.775
41.150
0,7 %
36.657
3
Falsche Informationen
606.979
2.027
0,0 %
1.960
1
Identitätsbetrug
745.874
7.086
0,1 %
6.837
<1
Spam
1.709.559
122.499
2,0 %
94.837
1
Drogen
481.830
262.962
4,2 %
176.799
5
Waffen
271.586
39.366
0,6 %
32.316
1
Andere regulierte Güter
530.449
143.098
2,3 %
98.023
3
Hassrede
817.262
337.263
5,4 %
280.682
6
Terrorismus und gewalttätiger Extremismus
208.040
1.053
0,0 %
912
2
Im ersten Halbjahr 2025 haben wir die durchschnittlichen Bearbeitungszeiten in allen Kategorien unserer Richtlinien weiter reduziert und sie im Vergleich zum vorherigen Berichtszeitraum um mehr als 75 % auf durchschnittlich 2 Minuten reduziert. Diese Reduzierung gelang zum großen Teil dank unserer kontinuierlichen gemeinsamen Bemühungen zur Verbesserung der Prioritätensetzung bei unserer Überprüfung von Meldungen. Dabei zielt die automatisierte Überprüfung auf die Einstufung der Schwere der Gefährdung ab.
Wir haben im Berichtszeitraum zudem eine Reihe gezielter Änderungen an unseren Sicherheitsmaßnahmen vorgenommen, die sich auf die hier veröffentlichten Daten ausgewirkt haben. Dazu gehört auch eine Verschärfung unserer Richtlinien gegen illegale Aktivitäten mit Waffen. Wir haben einen Anstieg der Meldungen und Durchsetzungsmaßnahmen in der Kategorie des sexuellen Missbrauchs von Kindern festgestellt, was in erster Linie auf eine Zunahme sexualisierter oder sensibler Inhalte zurückzuführen ist, die gegen unsere Richtlinien verstoßen, jedoch weder in den USA illegal sind noch einer Meldepflicht an das US National Center for Missing and Exploited Children (NCMEC) unterliegen. Der zahlenmäßige Anstieg von Meldungen im Zusammenhang mit sexuellen Inhalten (und der Rückgang der Zahl der gemeldeten Fälle von Belästigungen) ist darauf zurückzuführen, dass wir mit sexueller Belästigung verbundene Inhalte künftig nicht mehr in der Kategorie Belästigungen, sondern unter den sexuellen Inhalten führen.
Unsere Bemühungen um die proaktive Identifizierung und Verfolgung von Verstößen gegen unsere Community-Richtlinien
Wir verwenden automatisierte Tools, um Verstöße gegen unsere Community-Richtlinien proaktiv zu erkennen und in einigen Fällen gegen sie vorzugehen. Zu diesen Tools gehören die Hash-Matching-Technologie (einschließlich PhotoDNA und Child Sexual Abuse Imagery (CSAI) von Google), die Content Safety-API von Google und andere spezielle Technologien, die dafür konzipiert sind, illegale und verletzende Texte oder Medien zu erkennen. Dabei setzen sie mitunter künstliche Intelligenz und maschinelles Lernen ein. Die Anzahl der durch unsere proaktiven Erkennungstools aufgedeckten Fälle schwankt kontinuierlich, was auf Änderungen des Nutzerverhaltens, Verbesserungen unserer Erkennungsfunktionen und Aktualisierungen unserer Richtlinien zurückzuführen ist.
In der ersten Jahreshälfte 2025 haben wir die folgenden Durchsetzungsmaßnahmen gegen Verstöße gegen unsere Community-Richtlinien ergriffen, die wir proaktiv mit automatisierten Erkennungstools entdeckt hatten:
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
Insgesamt
3.395.968
1.709.224
Richtliniengrund
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
Durchschnittliche Bearbeitungszeit (Minuten) von der Identifizierung bis zur endgültigen Aktion
Sexuelle Inhalte
1.683.045
887.059
0
Sexuelle Ausbeutung und Missbrauch Minderjähriger
399.756
162.017
2
Belästigung und Mobbing
12.716
10.412
8
Bedrohungen und Gewalt
40.489
27.662
6
Selbstverletzung und Selbstmord
6.493
4.638
7
Falsche Informationen
61
44
20
Identitätsbetrug
52
44
34
Spam
144.800
96.500
0
Drogen
832.803
578.738
7
Waffen
211.877
144.455
0
Andere regulierte Güter
40.139
31.408
8
Hassrede
5.788
4.518
6
Terrorismus und gewalttätiger Extremismus
9.917
5.899
5
Unser Kampf gegen die sexuelle Ausbeutung und den Missbrauch von Kindern
Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von CSEA auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.
Wir verwenden aktive Technologie-Erkennungstools, um CSEA-bezogene Inhalte zu identifizieren. Zu diesen Tools gehören Hash-Match-Tools (einschließlich PhotoDNA und CSAI Match von Google, um bekannte illegale CSEA-Bilder und -Videos zu identifizieren) und die Google Content-Safety-API (identifiziert neu erstelltes, „bislang noch nicht gehashtes“ illegales Bildmaterial). Darüber hinaus verwenden wir in einigen Fällen Verhaltenssignale, um gegen andere vermutete CSEA-Aktivitäten vorzugehen. Wie gesetzlich vorgeschrieben melden wir dem U.S. National Center for Missing and Exploited Children (NCMEC) CSEA-bezogene Inhalte. Das NCMEC koordiniert sich dann nach Bedarf mit den nationalen oder internationalen Strafverfolgungsbehörden.
Im ersten Halbjahr 2025 haben wir nach der Identifizierung von CSEA-Inhalten auf Snapchat die folgenden Maßnahmen ergriffen (entweder proaktiv oder als Reaktion auf eine Meldung):
Gesamt: Inhalte, gegen die Maßnahmen ergriffen wurden
Gesamtzahl der deaktivierten Konten
Gesamte Einreichungen bei NCMEC*
994.337
187.387
321.587
*Beachte, dass jede Einreichung bei NCMEC mehrere Inhalte enthalten kann. Die Gesamtzahl der bei NCMEC eingereichten Medien entspricht dem Gesamtinhalt, gegen den wir Maßnahmen ergriffen haben.
Unsere Bemühungen, Snapchattern in Not Ressourcen und Unterstützung zu bieten
Snapchat ermöglicht es Freunden, sich in schwierigen Zeiten zu helfen, indem es Ressourcen und Support für Snapchatter in Not bereitstellt.
Unser Suchtool „Here For You“ bietet Ressourcen von Experten, wenn Nutzer nach bestimmten Themen im Zusammenhang mit psychischer Gesundheit, Angstzuständen, Depression, Stress, Selbstmordgedanken, Trauer und Mobbing suchen. Außerdem haben wir eine Seite zur Bekämpfung von finanziell motivierter, sexueller Erpressung und anderen sexuellen Risiken und Schädigungen entwickelt, um denjenigen zu helfen, die solcherlei Aggressionen ausgesetzt sind.
Wenn unseren Sicherheitsteams bewusst wird, dass sich ein Snapchatter in einer Notsituation befindet, sind sie darauf vorbereitet, Ressourcen zur Prävention und Unterstützung zur Verfügung zu stellen und gegebenenfalls Notdienste zu alarmieren. Die Ressourcen, die wir zur Verfügung stellen, stehen auf unserer globalen Liste der Sicherheitsressourcen zur Verfügung, die allen Snapchattern über unseren Hub für Datenschutz, Sicherheit und Richtlinien öffentlich zugänglich ist.
Gesamtanzahl der geteilten Inhalte zum Thema Selbstmord
36.162
Einsprüche
Im Folgenden findest du Informationen zu Einsprüchen solcher Nutzer, die in der ersten Jahreshälfte 2025 eine Überprüfung unserer Entscheidung zur Sperrung ihres Accounts beantragt haben:
Richtliniengrund
Gesamtzahl der Anfechtungen
Gesamtzahl der Wiederherstellungen
Gesamtzahl der aufrechterhaltenen Entscheidungen
Mittlere Bearbeitungszeit (Tage) für die Bearbeitung von Einsprüchen
Insgesamt
437.855
22.142
415.494
1
Sexuelle Inhalte
134.358
6.175
128.035
1
Sexuelle Ausbeutung und Missbrauch Minderjähriger
89.493
4.179
85.314
<1
Belästigung und Mobbing
42.779
281
42.496
1
Bedrohungen und Gewalt
3.987
77
3.909
1
Selbstverletzung und Selbstmord
145
2
143
1
Falsche Informationen
4
0
4
1
Identitätsbetrug
1.063
33
1.030
<1
Spam
13.730
3.140
10.590
1
Drogen
128.222
7.749
120.409
1
Waffen
10.941
314
10.626
1
Andere regulierte Güter
9.719
124
9.593
1
Hassrede
3.310
67
3.242
1
Terrorismus und gewalttätiger Extremismus
104
1
103
1
Regionale und Länderübersicht
Dieser Abschnitt bietet einen Überblick über die Maßnahmen unserer Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien, sowohl proaktiv als auch als Antwort auf In-App-Meldungen von Verstößen, in einer Auswahl geografischer Regionen. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – auf der ganzen Welt, unabhängig vom Standort.
Informationen zu einzelnen Ländern, einschließlich aller EU-Mitgliedsstaaten, können über die angehängte CSV-Datei heruntergeladen werden.
Region
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
Nordamerika
3.468.315
2.046.888
Europa
2.815.474
1.810.223
Rest der Welt
3.390.625
1.937.090
Insgesamt
9.674.414
5.794.201
Region
Inhalts- und Account-Meldungen
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
Nordamerika
5.762.412
2.125.819
1.359.763
Europa
5.961.962
2.144.828
1.440.907
Rest der Welt
8.041.950
2.007.799
1.316.070
Insgesamt
19.766.324
6.278.446
4.116.740
Region
Sanktionen insgesamt
Gesamtzahl der sanktionierten individuellen Konten
Nordamerika
1.342.496
785.067
Europa
670.646
422.012
Rest der Welt
1.382.826
696.364
Insgesamt
3.395.968
1.709.224
Anzeigenmoderation
Snap hat sich verpflichtet, sicherzustellen, dass alle Anzeigen vollständig mit unseren Werberichtlinien übereinstimmen. Wir glauben an einen verantwortungsvollen Ansatz für Werbung, der ein sicheres Erlebnis für alle Snapchatter schafft. Alle Anzeigen unterliegen der Überprüfung und Zustimmung durch uns. Darüber hinaus behalten wir uns das Recht vor, Anzeigen zu entfernen, auch als Reaktion auf Nutzerfeedback, das wir sehr ernst nehmen.
Nachfolgend geben wir einen Einblick in unsere Moderation für bezahlte Anzeigen, die uns nach ihrer Veröffentlichung auf Snapchat gemeldet werden. Beachte, dass Anzeigen auf Snapchat aus einer Vielzahl von Gründen entfernt werden können, wie in den Werberichtlinien von Snap dargelegt, einschließlich betrügerischer Inhalte, nicht jugendfreier Inhalte, gewalttätiger oder störender Inhalte, Hassreden und Verletzungen des geistigen Eigentums. Darüber hinaus findest du die Anzeigengalerie von Snapchat unter values.snap.com auf der Registerkarte “Transparenz”.
Gesamtanzahl der gemeldeten Anzeigen
Gesamtanzahl der gelöschten Anzeigen
67.789
16.410

























