Snap Values
Transparenzbericht
1. Januar 2024 bis 30. Juni 2024

Veröffentlicht:

5. Dezember 2024

Aktualisiert:

5. Dezember 2024

Wir veröffentlichen diesen Transparenzbericht zweimal pro Jahr, um einen Einblick in die Sicherheitsbemühungen von Snap zu geben. Diese Bemühungen haben wir uns verpflichtet. Wir streben stets danach, diese Berichte für unsere zahlreichen Stakeholder noch umfassender und informativer zu gestalten, die sich für unsere Inhaltsmoderation, unsere Strafverfolgungspraktiken und die Sicherheit und das Wohlergehen der Snapchat-Community einsetzen. 

Dieser Transparenzbericht deckt das erste Halbjahr 2024 (1. Januar - 30. Juni) ab. Wie in unseren früheren Berichten teilen wir Daten über die weltweite Anzahl von Meldungen zu In-App-Inhalten und Accounts, die unsere Vertrauens- und Sicherheitsteams erhalten und gegen die sie in bestimmten Kategorien von Richtlinienverstößen vorgegangen sind; wie wir auf Anfragen von Strafverfolgungsbehörden und Regierungen reagiert haben; und wie wir auf Hinweise auf Urheberrechts- und Markenverletzungen reagiert haben. In den Dateien die unten auf dieser Seite verlinkt sind bieten wir außerdem länderspezifische Einblicke an.

Im Rahmen unseres stetigen Engagements, unsere Transparenzberichte kontinuierlich zu verbessern, stellen wir auch neue Daten vor, die unsere proaktiven Bemühungen zur Erkennung und Bekämpfung einer breiteren Palette von Verstößen gegen unsere Community-Richtlinien hervorheben. Wir haben diese Daten sowohl auf globaler als auch auf Länderebene in diesen Bericht aufgenommen und werden dies auch in Zukunft so fortführen. Wir haben auch einen Kennzeichnungsfehler in unseren früheren Berichten korrigiert: Zuvor als „Gesamte durchgesetzte Inhalte“ gekennzeichnet, verweisen wir jetzt auf „Gesamte Durchsetzungen“, um widerzuspiegeln, dass die in den entsprechenden Spalten angegebenen Daten sowohl Durchsetzungsmaßnahmen auf Inhalte- als auch auf Kontoebene enthalten.

Weitere Informationen über unsere Richtlinien zur Bekämpfung potenzieller Online-Schäden und unsere Pläne zur Weiterentwicklung unserer Meldepraktiken findest du in unserem aktuellen Blog zu Sicherheit und Folgen über diesen Transparenzbericht. Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unsere Registerkarte Über Transparenzberichterstattung unten.

Bitte beachte, dass die aktuellste Version dieses Transparenzberichts in der en-US-Sprachversion zu finden ist.

Übersicht über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien

Unsere Vertrauens- und Sicherheitsteams setzen unsere Community-Richtlinien sowohl proaktiv (mit automatisierten Tools) als auch reaktiv (auf Meldungen) durch, wie im Folgenden näher erläutert. In diesem Berichtszyklus (1. Halbjahr 2024) haben unsere Vertrauens- und Sicherheitsteams die folgenden Durchsetzungsmaßnahmen ergriffen: 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Nachfolgend findest du eine Aufschlüsselung nach Art der betreffenden Community-Richtlinien-Verstöße, einschließlich der durchschnittlichen Bearbeitungszeit zwischen dem Zeitpunkt der Identifizierung des Verstoßes (entweder proaktiv oder reaktiv auf eine Meldung) und dem Zeitpunkt der endgültigen Aktion zum betreffenden Inhalt oder dem Konto:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Während des Berichtszeitraums verzeichneten wir eine Violative View Rate (VVR) von 0,01 Prozent. Das bedeutet, dass von 10.000 Snap- und Story-Aufrufen auf Snapchat, 1 einen Inhalt enthielt, der gegen unsere Community-Richtlinien verstieß.

Verstöße gegen Community-Richtlinien, die unseren Vertrauens- und Sicherheitsteams gemeldet wurden

Vom 1. Januar bis zum 30. Juni 2024 haben die Vertrauens- und Sicherheitsteams von Snap als Reaktion auf In-App-Meldungen von Verstößen gegen unsere Community-Richtlinien weltweit insgesamt 6.223.618 Durchsetzungsmaßnahmen ergriffen, darunter Vollstreckungen gegen 3.842.507 individuelle Konten. Die durchschnittliche Bearbeitungszeit bis zum Ergreifen von Maßnahmen durch unsere Vertrauens- und Sicherheitsteams in Folge solcher Meldungen lag bei 24 Minuten. Unten findest du eine Aufschlüsselung nach den verschiedenen Kategorien von Meldungen.

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Unser Berichtsvolumen blieb im ersten Halbjahr 2024 im Vergleich zu den vorherigen sechs Monaten relativ stabil. In diesem Zeitraum kam es zu einemn Anstieg der Vollstreckungen insgesamt und der Gesamtzahl der vollstreckten individuellen Konten um etwa 16 %.

In den letzten 12 Monaten hat Snap neue Meldemechanismen für die Nutzer eingeführt, die Änderungen an unseren gemeldeten und durchgesetzten Mengen und die Verlängerung der Bearbeitungszeiten in diesem Berichtszeitraum (1. Halbjahr 2024) berücksichtigen. Konkret heißt das:

  • Gruppenchat-Meldungen: Am 13. Oktober 2023 haben wir die Gruppenchat-Meldung eingeführt, mit der Nutzer Missbräuche in einem Mehrpersonen-Chat melden können. Diese Änderung hatte Auswirkungen auf die Zusammensetzung unserer Metriken über alle Meldekategorien hinweg (da einige potenzielle Schäden eher in einem Chat-Kontext auftreten) und verbesserte die Aktionsfähigkeit von Meldungen.

  • Verbesserungen bei der Kontomeldung: Wir haben unsere Kontomeldungsfunktion weiterentwickelt, damit Nutzer Chat-Beweise einreichen können, wenn sie verdächtige Konten melden. Diese Änderung liefert uns mehr Beweise und einen besseren Zusammenhang bei der Beurteilung von Kontenmeldungen. Sie wurde am 29. Februar 2024 eingeführt. 


Chatberichte und insbesondere Gruppenchat-Berichte gehören zu den komplexesten und zeitaufwendigsten Berichten, was sämtliche Bearbeitungszeiten verlängert hat.

Die Meldung von mutmaßlichen Fällen sexueller Ausbeutung und Missbrauch von Kindern, Belästigung und Mobbing sowie Hassrede war von den beiden oben beschriebenen Änderungen und von Veränderungen im gesamten Ökosystem besonders betroffen. Konkret heißt das:

  • CSEA: Wir haben im ersten Halbjahr 2024 einen Anstieg der CSEA-bezogenen Meldungen und Vollstreckungen festgestellt. Konkret kam es zu einem Anstieg der In-App-Meldungen von Nutzern um 64 %, einem Anstieg der gesamten Vollstreckungen um 82 % und einem Anstieg der Gesamtzahl der vollstreckten individuellen Konten um 108 %. Diese Steigerung ist größtenteils auf die Einführung der Funktionen zur Meldung von Gruppenchats und Konten zurückzuführen. Angesichts der Sensibilität dieser Moderation beauftragen wir stets hochqualifizierte Mitarbeiter mit der Überprüfung potenzieller CSEA-Verstöße. Der Zustrom an Meldungen und die Schulungen unserer Teams haben längere Bearbeitungszeiten zur Folge. Nun haben wir unsere globalen Verkaufsteams deutlich erweitert, um die Bearbeitungszeiten zu verkürzen und Meldungen potenzieller CSEA genau zu verfolgen. So gehen wir davon aus, dass unser Transparenzbericht für das zweite Halbjahr 2024 die Früchte dieser Maßnahmen im Sinne verbesserter Bearbeitungszeiten tragen wird.

  • Belästigung und Mobbing: Basierend auf Meldungen konnten wir feststellen, dass Belästigung und Mobbing in Chats und insbesondere Gruppenchats unverhältnismäßig oft vorkommen. Dank der Verbesserungen an den Berichten über Gruppenchats und -konten können wir in dieser Kategorie jetzt umfassendere Maßnahmen ergreifen. Zusätzlich müssen Nutzer ab sofort einen Kommentar hinzufügen, um einen Bericht über Belästigung und Mobbing einzureichen. Diese Kommentare prüfen wir genau, um jeden Bericht korrekt interpretieren zu können. Zusammen führten diese Änderungen zu einem deutlichen Anstieg der Vollstreckungen insgesamt (+91 %), der Gesamtzahl der vollstreckten individuellen Konten (+82 %) und der Bearbeitungszeit (+245 Minuten) für entsprechende Berichte.

  • Hassrede: Im ersten Halbjahr 2024 haben wir einen Anstieg der gemeldeten Inhalte, der Vollstreckungen insgesamt und der Bearbeitungszeit für Hassrede festgestellt. Konkret konnten wir einen Anstieg der In-App-Berichte um 61 %, einen Anstieg der gesamten Vollstreckungen um 127 % und einen Anstieg der Gesamtzahl der vollstreckten individuellen Konten um 125 % verzeichnen. Zum Teil ist das auf Verbesserungen unserer Chat-Meldemechanismen zurückzuführen. Auch das geopolitische Umfeld hat sich jedoch verschärft, allen voran durch die Fortsetzung des Nahostkonflikts.

In diesem Berichtszeitraum konnten wir einen Rückgang von 65 % bei den Vollstreckungen insgesamt und von 60 % bei den individuellen Konten verzeichnen, die als Reaktion auf Berichte über vermuteten Spam und Missbrauch vollstreckt wurden. Daran zeigt sich, wie sehr sich unsere proaktiven Tools zur Erkennung und Durchsetzung verbessert haben. Ähnliche Rückgänge haben wir bei den Vollstreckungen insgesamt als Reaktion auf Berichte über Inhalte im Zusammenhang mit Selbstverletzung und Selbstmord verzeichnet (~ 80 %). Das belegt, dass unser neuer opferfokussierter Ansatz Früchte trägt. Danach lassen unsere Vertrauens- und Sicherheitsteams in geeigneten Fällen den Nutzern Selbsthilfe-Ressourcen zukommen, statt eine Vollstreckungsmaßnahme gegen diese Nutzer zu ergreifen. Dieser Ansatz trägt die Handschrift unseres Sicherheitsbeirats, dem unter anderem ein Kinderarzt und ein Facharzt für Störungen durch interaktive Medien und das Internet angehören.

Unsere Bemühungen um die proaktive Identifizierung und Verfolgung von Verstößen gegen unsere Community-Richtlinien

Proaktives Identifizierung und Durchsetzung unserer Community-Richtlinien


Wir setzen automatisierte Tools ein, um Verstöße gegen unsere Community-Richtlinien proaktiv zu identifizieren und in einigen Fällen zu ahnden. Diese Tools umfassen Hash-Matching-Tools (einschließlich PhotoDNA und Google Child Sexual Abuse Imagery (CSAI) Match), Tools zur Erkennung von missbräuchlicher Sprache (die auf der Grundlage einer identifizierten und regelmäßig aktualisierten Liste missbräuchlicher Schlüsselwörter und Emojis erkannt und durchgesetzt werden) und multimodale Technologien für künstliche Intelligenz / maschinelles Lernen.

Im ersten Halbjahr 2024 haben wir die folgenden Durchsetzungsmaßnahmen ergriffen, nachdem wir mithilfe unserer automatisierten Tools Verstöße gegen unsere Community-Richtlinien proaktiv erkannt haben:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Bekämpfung von sexueller Ausbeutung von Kindern & Missbrauch

Die sexuelle Ausbeutung eines Mitgliedes unserer Community, insbesondere Minderjährigen, ist illegal, verabscheuungswürdig und durch Community-Richtlinien verboten. Die Verhinderung, Erkennung und Beseitigung von Darstellungen der sexuellen Ausbeutung und des Missbrauchs von Kindern (CSEA) auf unserer Plattform hat für Snap oberste Priorität und wir entwickeln unsere Fähigkeiten zur Bekämpfung dieser und anderer Straftaten kontinuierlich weiter.

Wir verwenden Tools zur aktiven Technologieerkennung wie das robuste Hash-Matching von PhotoDNA und das Tool Child Sexual Abuse Imagery (CSAI) von Google, um bekannte illegale Bilder und Videos von CSEA zu identifizieren. Darüber hinaus verwenden wir in einigen Fällen Verhaltenssignale, um gegen andere potenziell illegale CSEA-Aktivitäten vorzugehen. Wie gesetzlich vorgeschrieben melden wir dem U.S. National Center for Missing and Exploited Children (NCMEC) CSEA-bezogene Inhalte. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.

Im 1. Halbjahr 2024 haben auf die Identifizierung von CSEA auf Snapchat hin die folgenden Maßnahmen ergriffen (entweder proaktiv oder folgend auf eine Meldung):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Unsere Bemühungen, Snapchattern in Not Ressourcen und Unterstützung zu bieten

Die psychische Gesundheit und das Wohlbefinden von Snapchattern liegen uns sehr am Herzen, was uns bei unseren Entscheidungen, Snapchat anders zu gestalten, immer wieder beeinflusst. Als Plattform, die für die Kommunikation zwischen und unter echten Freunden entwickelt wurde, glauben wir an die einzigartige Rolle von Snapchat, wenn es um die Stärkung von Freunden geht, um sich in schwierigen Zeiten gegenseitig zu helfen. Deshalb haben wir Ressourcen und Unterstützung für Snapchatter in Not entwickelt. 

Unser Here For You-Suchtool zeigt Ressourcen von erfahrenen lokalen Partnern, wenn Nutzer nach bestimmten Themen rund um psychische Gesundheit, Angst, Depression, Stress, Selbstmordgedanken, Trauer und Mobbing suchen. Außerdem haben wir eine Seite entwickelt, die sich mit finanzieller Sextortion und anderen sexuellen Risiken und Schäden befasst, um Menschen in Not zu unterstützen. Unsere globale Liste mit Sicherheitsressourcen ist für alle Snapchatter in unserem Hub für Datenschutz, Sicherheit und Richtlinien verfügbar. 

Wenn unser Vertrauens- und Sicherheitsteam von einem Snapchatter in Not erfährt, kann es Ressourcen zur Prävention von Selbstverletzung und zur Unterstützung weiterleiten und gegebenenfalls Notfallhelfer benachrichtigen. Die von uns zur Verfügung gestellten Ressourcen sind auf unserer globalen Liste der Ressourcen zur Sicherheit verfügbar und für alle Snapchatter öffentlich zugänglich.

Total Times Suicide Resources Shared

64,094

Einsprüche

Nachfolgend findest du Informationen über Einsprüche gegen eine Sperrung des Nutzerkontos:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Regionale und Länderübersicht

Dieser Abschnitt gibt einen Überblick über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien – sowohl proaktiv als auch als Reaktion auf In-App-Meldungen von Verstößen - stichprobenartig und nach Regionen. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – rund um den Globus, unabhängig von ihrer Region.

Informationen zu einzelnen Ländern, einschließlich aller EU-Mitgliedsstaaten, können über die angehängte CSV-Datei heruntergeladen werden.

Übersicht über die Maßnahmen unserer Vertrauens- und Sicherheitsteams zur Durchsetzung unserer Community-Richtlinien 

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Verstöße gegen Community-Richtlinien, die unseren Vertrauens- und Sicherheitsteams gemeldet wurden

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Proaktives Identifizierung und Durchsetzung unserer Community-Richtlinien

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Anzeigenmoderation

Snap hat sich verpflichtet, sicherzustellen, dass alle Anzeigen vollständig mit unseren Werberichtlinien übereinstimmen. Wir glauben an einen verantwortungsvollen und respektvollen Ansatz bei der Werbung, der eine sichere und angenehme Erfahrung für alle unsere Nutzer schafft. Alle Anzeigen unterliegen der Überprüfung und Zustimmung durch uns. Darüber hinaus behalten wir uns das Recht vor, Anzeigen zu entfernen, auch als Reaktion auf Nutzerfeedback, das wir sehr ernst nehmen. 


Nachfolgend geben wir einen Einblick in unsere Moderation für bezahlte Anzeigen, die uns nach ihrer Veröffentlichung auf Snapchat gemeldet werden. Beachte, dass Anzeigen auf Snapchat aus einer Vielzahl von Gründen entfernt werden können, wie in den Werberichtlinien von Snap dargelegt, einschließlich betrügerischer Inhalte, nicht jugendfreier Inhalte, gewalttätiger oder störender Inhalte, Hassreden und Verletzungen des geistigen Eigentums. Darüber hinaus findest du jetzt die Anzeigengalerie von Snapchat in der Navigationsleiste dieses Transparenzberichts.

Total Ads Reported

Total Ads Removed

43,098

17,833