Unsere öffentliche Antwort an die zivilgesellschaftlichen Gruppen zum Thema Integrität und Wahlen

22. April 2024

Zu Beginn des Monats erhielt Snap ebenso wie andere große Tech-Unternehmen einen Brief von Vertretern von mehr als 200 zivilgesellschaftlichen Organisationen, Forschern und Journalisten, in dem wir nachdrücklich aufgefordert werden, unsere Bemühungen zum Schutz der Integrität der Wahlen im Jahr 2024 zu verstärken. Wir wissen das Anliegen der Autoren dieses Briefes zu würdigen und machen uns ihr Engagement zu eigen. Auch wir möchten dazu beitragen, dass die Menschen überall in der Welt an ihren Wahlen teilnehmen können, und dazu möchten wir unseren Beitrag zum Schutz unserer Demokratie leisten.

Es sind bedeutende Fragen und wir sind uns unserer besonderen Verantwortung gegenüber den Hunderten von Millionen Menschen bewusst, die Snapchat nutzen, um mit ihren Freunden und Verwandten zu kommunizieren und durch unsere Inhalte mehr über die Welt zu erfahren. Deshalb möchten wir unsere Antwort auf besagten Brief unbedingt öffentlich machen. Unten findest du unser Antwortschreiben und Informationen zu unseren Plänen für die diesjährigen Wahlen findest du hier.

***

21. April 2024

Verehrte Vertreter zivilgesellschaftlicher Organisationen,

Vielen Dank für euer kontinuierliches und wachsames Engagement in diesem Jahr, das weltweit von einer beispiellosen Wahltätigkeit geprägt ist. Wir möchten dankbar die Gelegenheit wahrnehmen, näher darauf einzugehen, wie wir bei Snap in diesem Szenario unsere Verantwortung wahrzunehmen gedenken und inwiefern sich unsere Bemühungen aus den langjährig von unserem Unternehmen gepflegten Werten herleiten.

Der Ansatz von Snapchat im Überblick

Im Hinblick auf die Wahlen ist der Integritätsansatz unserer Plattform mehrschichtig. Auf der obersten Ebene stehen folgende Kernelemente:

  • Bewusst eingerichtete Maßnahmen zum Schutz unserer Produkte;

  • Klare und durchdachte Richtlinien; 

  • Gewissenhafter Umgang mit politischer Werbung;

  • Kollaborative, koordinierte geschäftliche Vorgänge; und

  • Unser Angebot an Tools und Ressourcen für Snapchatter.


Auf diesen Säulen ruht unser Ansatz, mit dem wir einem breiten Spektrum an Risiken im Zusammenhang mit demokratischen Wahlen begegnen möchten. Und zugleich geben wir unseren Snapchattern Zugriff auf Werkzeuge und Informationen, die sie weltweit dabei unterstützen, sich in demokratische Prozesse einzubringen.

1. Zielgerichtete Maßnahmen zum Schutz von Produkten

Snapchat ist von vorneherein anders aufgebaut als die traditionellen sozialen Medien. Snapchat steht nicht für einen Feed mit endlos vielen, ungeprüften Inhalten zur Verfügung und es gibt auch nicht die Möglichkeit, über Snapchat Livestreams anzubieten.

Wir haben schon vor längerer Zeit erkannt, dass die größten Bedrohungen durch schädliche digitale Desinformation von der Geschwindigkeit und dem Ausmaß herrühren, mit denen einige digitale Plattformen die Verbreitung ihrer Inhalte ermöglichen. Unsere Plattform-Richtlinien und die Architektur begrenzen für ungeprüfte oder unmoderierte Inhalte das Potenzial, in einem bedeutenden Umfang verbreitet werden zu können. Stattdessen erfolgt bei uns eine Vormoderation der Inhalte, ehe sie einem breiten Publikum zugänglich gemacht werden können, und wir beschränken weitgehend die Verbreitung von Nachrichten und politischen Informationen, es sei denn, sie stammen von vertrauenswürdigen Herausgebern oder Kreatoren (etwa von Medien-Organisationen wie dem Wall Street Journal und der Washington Post in den USA, Le Monde in Frankreich oder Times Now in Indien). 

Im Verlauf des vergangenen Jahres erfolgte die Einführung von Funktionen für generative KI auf Snapchat mit den gleichen Vorsätzen. Wir beschränken die Möglichkeiten unserer KI-Produkte, Inhalte oder Bilder zu generieren, die dazu genutzt werden könnten, zivilgesellschaftliche Prozesse zu unterminieren oder die Wähler zu täuschen. So kann beispielsweise unser Chatbot, My AI, den Nutzern Informationen über politische Ereignisse oder gesellschaftliche Probleme liefern. Er ist so programmiert, dass er keine Meinungen zu politischen Kandidaten abgibt und Snapchatter nicht dazu auffordert oder animiert, für ein bestimmtes politisches Angebot zu stimmen. Und in unseren Text-zu-Bild-Funktionen haben wir auf Systemebene Einschränkungen für die Generierung von Inhalten in riskanten Kategorien vorgegeben. So sind zum Beispiel Abbildungen bekannter politischer Persönlichkeiten von dieser Funktion ausgeschlossen.

Seit mehr als einem Jahrzehnt und über mehrere Wahlperioden hinweg spielte unsere Produktarchitektur eine zentrale Rolle, um für solche Akteure ein ausgesprochen unwirtliches Medium und Umfeld zu schaffen, die zivilgesellschaftliche Prozesse stören oder das Informationsangebot unterwandern wollen. Und die Ergebnisse zeigen uns, dass das gut funktioniert. Unserer jüngsten Daten zufolge stellten die erforderlichen Eingriffe gegen schädliche Falschinformationen (einschließlich solcher, die ein Risiko für die Integrität von Wahlen darstellen) zwischen dem 1. Januar und dem 30. Juni 2023 weltweit einen Anteil von 0,0038 % an der Gesamtzahl der Inhalte, gegen die Maßnahmen ergriffen werden mussten, und damit handelt es sich um die Kategorie mit der niedrigsten Wahrscheinlichkeit für schädliche Handlungen auf unserer Plattform.

Wir werden bei unseren Anstrengungen zur Integrität unserer Plattform 2024 weiter unseren produktorientierten Ansatz verfolgen. Das ist auch im Sinne unserer Verpflichtungen als Unterzeichner des Tech Accord zur Bekämpfung des betrügerischen Einsatzes von KI bei den Wahlen 2024.

2. Klare und durchdachte Richtlinien

Als Ergänzung zu den Maßnahmen zum Schutz unserer Produkte haben wir eine Reihe von Richtlinien implementiert, mit denen wir für Sicherheit und Integrität bei wichtigen Ereignissen wie etwa Wahlen sorgen möchten. Unsere Community-Richtlinien verbieten zum Beispiel ausdrücklich schädliche Falschinformationen, Hassrede und Drohungen oder Aufrufe zu Gewalt. 

Zum Thema schädliche Inhalte im Zusammenhang mit Wahlen sind unsere externen Richtlinien solide und mit führenden Wissenschaftlern auf dem Gebiet der Informationsintegrität abgestimmt. Sie filtern bestimmte Kategorien schädlicher und verbotener Inhalte heraus, darunter die folgenden:

  • Beeinflussung von Verfahren: Fehlinformationen in Bezug auf die tatsächlichen Wahl- oder Bürgerbeteiligungsverfahren, wie z. B. die falsche Darstellung wichtiger Termine und Uhrzeiten oder von Teilnahmevoraussetzungen.

  • Beeinträchtigung einer Beteiligung: Inhalte, die eine Einschüchterung und Bedrohung der persönlichen Sicherheit darstellen oder Gerüchte verbreiten, um von der Teilnahme an Wahlen oder zivilgesellschaftlichem Engagement abzuschrecken.

  • Betrügerische oder gesetzeswidrige Teilnahme: Inhalte, die Menschen dazu ermutigen, falsche Angaben zu machen, um an einem zivilgesellschaftlichen Prozess teilzunehmen, unrechtmäßig Stimmzettel abzugeben oder solche zu zerstören.

  • Delegitimierung zivilgesellschaftlicher Prozesse: Inhalte, die darauf abzielen, demokratische Institutionen zu delegitimieren, z. B. durch falsche oder irreführende Behauptungen über Wahlergebnisse.

Zurück zu den News
1 Es sei darauf hingewiesen, dass das Teilen von KI-generierten oder mit KI angereicherten Inhalten auf Snapchat nicht gegen unsere Richtlinien verstößt, und dass wir dies grundsätzlich nicht als schädlich erachten. Snapchatter haben seit vielen Jahren ihre Freude daran, Bilder mit lustigen Linsen und anderen AR-Erlebnissen zu manipulieren. Für uns ist es eine spannende Aufgabe, unserer Community neue Wege der Nutzung von KI zu eröffnen, damit sie ihre Kreativität entfalten können. Wenn Inhalte jedoch betrügerisch (oder anderweitig schädlich) sind, werden wir sie natürlich entfernen. Das erfolgt unabhängig davon, in welchem Ausmaß KI-Technologie beim Erstellen ihrer Inhalte eine Rolle gespielt hat.