Nasza odpowiedź do grup społeczeństwa obywatelskiego na temat uczciwego przebiegu wyborów

22 kwietnia 2024 r.

Na początku tego miesiąca Snap oraz inne duże firmy technologiczne otrzymały list od ponad 200 organizacji społeczeństwa obywatelskiego, badaczy i dziennikarzy wzywający do zwiększenia wysiłków w celu ochrony integralności wyborów w 2024 r. Doceniamy ich zaangażowanie i również zobowiązujemy się zapewnić, że ludzie na całym świecie mogą uczestniczyć w wyborach, a jednocześnie robimy wszystko, co w naszej mocy, aby chronić demokrację.

Biorąc pod uwagę jak ważne są te kwestie oraz dużą odpowiedzialność, jaką odczuwamy wobec setek milionów osób, które korzystają ze Snapchata do komunikowania się ze znajomymi i rodziną oraz dowiadują się więcej o świecie za pośrednictwem naszych treści, uznaliśmy, że ważne jest publiczne opublikowanie naszej odpowiedzi. Nasz list możesz przeczytać poniżej. Więcej na temat naszych planów na tegoroczne wybory dowiesz się tutaj.

***

21 kwietnia 2024 r.

Drogie organizacje społeczeństwa obywatelskiego:

Dziękujemy za bezustanną czujność i wsparcie w tym roku bezprecedensowej aktywności wyborczej na całym świecie. Jesteśmy wdzięczni za to, że możemy podzielić się informacjami na temat tego, w jaki sposób Snap podchodzi do naszych obowiązków w tym środowisku oraz tego, w jaki sposób te wysiłki odpowiadają długoletnim wartościom naszej firmy. 

Nasze podejście

Nasze podejście do uczciwości naszej platformy w kontekście wyborów ma kilka warstw. Podstawowe elementy obejmują:

  • Celowe środki bezpieczeństwa w produkcie;

  • Jasne i przemyślane zasady; 

  • Pilne przestrzeganie zasad w kontekście reklam politycznych;

  • Skoordynowane operacje oparte na współpracy oraz

  • Oferowanie narzędzi i zasobów w celu wzmocnienia pozycji użytkowników Snapchata.


Razem filary te stanowią podstawę naszego podejścia do zapobieżenia szerokiemu zakresowi zagrożeń związanych z wyborami, zapewniając jednocześnie użytkownikom Snapchata dostęp do narzędzi i informacji, które wspierają ich udział w procesach demokratycznych na całym świecie. 

1. Celowe środki bezpieczeństwa w produkcie;

Od samego początku Snapchat był zaprojektowany inaczej niż tradycyjne media społecznościowe. W serwisie Snapchat nie ma niekończącej się listy niesprawdzonych treści, nie pozwala się też użytkownikom na streaming na żywo. 

Od dawna zdajemy sobie sprawę, że największe zagrożenia wynikające ze szkodliwej cyfrowej dezinformacji wynikają z szybkości i skali, na jaką niektóre platformy cyfrowe umożliwiły się ich rozpowszechnianie. Nasze zasady i architektura platformy ograniczają możliwości udostępniania niesprawdzonych lub niemoderowanych treści na dużą skalę, bez kontroli. Zamiast tego wstępnie moderujemy treści, zanim zostaną one udostępnione dużej grupie odbiorców, a także ograniczamy dystrybucję wiadomości i informacji o treściach politycznych, chyba że pochodzą one od zaufanych wydawców i twórców (w tym na przykład organizacji medialnych, takich jak The Wall Street Journal i The Washington Post w Stanach Zjednoczonych, Le Monde we Francji i Times Now w Indiach). 

Gdy w ubiegłym roku wprowadziliśmy narzędzia generatywnej sztucznej inteligencji na Snapchacie, zrobiliśmy to z takim samym poziomem intencji. Ograniczamy możliwości naszych produktów AI w zakresie generowania treści lub zdjęć, które mogłyby zostać wykorzystane do podważenia procesów obywatelskich lub oszukania wyborców. Nasz chatbot, My AI, może na przykład dostarczać informacji na temat wydarzeń politycznych lub kontekstu otaczającego problemy społeczne. Nie jest zaprogramowany w celu oferowania opinii na temat kandydatów politycznych ani zachęcania użytkowników Snapchata do głosowania w określony sposób. A w naszych funkcjach przekształcania tekstu na obraz przyjęliśmy ograniczenia na poziomie systemowym dotyczące generowania ryzykownych kategorii treści, w tym wizerunku znanych postaci politycznych. 

Od ponad dziesięciu lat i w wielu cyklach wyborczych, architektura naszego produktu odgrywa kluczową rolę w tworzeniu wysoce niegościnnego środowiska dla podmiotów zaangażowanych w zakłócanie procesów obywatelskich lub osłabianie środowiska informacyjnego. Dowody sugerują, że działa to dobrze. Nasze najnowsze dane wskazują, że od 1 stycznia do 30 czerwca 2023 r. całkowita liczba działań na całym świecie dotyczących szkodliwych fałszywych informacji (włącznie z ryzykiem dla poprawnego przebiegu wyborów) stanowiła 0,0038% całkowitych skontrolowanych treści, mieszcząc się w kategorii najmniejszego prawdopodobieństwa wystąpienia szkody na naszej platformie.

W 2024 r. będziemy nadal wprowadzać podejście skoncentrowane na produkcie w celu zapewnienia integralności naszej platformy. Obejmuje to nasze zobowiązania jako sygnatariuszy porozumienia technologicznego dotyczącego zwalczania oszukańczego wykorzystania sztucznej inteligencji w wyborach w 2024 r.

2. Jasne i przemyślane zasady

Aby uzupełnić zabezpieczenia naszego produktu wdrożyliśmy szereg zasad, które działają na rzecz zwiększenia bezpieczeństwa i integralności w kontekście ważnych wydarzeń, takich jak wybory. Nasze Wytyczne dla społeczności wyraźnie zabraniają na przykład udostępniania szkodliwych fałszywych informacji, mowy nienawiści oraz gróźb lub wezwań do przemocy. 

Jeśli chodzi o szkodliwe treści związane z wyborami to nasza polityka zewnętrzna jest solidna i oparta na danych od czołowych badaczy w dziedzinie przejrzystości informacji. Określa ona konkretne kategorie szkodliwych treści, które są zabronione, w tym:

  • Zakłócenia proceduralne: podawanie mylnych informacji związanych z rzeczywistymi procedurami wyborczymi lub obywatelskimi, np. błędne przedstawianie ważnych dat i godzin lub wymogów kwalifikujących do uczestnictwa.

  • Zakłócanie uczestnictwa: treści obejmujące zastraszanie odnoszące się do bezpieczeństwa osobistego lub rozpowszechnianie plotek w celu zniechęcenia do udziału w procesie wyborczym lub obywatelskim.

  • Uczestnictwo oparte na oszustwie lub bezprawne: treści, które zachęcają do podawania nieprawdziwych informacji w celu uczestniczenia w procesie obywatelskim lub do nielegalnego oddania głosu lub niszczenia kart do głosowania.

  • Odebranie statusu legalności procesom obywatelskim: treści mające na celu odebranie statusu legalności demokratycznym instytucjom na przykład na podstawie fałszywych lub wprowadzających w błąd twierdzeń o wynikach wyborów.

Powrót do Aktualności
1 Warto zauważyć, że udostępnianie na Snapchat treści generowanych przez sztuczną inteligencję lub wzbogaconych przez nią nie jest sprzeczne z naszymi zasadami, a już z pewnością nie jest czymś, co uznajemy za z natury szkodliwe. Od wielu lat użytkownicy Snapchata znajdują radość w manipulowaniu obrazami za pomocą zabawnych nakładek i innych doświadczeń AR, a my jesteśmy podekscytowani sposobami, w jakie nasza społeczność może wykorzystywać sztuczną inteligencję do kreatywnego wyrażania siebie. Jeśli jednak treść jest zwodnicza (lub w inny sposób szkodliwa), oczywiście ją usuniemy, niezależnie od stopnia, w jakim technologia sztucznej inteligencji odegrała rolę w jej stworzeniu.