Sdílení naší odpovědi skupinám občanské společnosti týkající se integrity voleb

22. dubna 2024

V rámci tohoto měsíce obdržela společnost Snap spolu s dalšími významnými technologickými společnostmi dopis od více než 200 organizací občanské společnosti, výzkumných pracovníků a novinářů, ve kterém nás vyzývají, abychom zvýšili své úsilí o ochranu integrity voleb v roce 2024. Oceňujeme jejich angažovanost a sdílíme jejich odhodlání zajistit, aby se lidé po celém světě mohli účastnit svých voleb, a zároveň uděláme vše pro to, abychom pomohli chránit naši demokracii.

Vzhledem k významu těchto otázek a hluboké zodpovědnosti, kterou cítíme vůči stovkám milionů lidí používajících Snapchat ke komunikaci se svými přáteli a rodinou a k poznávání světa prostřednictvím našeho obsahu, jsme považovali za důležité zveřejnit naši reakci. Náš dopis si můžete přečíst níže a více informací o našich plánech pro letošní volby najdete zde.

***

21. dubna 2024

Vážené organizace občanské společnosti:

Děkujeme vám za vaši trvající bdělost a angažovanost v letošním roce bezprecedentní volební aktivity po celém světě. Jsme vděční za možnost se více podělit o to, jak společnost Snap přistupuje ke své zodpovědnosti v tomto prostředí a jak toto úsilí odpovídá dlouhodobým hodnotám naší společnosti. 

Přehled přístupu platformy Snapchat

Náš přístup k integritě platformy související s volbami má více vrstev. Mezi základní prvky na vysoké úrovni patří:

  • Záměrná ochranná opatření produktu;

  • Jasné a promyšlené zásady; 

  • Důsledný přístup k politickým reklamám;

  • Společné a koordinované postupy; a

  • Poskytování nástrojů a zdrojů podporujících Snapchattery.


Tyto pilíře společně tvoří základ našeho přístupu ke zmírnění široké škály rizik souvisejících s volbami a zároveň zajišťují přístup Snapchatterů k nástrojům a informacím, které podporují účast v demokratických procesech po celém světě. 

1. Záměrná ochranná opatření produktu

Snapchat byl od počátku navržen jinak než tradiční sociální média. Snapchat není otevřený feedu nekonečného, neprověřeného obsahu a nedovoluje lidem streamovat naživo. 

Již dlouho chápeme, že největší hrozby pramenící ze škodlivých digitálních dezinformací pramení z rychlosti a rozsahu, které některé digitální platformy umožňují pro jejich rozšíření. Zásady naší platformy a její architektura omezují možnosti, aby neprověřený nebo nemoderovaný obsah dosáhl smysluplného rozsahu bez kontroly. Místo toho předem moderujeme obsah, ještě než může být rozšířen širokému publiku, a široce omezujeme distribuci zpráv a politických informací, nepochází-li od důvěryhodných vydavatelů a tvůrců (včetně například mediálních organizací jako je The Wall Street Journal a The Washington Post ve Spojených státech, Le Monde ve Francii a Times Now v Indii). 

V průběhu tohoto minulého roku bylo stejným úmyslem vedeno zavedení funkcí generativní umělé inteligence na Snapchatu. Omezujeme schopnosti našich produktů umělé inteligence vytvářet obsah nebo snímky, které by mohly být použity k podkopávání občanských procesů nebo podvádění voličů. Náš chatbot My AI může například poskytovat informace o politických událostech nebo kontextu kolem sociálních problémů; je programován tak, aby nenabízel názory na politické kandidáty nebo nepodněcoval Snapchattery k hlasování pro konkrétní výsledek. A do našich funkcí převodu textu na obrázky jsme přijali omezení na systémové úrovni týkající se generování rizikových kategorií obsahu, včetně podoby známých politických osobností. 

Již přes deset let hrála naše produktová architektura v rámci více volebních cyklů ústřední roli při vytváření vysoce nehostinného prostředí pro aktéry usilující o narušení občanských procesů nebo podkopávání informačního prostředí. A důkazy naznačují tomu, že to funguje dobře. Naše nejnovější údaje naznačují, že od 1. ledna do 30. června 2023 celkový počet případů omezení škodlivých nepravdivých informací celosvětově (včetně rizik pro volební integritu) představoval 0,0038 % celkového rozsahu omezení, což na naší platformě spadá do kategorií s nejnižší pravděpodobností újmy.

V roce 2024 budeme pokračovat ve svém úsilí o zajištění integrity platformy včetně našich závazků jakožto signatářů Dohody o boji proti klamavému využívání umělé inteligence ve volbách v roce 2024.

2. Jasné a promyšlené zásady

Jako doplněk k našim produktovým bezpečnostním opatřením jsme zavedli řadu zásad, jejichž cílem je podpořit bezpečnost a integritu v souvislosti s významnými událostmi, jako jsou volby. Naše Pokyny pro komunitu výslovně zakazují například škodlivé nepravdivé informace, projevy nenávisti a hrozby nebo výzvy k násilí. 

Pokud jde o téma škodlivého obsahu v souvislosti s volbami, jsou naše externí zásady důkladné a podložené informacemi předních výzkumných pracovníků v oblasti integrity informací. Uvádějí konkrétní kategorie škodlivého obsahu, který je zakázán, včetně následujících:

  • Procesní zasahování: mylné informace týkající se skutečných voleb nebo občanských postupů, jako je zkreslení důležitých termínů a časů nebo požadavků pro způsobilost k účasti;

  • Zasahování do účasti: obsah zahrnující výhrůžky vůči osobní bezpečnosti nebo šíření poplašných zpráv za účelem odrazení od účasti ve volbách nebo občanském procesu;

  • Podvodná nebo protiprávní účast: obsah povzbuzující lidi, aby o sobě zkreslovali údaje ve vztahu k účasti na občanském procesu nebo aby nelegálně vhazovali či ničili volební lístky; a

  • Delegitimizování občanských procesů: obsah směřující například k delegitimizaci demokratických institucí na základě nepravdivých nebo zavádějících tvrzení o výsledcích voleb.

Zpět na Novinky
1 Stojí za zmínku, že sdílení obsahu vytvořeného umělou inteligencí nebo obohaceného umělou inteligencí na Snapchatu není v rozporu s našimi zásadami, a rozhodně to není něco, co považujeme za škodlivé samo o sobě. Již řadu let nachází Snapchatteři radost v úpravách snímků pomocí zábavných Objektivů a dalších zážitků s AR. Jsme nadšeni z toho, jak může naše komunita používat umělou inteligenci k tomu, aby se kreativně vyjádřila. Pokud je však obsah klamavý (nebo jinak škodlivý), pak jej samozřejmě odstraníme bez ohledu na to, do jaké míry mohla technologie umělé inteligence hrát roli v jeho tvorbě.