Választási integritással kapcsolatos válaszunk a civil társadalmi csoportoknak

2024. április 22.

A hónap elején a Snap más jelentős techcégekkel együtt levelet kapott több mint 200 civil társadalmi szervezettől, kutatóktól és újságíróktól, amelyben arra sürgettek minket, hogy még nagyobb erőfeszítéseket tegyünk a 2024-es választások integritásának védelme érdekében. Nagyra értékeljük az érdekképviseletüket, és osztozunk az elkötelezettségükben, melynek célja, hogy az emberek világszerte részt vehessenek a választásokon, miközben minden tőlünk telhetőt megteszünk a demokráciánk védelme érdekében.

Tekintettel e kérdések fontosságára és arra, hogy komoly felelősséget érzünk a több száz millió ember iránt, akik a Snapchaten kommunikálnak a barátaikkal és a családjukkal, és akik a tartalmainkon keresztül tájékozódnak a világról, úgy érezzük, fontos, hogy válaszunkat nyilvánosan is közzétegyük. Levelünket az alábbiakban olvashatod, itt pedig még többet megtudhatsz az idei választásokra vonatkozó terveinkről.

***

2024. április 21.

Tisztelt Civil társadalmi szervezetek!

Köszönjük folyamatos éberségüket és érdekérvényesítésüket az idei évben a világszerte zajló példátlan választási tevékenységeket illetően. Hálásak vagyunk, hogy lehetőséget kapunk arra, hogy még többet megosszunk arról, a Snap miként közelíti meg a felelősségvállalást ebben a környezetben, illetve hogy ezek a törekvések milyen szerepet játszanak vállalatunk régóta fennálló értékeiben. 

A Snapchat megközelítésének áttekintése

A választásokkal kapcsolatos platformintegritásunk megközelítése többrétű. A magasabb szint főbb elemei a következők:

  • Célzott termékvédelem;

  • Világos és átgondolt irányelvek;

  • A politikai hirdetések gondos megközelítése;

  • Együttműködő, összehangolt műveletek; és

  • Eszközök és erőforrások biztosítása a Snapchat-felhasználók számára.


E pillérek együttesen támogatják a választásokkal kapcsolatos veszélyek széles körének mérséklésére irányuló céljainkat, miközben azt is biztosítják, hogy a Snapchat-felhasználók világszerte hozzáférjenek azokhoz az eszközökhöz és információkhoz, amelyek támogatják a demokratikus folyamatokban való részvételt. 

1. Célzott termékvédelem

A Snapchat már a kezdetektől fogva eltér a hagyományos közösségi médiáktól. A Snapchaten nincs végtelen hírfolyam, ellenőrizetlen tartalom, és nem teszi lehetővé az élő streamelést. 

Már régen felismertük, hogy a káros digitális félretájékoztatás legnagyobb veszélyei abból erednek, hogy egyes digitális platformok lehetővé teszik ezek gyors és nagy mértékű terjedését. Platformunk irányelve és felépítése korlátozza az ellenőrizetlen és moderálatlan tartalmak megjelenésének lehetőségét, így nem tudnak ellenőrizetlenül jelentős méreteket ölteni. Ehelyett már azelőtt moderáljuk a tartalmakat, mielőtt nagyobb közönséghez is eljuthatnának, és széles körben korlátozzuk a hírek és politikai információk terjesztését, kivéve, ha azok megbízható kiadóktól vagy alkotóktól származnak (beleértve például olyan médiaszervezeteket, mint a The Wall Street Journal és a The Washington Post az Egyesült Államokban, a Le Monde Franciaországban és a Times Now Indiában). 

Az elmúlt évben, a Snapchat generatív mesterséges intelligencia funkcióinak bevezetése során is ugyanez volt a célunk. Korlátozzuk MI-termékeink azon képességeit, amelyek olyan tartalmakat vagy képeket hozhatnak létre, melyek a polgári folyamatok veszélyeztetésére vagy a szavazók megtévesztésére használhatók. Chatbotunk, a My AI például tájékoztatást nyújt a politikai eseményekről vagy a társadalmi kérdések kontextusairól, de úgy programoztuk, hogy ne véleményezhesse a politikai jelölteket és ne bátoríthassa a Snapchat-felhasználókat arra, hogy egy bizonyos eredmény érdekében szavazzanak. A szövegből képet alkotó funkciónkat pedig rendszerszinten korlátoztuk a kockázatos tartalomkategóriák generálásában, beleértve az ismert politikai alakokkal való hasonlóságot.

Termékarchitektúránk számos választási ciklussal a háta mögött több mint egy évtizede központi szerepet játszik abban, hogy rendkívül barátságtalan környezetet teremtsen azok számára, akiknek célja a polgári folyamatok megzavarása vagy az információs környezet veszélyeztetése. A bizonyítékok arra utalnak, hogy mindez működik. Legfrissebb adataink alapján 2023. január 1. és június 30. között a káros, hamis információk (beleértve a választási integritást fenyegető veszélyeket) miatt világszerte végrehajtott eljárások száma az összes eljárás 0,0038%-át tette ki, és ezzel a legalacsonyabb veszélyességi kategóriába esik a platformunkon.

A platformintegritásra irányuló törekvéseinket 2024-ben is termékorientált megközelítéssel fogjuk folytatni, beleértve a 2024-es választásokon a mesterséges intelligencia megtévesztő használata elleni küzdelemről szóló technológiai megállapodás aláíróiként vállalt kötelezettségeinket.

2. Világos és átgondolt irányelvek

Termékvédelmünk kiegészítéseként számos olyan irányelvet bevezettünk, amelyek célja a biztonság és az integritás támogatása az olyan nagy horderejű események során, mint a választások. Közösségi iránymutatásaink kifejezetten tiltják például a káros, hamis információkat, a gyűlöletbeszédet, valamint a fenyegetést és az erőszakra való felhívást. 

A választással kapcsolatos káros tartalmakra irányuló külső irányelveink szilárdak, melyeket az információintegritás területének vezető kutatói alapoztak meg. Az irányelvek meghatározzák a tiltott káros tartalmakat, többek között:

  • Eljárási interferencia: a tényleges választási vagy polgári eljárásokkal kapcsolatos félretájékoztatás, például a fontos dátumok és időpontok vagy a részvételi feltételek megtévesztő bemutatása;

  • Részvételi interferencia: olyan tartalmak, amelyek veszélyt jelentenek a személyes biztonságra, vagy olyan pletykákat terjesztenek, amelyek megakadályozzák a választási vagy polgári folyamatban való részvételt;

  • Csalás vagy jogellenes részvétel: olyan tartalmak, amelyek arra ösztönzik az embereket, hogy hamis képet mutassanak magukról a polgári eljárásban való részvétel során, vagy hogy szabálytalanul adják le vagy semmisítsék meg szavazólapjukat, és

  • A polgári folyamatok delegitimálása: olyan tartalmak, melyek célja a demokratikus intézmények delegitimálása, például a választási eredményekre vonatkozó hamis vagy félrevezető állítások alapján.

Vissza a hírekhez
1 Érdemes megjegyezni, hogy a Snapchat szabályaival nem ellenkeznek a mesterséges intelligencia által generált vagy javított tartalmak megosztása, és alapvetően nem is tartjuk őket károsnak. A Snapchat-felhasználók évek óta örömüket lelik a képek vicces objektívekkel és más AR-élményekkel történő manipulálásában, és örömmel látjuk, hogy közösségünk hányféleképpen használhatja a mesterséges intelligenciát a kreatív önkifejezésre. Azonban ha a tartalom megtévesztő (vagy más módon káros), akkor természetesen eltávolítjuk, függetlenül attól, hogy a mesterséges intelligencia technológia milyen mértékben játszhatott szerepet a létrehozásában.