Partajarea răspunsului nostru către Grupurile societății civile privind integritatea alegerilor

22 aprilie 2024

La începutul acestei luni, Snap, împreună cu alte mari companii din domeniul tehnologic, au primit o scrisoare de la peste 200 de organizații ale societății civile, cercetători și jurnaliști care ne îndeamnă să ne intensificăm eforturile pentru a proteja integritatea alegerilor din 2024. Apreciem sprijinul acestora și de împărtășim angajamentul de a se asigura că oamenii din întreaga lume pot participa la alegeri, făcând în același timp tot ce ne stă în putință pentru a contribui la protejarea democrației noastre.

Având în vedere importanța acestor probleme și responsabilitatea profundă pe care o simțim față de sutele de milioane de oameni care folosesc Snapchat pentru a comunica cu prietenii și familia lor și pentru a afla mai multe despre lume prin intermediul conținutului nostru, am considerat că este important să facem public răspunsul nostru. Puteți citi scrisoarea noastră mai jos și puteți afla mai multe despre planurile noastre pentru alegerile din acest an aici.

***

21 aprilie 2024

Stimate organizații ale societății civile:

Vă mulțumim pentru vigilența și sprijinul constant pe care l-ați acordat în acest an de activitate electorală fără precedent în întreaga lume. Suntem recunoscători pentru oportunitatea de a distribui mai multe informații despre modul în care Snap abordează responsabilitățile noastre în acest mediu și despre modul în care aceste eforturi se potrivesc cu valorile de lungă durată ale companiei noastre. 

Prezentare generală a abordării Snapchat

Abordarea noastră privind integritatea platformei electorale este stratificată. La un nivel înalt, elementele de bază includ:

  • Măsuri de siguranță intenționată pentru produse;

  • Politici clare și bine gândite; 

  • Abordarea diligentă a reclamelor politice;

  • Operațiuni coordonate, în colaborare; și

  • Oferirea de instrumente și resurse pentru a împuternici Snapchatterii.


Împreună, acești piloni stau la baza abordării noastre de atenuare a unei game largi de riscuri legate de alegeri, asigurând, în același timp, accesul Snapchatterilor la instrumente și informații care sprijină participarea la procesele democratice din întreaga lume. 

1. Măsuri de siguranță intenționată pentru produse

Încă de la început, Snapchat a fost conceput diferit de mediile sociale tradiționale. Snapchat nu se deschide la un flux de conținut nesfârșit, nevalidat și nu permite oamenilor să transmită în direct. 

Recunoaștem de mult timp că cele mai mari amenințări din partea dezinformării digitale dăunătoare provin din viteza și amploarea cu care unele platforme digitale permit răspândirea acesteia. Politicile și arhitectura platformei noastre limitează posibilitățile ca un conținut neverificat sau nemoderat să ajungă la o scară semnificativă fără control. În schimb, noi moderăm în prealabil conținutul înainte ca acesta să poată fi amplificat către o audiență mare și limităm în mare măsură distribuția de știri și informații politice, cu excepția cazului în care acestea provin de la editori și creatori de încredere (inclusiv, de exemplu, organizații media, precum The Wall Street Journal și The Washington Post din SUA, Le Monde din Franța și Times Now din India). 

În ultimul an, introducerea funcțiilor de inteligență artificială generativă pe Snapchat a fost întâmpinată cu același nivel de intenție. Limităm abilitățile produselor noastre de inteligență artificială pentru a genera conținut sau imagini care ar putea fi folosite pentru a submina procesele civice sau pentru a înșela alegătorii. Chatbot-ul nostru, My AI, de exemplu, poate oferi informații despre evenimente politice sau despre contextul în care se află problemele sociale; acesta nu este programat să ofere opinii cu privire la candidații politici sau să încurajeze Snapchatterii să voteze pentru un anumit rezultat. În ceea ce privește funcțiile noastre de transformare a textului în imagine, am adoptat restricții la nivel de sistem în ceea ce privește generarea de categorii de conținut riscant, inclusiv asemănarea cu figuri politice cunoscute. 

De mai bine de un deceniu și de-a lungul mai multor cicluri electorale, arhitectura produselor noastre a jucat un rol central în crearea unui mediu extrem de neospitalier pentru actorii care încearcă să perturbe procesele civice sau să submineze mediul informațional. Iar dovezile sugerează că funcționează bine. Cele mai recente date ale noastre indică faptul că, în perioada 1 ianuarie - 30 iunie 2023, numărul total de aplicări la nivel global pentru informații false dăunătoare (inclusiv riscuri pentru integritatea alegerilor) a reprezentat 0,0038% din totalul conținutului aplicat, încadrându-se în categoriile cu cea mai mică probabilitate de prejudicii de pe platforma noastră.

Vom continua să aducem o abordare bazată pe produse pentru eforturile noastre de integritate a platformei în 2024, inclusiv angajamentele noastre în calitate de semnatari ai Acordului tehnic pentru combaterea utilizării înșelătoare a inteligenței artificiale la alegerile din 2024.

2. Politici clare și bine gândite

Pentru a completa măsurile de protecție a produselor noastre, am implementat o serie de politici care au rolul de a promova siguranța și integritatea în contextul unor evenimente de profil înalt, cum ar fi alegerile. Regulile comunității noastre interzic în mod expres, de exemplu, informațiile false dăunătoare, discursurile instigatoare la ură sau apelurile la violenţă. 

În ceea ce privește conținutul dăunător în legătură cu alegerile, politicile noastre externe sunt solide și bazate pe informații furnizate de către cercetători de top în domeniul integrității informațiilor. Acestea precizează categoriile specifice de conținut dăunător care sunt interzise, inclusiv:

  • Interferențe procedurale: informații greșite legate de alegeri sau de proceduri civice reale, cum ar fi reprezentarea greșită a unor date sau ore importante sau a cerințelor de eligibilitate pentru participare;

  • Interferențe de participare: conținut care include intimidarea față de siguranță personală sau răspândește zvonuri care descurajează participarea la procesul electoral sau civic;

  • Participare frauduloasă sau ilegală: conținut care încurajează oamenii să se autoreprezinte greșit atunci când participă la un proces civic sau să arunce/distrugă buletine de vot; și

  • Negarea legitimității unor procese civice: conținut care urmărește să nege legitimitatea instituțiilor democratice, de exemplu, pe baza unor afirmații false sau înșelătoare despre rezultatele alegerilor.

Înapoi la Noutăți
1 Merită menționat faptul că partajarea de conținut generat sau îmbunătățit de inteligență artificială pe Snapchat nu este împotriva politicilor noastre și, cu siguranță, nu este un lucru pe care îl considerăm ca fiind în mod inerent dăunător. De mulți ani, Snapchatterii și-au găsit bucuria de a manipula imaginile cu ajutorul Lentilelor distractive și a altor experiențe AR, iar noi suntem încântați de modurile în care comunitatea noastră poate folosi inteligența artificială pentru a se exprima în mod creativ. Cu toate acestea, în cazul în care conținutul este înșelător (sau dăunător în alt mod), îl vom elimina desigur, indiferent de măsura în care tehnologia inteligenței artificiale a jucat un rol în crearea acestuia.