La nostra risposta alle associazioni della società civile sull'integrità delle elezioni

22 aprile 2024

All'inizio di questo mese, Snap, insieme ad altre importanti aziende del comparto tecnologico, ha ricevuto una lettera da oltre 200 associazioni della società civile, ricercatori e giornalisti in cui si chiedeva di intensificare gli sforzi per proteggere l'integrità delle elezioni del 2024. Condividendo il valore di questa causa, ci impegniamo a garantire che le persone di tutto il mondo possano partecipare alle elezioni nel proprio Paese e a fare il possibile per proteggere la nostra democrazia.

Data l'importanza di questi temi e la profonda responsabilità che sentiamo nei confronti delle centinaia di milioni di persone che utilizzano Snapchat per comunicare con i propri amici e familiari e per conoscere meglio il mondo attraverso i nostri contenuti, abbiamo deciso di rendere pubblica la nostra risposta. Di seguito puoi leggere la nostra lettera e saperne di più sui nostri piani per le elezioni di quest'anno qui.

***

21 aprile 2024

Spettabili associazioni della società civile:

Grazie per il vostro lavoro di vigilanza e sostegno in questo anno straordinariamente ricco di eventi elettorali. Vi ringraziamo per averci dato l'opportunità di parlare del modo in cui Snap si sta assumendo le proprie responsabilità in questo contesto e di come questi sforzi rispecchino i valori della nostra azienda. 

Panoramica dell'approccio di Snapchat

Il nostro approccio per mantenere l'integrità della piattaforma durante le elezioni è ampio e articolato. A un livello più alto, gli elementi chiave sono:

  • Misure di salvaguardia intenzionali dei prodotti;

  • Politiche chiare e ponderate; 

  • Approccio diligente agli annunci di propaganda politica;

  • Operazioni coordinate e di collaborazione e

  • Offerta di strumenti e risorse per responsabilizzare gli Snapchatter.


Nel loro insieme questi pilastri costituiscono la base del nostro approccio per mitigare i rischi legati alle elezioni, garantendo al contempo agli Snapchatter di accedere a strumenti e informazioni a supporto della partecipazione ai processi democratici in tutto il mondo. 

1. Misure di salvaguardia intenzionali dei prodotti

Fin dagli albori, Snapchat è stato progettato per distinguersi dai social media tradizionali. Quando si accede a Snapchat non compare un feed di contenuti infiniti e non moderati e non è consentito fare delle dirette streaming. 

Sappiamo bene che la minaccia maggiore legata alla disinformazione digitale deriva dalla velocità e dalla portata con cui alcune piattaforme digitali ne consentono la diffusione. Le nostre politiche e la nostra architettura impediscono che contenuti non moderati vengano condivisi fuori controllo su ampia scala. Pre-moderiamo i contenuti prima che vengano condivisi con un pubblico più vasto e limitiamo la diffusione di notizie e informazioni di carattere politico, a meno che non provengano da editori e autori di fiducia (tra cui organi di informazione come The Wall Street Journal e The Washington Post negli Stati Uniti, Le Monde in Francia e Times Now in India). 

Nell'ultimo anno, l'introduzione su Snapchat dell'IA generativa è stata gestita con lo stesso livello di scrupolosità. Limitiamo la capacità dei nostri prodotti IA di generare contenuti o immagini che potrebbero essere utilizzati per minare i processi di partecipazione civica o per ingannare gli elettori. Il nostro chatbot, My AI, ad esempio, può fornire informazioni su eventi politici o su questioni sociali d'attualità, ma non è programmato per offrire opinioni su candidati politici o per incoraggiare gli Snapchatter a votare per una determinata forza politica. E nelle funzionalità testo-immagine, abbiamo adottato restrizioni sistematiche sulla generazione di categorie di contenuti a rischio, tra cui le sembianze di noti personaggi politici. 

Da oltre un decennio, e in occasione di varie tornate elettorali, la nostra architettura di prodotto gioca un ruolo centrale nel creare un ambiente estremamente inospitale per gli utenti che intendono alterare i processi di partecipazione civica o minare l'integrità delle informazioni. E i fatti dimostrano che la nostra strategia funziona. I dati più recenti indicano che dal 1 gennaio al 30 giugno 2023 il numero totale di violazioni a livello globale legate alla diffusione di informazioni false (comprese quelle che hanno rischiato di compromettere l'integrità delle elezioni) ha rappresentato lo 0,0038% del totale delle violazioni, rientrando tra le categorie dannose meno probabili sulla nostra piattaforma.

Nel 2024 continueremo a salvaguardare l'integrità della nostra piattaforma adottando un approccio basato sui prodotti e tenendo fede agli impegni assunti in qualità di firmatari dell'Accordo tecnologico per la lotta all'uso ingannevole dell'IA nelle elezioni del 2024.

2. Politiche chiare e ponderate

Per integrare le nostre misure di salvaguardia dei prodotti, abbiamo adottato una serie di politiche volte a garantire sicurezza e integrità in caso di eventi di alto profilo come le elezioni. Ad esempio, le nostre Linee Guida per la Community vietano espressamente la condivisione di informazioni false e dannose, l'incitamento all'odio e le minacce o gli appelli alla violenza. 

Per quanto concerne i contenuti dannosi in un contesto di elezioni, le nostre politiche esterne sono solide e si basano sull'esperienza di ricercatori di spicco nel campo dell'integrità delle informazioni. Tra le categorie di contenuti dannosi vietate troviamo:

  • Interferenza procedurale: misinformazione relativa a elezioni o procedure civiche in corso, come ad esempio la falsa rappresentazione di date e orari importanti o dei requisiti di ammissibilità per la partecipazione;

  • Interferenza alla partecipazione: contenuti che includono minacce alla sicurezza personale o che diffondono voci mirate a scoraggiare la partecipazione al processo elettorale o civico;

  • Partecipazione fraudolenta o illegale: contenuti che incoraggiano le persone a spacciarsi per altri per partecipare al processo civico o per votare o distruggere schede elettorali in modo illegale; e

  • Delegittimazione dei processi civici: contenuti che mirano a delegittimare le istituzioni democratiche sulla base, ad esempio, di affermazioni false o fuorvianti sui risultati delle elezioni.

Torna alle News
1 Vale la pena precisare che la condivisione di contenuti generati o potenziati dall'IA su Snapchat non viola i nostri termini e non è un comportamento che consideriamo intrinsecamente dannoso. Gli Snapchatter manipolano le immagini con Lenti divertenti e altre esperienze AR ormai da molti anni e ci fa piacere vedere come la nostra community utilizzi l'IA per esprimersi in modo creativo. Se, tuttavia, dovessero essere condivisi contenuti ingannevoli (o comunque dannosi), sarà nostra cura rimuoverli, a prescindere dal ruolo che l'IA ha svolto nella loro creazione.