Partilhar a nossa resposta aos Grupos da Sociedade Civil sobre integridade eleitoral

22 de abril de 2024

No início deste mês, a Snap, com outras grandes empresas de tecnologia, recebeu uma carta de mais de 200 organizações da sociedade civil, investigadores e jornalistas reivindicando um aumento dos seus esforços para proteger a integridade das eleições em 2024. Agradecemos o seu empenho e partilhamos o compromisso de garantir que pessoas por todo o mundo possam participar nas eleições, fazendo tudo o que conseguimos para proteger a nossa democracia.

Dada a importância destes problemas e a profunda responsabilidade que sentimos perante centenas de milhares de pessoas que utilizam o Snapchat para comunicar com os seus amigos e familiares e para saber mais sobre o mundo através do nosso conteúdo, sentimos que seria importante divulgar a nossa resposta publicamente. Pode ler a nossa carta abaixo e saber mais sobre os nossos planos para as eleições deste ano aqui.

***

21 de abril de 2024

Estimadas organizações da sociedade civil:

Obrigado pela vossa vigilância e defesa constantes ao longo deste ano de atividade eleitoral sem precedentes pelo mundo fora. Estamos gratos pela oportunidade de partilhar mais sobre a forma como a Snap aborda as suas responsabilidades neste ambiente, e como estes esforços combinam com os valores de longa data da empresa. 

Visão geral da abordagem do Snapchat

A nossa abordagem à integridade da plataforma ligada às eleições é estruturada por camadas. A um nível elevado, os elementos fundamentais incluem:

  • Salvaguardas intencionais nos produtos;

  • Políticas claras e ponderadas; 

  • Abordagem diligente dos anúncios políticos;

  • Operações colaborativas e coordenadas; e

  • Disponibilização de ferramentas e recursos para capacitar os Snapchatters.


Em conjunto, estes pilares sustentam a nossa abordagem para mitigar uma vasta gama de riscos inerentes a eleições, garantindo simultaneamente aos utilizadores do Snapchat acesso a ferramentas e informações que apoiam a participação nos processos democráticos em todo o mundo. 

1. Salvaguardas intencionais nos produtos

Desde o início que o Snapchat foi concebido de forma diferente das redes sociais tradicionais. O Snapchat não se abre para um feed de conteúdo infinito e não controlado, e não permite que se faça transmissões em direto. 

Há muito que reconhecemos que as maiores ameaças da desinformação digital danosa decorrem da velocidade e da escala com que algumas plataformas digitais permitem que a mesma se propague. As políticas e a arquitetura da nossa plataforma limitam as oportunidades de conteúdo não controlado ou não moderado escalar significativamente sem verificação. Pelo contrário, moderamos previamente o conteúdo antes de poder ser difundido para um grande público e limitamos amplamente a distribuição de notícias e informações políticas, a menos que provenham de editores e criadores de confiança (incluindo, por exemplo, organizações de comunicação social como o The Wall Street Journal e o Washington Post dos EUA, o Le Monde de França e o Times Now da Índia). 

Ao longo do último ano, a introdução de funcionalidades de IA generativa no Snapchat tem exigido o mesmo nível de intenção. Limitamos as capacidades de os nossos produtos de IA gerarem conteúdos ou imagens que possam ser usados para minar processos cívicos ou enganar os eleitores. O nosso chatbot, a My AI, por exemplo, pode fornecer informações sobre eventos políticos ou contextualizar questões sociais; está programado para não dar opiniões sobre candidatos políticos ou incentivar os utilizadores do Snapchat a votar no sentido de um desfecho em particular. E, nas nossas funcionalidades de texto para imagem, adotámos restrições ao nível do sistema para a geração de categorias de conteúdo arriscado, incluindo a imagem de figuras políticas conhecidas. 

Há mais de uma década, e ao longo de vários ciclos eleitorais, a arquitetura dos nossos produtos tem desempenhado um papel central na criação de um ambiente altamente inóspito para os intervenientes que visam perturbar processos cívicos ou minar o ambiente da informação. E as evidências sugerem que tem funcionado bem. Os nossos dados mais recentes indicam que, de 1 de janeiro a 30 de junho de 2023, o número total de fiscalizações a nível mundial de informações falsas nocivas (incluindo riscos da integridade eleitoral) representou 0,0038% do total do conteúdo regularizado, enquadrando-se nas categorias de danos mais reduzidos na nossa plataforma.

Em 2024, continuaremos a associar uma abordagem progressiva dos produtos à responsabilidade de integridade da nossa plataforma, incluindo aos nossos compromissos como signatários do Acordo de Tecnologia para Combater a Utilização Enganosa da IA nas Eleições de 2024.

2. Políticas claras e ponderadas

Para complementar as nossas salvaguardas nos produtos, implementámos uma série de políticas que visam promover a segurança e a integridade num contexto de eventos de alto nível, como as eleições. As nossas Diretrizes da Comunidade proíbem expressamente, por exemplo, informações falsas prejudiciais, incitamento ao ódio, à violência ou ameaças. 

Sobre o tema dos conteúdos prejudiciais relacionados com eleições, as nossas políticas externas são sólidas e sustentadas pelos principais investigadores no domínio da integridade da informação. Traçam categorias específicas de conteúdo prejudicial que são proibidas, entre as quais:

  • Interferência nos procedimentos: informação incorreta relacionada com uma eleição real ou procedimentos cívicos, como a deturpação de datas e horas importantes ou requisitos de elegibilidade para a participação;

  • Interferência na participação: conteúdos com intimidação à segurança pessoal ou que espalham rumores para travar a participação num processo eleitoral ou cívico;

  • Participação fraudulenta ou ilegal: conteúdos que incentivem as pessoas a desvirtuarem-se para participarem num processo cívico ou a realizarem ou destruírem ilegalmente votos; e

  • Falta de legitimidade dos processos cívicos: conteúdos que visam a falta de legitimidade das instituições democráticas com base em alegações falsas ou enganosas sobre os resultados eleitorais, por exemplo.

Regresso às notícias
1 É importante salientar que a partilha de conteúdo gerado por IA ou melhorado por IA no Snapchat não vai contra as nossas políticas e muito menos algo que entendemos como intrinsecamente prejudicial. Há muitos anos que os Snapchatters têm sentido a emoção de manipular imagens com Lentes divertidas e outras experiências de RA e estamos entusiasmados com as formas pelas quais a nossa comunidade pode usar a IA para se expressar criativamente. Se, no entanto, o conteúdo for enganoso (ou de outra forma prejudicial), será certamente removido, independentemente do grau desempenhado pela tecnologia de IA na sua criação.