Compartilhando nossa resposta aos Grupos da Sociedade Civil sobre Integridade Eleitoral

22 de abril de 2024

No início deste mês, a Snap, juntamente com outras grandes empresas de tecnologia, recebeu uma carta de mais de 200 organizações, pesquisadores e jornalistas da sociedade civil, pedindo que aumentássemos nossos esforços para proteger a integridade das eleições em 2024. Agradecemos seu apoio e compartilhamos seu compromisso de garantir que pessoas em todo o mundo possam participar de suas eleições, enquanto fazemos tudo o que podemos para ajudar a proteger nossa democracia.

Dada a importância desses problemas e a profunda responsabilidade que sentimos com as centenas de milhões de pessoas que usam o Snapchat para se comunicar com seus amigos e familiares e saber mais sobre o mundo por meio de nosso conteúdo, sentimos que era importante divulgar nossa resposta publicamente. Você pode ler nossa carta abaixo e saber mais sobre nossos planos para as eleições deste ano, aqui.

***

21 de abril de 2024

Caras organizações da sociedade civil:

Obrigado por sua vigilância e ativismo contínuos neste ano de atividade eleitoral sem precedentes em todo o mundo. Somos gratos pela oportunidade de compartilhar mais sobre como a Snap está abordando nossas responsabilidades neste ambiente e como esses esforços se ajustam aos valores de longa data de nossa empresa. 

Visão geral da Abordagem do Snapchat

Nossa abordagem à integridade da plataforma relacionada às eleições é dividida em camadas. Em linhas gerais, os elementos principais incluem:

  • Proteções intencionais de produtos;

  • Políticas claras e ponderadas; 

  • Abordagem diligente a anúncios políticos;

  • Operações colaborativas e coordenadas; e

  • Oferecer ferramentas e recursos para empoderar os Snapchatters.


Em conjunto, esses pilares sustentam nossa abordagem para mitigar uma ampla gama de riscos relacionados às eleições, além de garantir que os Snapchatters tenham acesso a ferramentas e informações que apoiam a participação em processos democráticos em todo o mundo. 

1. Proteções intencionais de produtos

Desde o início, o Snapchat foi projetado de forma diferente das mídias sociais tradicionais. O Snapchat não abre um feed de conteúdo infinito e não supervisionado e não permite que as pessoas façam streaming ao vivo. 

Reconhecemos há muito tempo que as maiores ameaças de desinformação digital prejudicial derivam da velocidade e escala com que algumas plataformas digitais permitem que elas se espalhem. Nossas políticas e arquitetura da plataforma limitam as oportunidades de conteúdo não supervisionado ou não moderado para alcançar uma escala significativa sem controle. Em vez disso, revisamos o conteúdo antes de ser amplificado para um grande público e limitamos amplamente a distribuição de notícias e informações políticas, a menos que venham de editores e criadores de confiança (incluindo, por exemplo, organizações de mídia como The Wall Street Journal e The Washington Post, nos EUA, Le Monde, na França, e Times Now na Índia). 

No ano passado, a introdução de funcionalidades de IA generativa no Snapchat foi atendida com o mesmo nível de intenção. Limitamos as habilidades de nossos produtos de IA na geração de conteúdo ou imagens que possam ser usados para prejudicar processos cívicos ou enganar eleitores. Nosso chatbot, a My AI, por exemplo, pode fornecer informações sobre eventos políticos ou contexto em torno de questões sociais; ele está programado para não oferecer opiniões sobre candidatos políticos ou incentivar os Snapchatters a votarem em um resultado específico. E em nossas funcionalidades de texto para imagem, adotamos restrições ao nível de sistema na geração de categorias de conteúdo de risco, incluindo o rosto de figuras políticas conhecidas. 

Há mais de uma década e, em vários ciclos eleitorais, a arquitetura de nossos produtos desempenha papel central na criação de um ambiente altamente inóspito para os atores que trabalham para interromper processos cívicos ou prejudicar o ambiente de informações. E as evidências sugerem que funciona bem. Nossos dados mais recentes indicam que, de 1º de janeiro a 30 de junho de 2023, o número total de medidas aplicadas globalmente por informações falsas prejudiciais (incluindo riscos para a integridade eleitoral) representou 0,0038% do total de medidas aplicadas, caindo nas categorias de menor probabilidade de danos em nossa plataforma.

Continuaremos a adotar uma abordagem avançada de produtos para nossos esforços de integridade da plataforma em 2024, incluindo nossos compromissos como signatários do Acordo de Tecnologia para Combater o Uso Enganoso de IA nas eleições de 2024.

2. Políticas claras e ponderadas

Para complementar nossas proteções de produtos, implementamos uma série de políticas que funcionam para promover a segurança e a integridade no contexto de eventos de grande importância, como as eleições. Nossas Diretrizes Comunitárias proíbem expressamente, por exemplo, informações falsas prejudiciais, discurso de ódio e ameaças ou convocações à violência. 

Sobre o tema de conteúdo prejudicial relacionado às eleições, nossas políticas externas são robustas e informadas pelos principais pesquisadores no campo da integridade da informação. Elas explicitam categorias específicas de conteúdo prejudicial que são proibidos, incluindo:

  • Interferência processual: desinformação relacionada a procedimentos eleitorais ou cívicos reais, como deturpar datas e horários importantes ou requisitos de elegibilidade de participação;

  • Interferência de participação: conteúdo que inclua intimidação à segurança pessoal ou espalhe rumores para impedir a participação no processo eleitoral ou cívico;

  • Participação fraudulenta ou ilegal: conteúdo que incentiva as pessoas a deturparem a si mesmas para participar do processo cívico ou votar ilegalmente, ou destruir ilegalmente cédulas de voto; e

  • Deslegitimação de processos cívicos: conteúdo visando deslegitimar as instituições democráticas com declarações falsas ou enganosas sobre os resultados da eleição, por exemplo.

Voltar para Notícias
1 Vale a pena observar que compartilhar conteúdo gerado por IA ou aprimorado por IA no Snapchat não é contra nossas políticas e certamente não é algo que entendemos ser inerentemente prejudicial. Há muitos anos, os Snapchatters gostam de manipular imagens com Lentes divertidas e outras experiências de RA, e estamos empolgados com as maneiras pelas quais nossa comunidade pode usar a IA para se expressar de forma criativa. Se, no entanto, o conteúdo for enganoso (ou de outra forma prejudicial), é claro que removeremos, independentemente do grau em que a tecnologia de IA possa ter desempenhado um papel em sua criação.