Compartimos nuestra respuesta sobre la integridad electoral con grupos de la sociedad civil

22 de abril de 2024

A principios de este mes, Snap, junto con otras grandes empresas tecnológicas, recibieron una carta de más de 200 organizaciones de la sociedad civil, investigadores y periodistas instándonos a aumentar nuestros esfuerzos para proteger la integridad de las elecciones de 2024. Agradecemos su apoyo y compartimos el compromiso de garantizar que personas de todo el mundo puedan participar en sus elecciones, a la vez que hacemos todo lo posible para ayudar a proteger nuestra democracia.

Dada la importancia de estos problemas y la profunda responsabilidad que sentimos ante los cientos de millones de personas que utilizan Snapchat para comunicarse con sus amigos, familiares y obtener más información sobre el mundo a través de nuestros contenidos, consideramos que era importante difundir nuestra respuesta de manera pública. Puedes leer nuestra carta a continuación y obtener más información sobre nuestros planes para las elecciones de este año aquí.

***

21 de abril de 2024

Estimadas organizaciones de la sociedad civil:

Gracias por vuestra supervisión y defensa constantes este año de actividad electoral sin precedentes en todo el mundo. Estamos agradecidos por tener la oportunidad de compartir más sobre cómo Snap aborda nuestras responsabilidades en este ámbito y cómo estos esfuerzos se corresponden con los valores de nuestra empresa desde hace mucho tiempo. 

Descripción general del enfoque de Snapchat

Nuestro enfoque en cuanto a la integridad de la plataforma relacionada con las elecciones está estratificado. A alto nivel, los elementos básicos incluyen:

  • Medidas de protección de productos deliberadas;

  • Políticas claras y serias; 

  • Un enfoque diligente de los anuncios políticos;

  • Operaciones colaborativas, coordinadas; y

  • Oferta de herramientas y recursos para empoderar a los Snapchatters.


En conjunto, estos pilares sustentan nuestro enfoque para mitigar una amplia gama de riesgos relacionados con las elecciones, a la vez que garantizamos que los Snapchatters tengan acceso a herramientas e información que respalden la participación en procesos democráticos en todo el mundo. 

1. Medidas de protección de productos deliberadas

Desde el principio, Snapchat se diseñó de manera diferente a las redes sociales tradicionales. Snapchat no se abre a una fuente de contenido interminable y sin examinar, y no permite que las personas transmitan en directo. 

Hace tiempo que detectamos que las mayores amenazas de la desinformación digital perjudicial tienen su origen en la velocidad y escala a la que algunas plataformas digitales permiten su propagación. Nuestras políticas y arquitectura de plataforma limitan las posibilidades de que contenido no examinado o no moderado alcance una escala significativa sin verificarse. En su lugar, moderamos el contenido antes de que pueda llegar a un gran público, y limitamos en general la distribución de noticias e información política, a menos que provenga de editores y creadores de confianza (incluidas, por ejemplo, organizaciones de medios de comunicación, como The Wall Street Journal y The Washington Post en Estados Unidos, Le Monde en Francia y Times Now en India). 

El año pasado, la introducción de funciones de IA generativa en Snapchat se ha llevado a cabo con el mismo nivel de intencionalidad. Limitamos las capacidades de nuestros productos de IA para generar contenido o imágenes que puedan utilizarse para desvirtuar procesos cívicos o engañar a los votantes. Nuestro chatbot, My AI, por ejemplo, puede ofrecer información sobre eventos políticos o contextos relacionados con cuestiones sociales; está programado para no ofrecer opiniones sobre candidatos políticos ni alentar a los Snapchatters a votar por un resultado en particular. Y en nuestras funciones de texto a imagen, hemos adoptado restricciones en el sistema sobre la generación de categorías de contenido de riesgo, incluida la semejanza de figuras políticas conocidas. 

Durante más de una década, y en múltiples ciclos electorales, nuestra arquitectura de producto ha desempeñado un papel fundamental en la creación de un entorno enormemente inhóspito para los agentes que quieren desestabilizar procesos cívicos o perjudicar el entorno de la información. Y las pruebas sugieren que funciona bien. Nuestros últimos datos revelan que entre el 1 de enero y el 30 de junio de 2023, el número total de medidas sobre el cumplimiento de normas a nivel mundial por información falsa y dañina (incluido el riesgo de integridad electoral) representó el 0,0038 % del contenido total implementado, lo que se encuentra dentro de las categorías de menor probabilidad de peligro en nuestra plataforma.

Seguiremos presentando un enfoque de producto para nuestras iniciativas de integridad de la plataforma en 2024, incluidos nuestros compromisos como partes del Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024.

2. Políticas claras y series

Para complementar nuestras medidas de protección de productos, hemos implementado una serie de políticas para mejorar la seguridad y la integridad en eventos de gran repercusión mediática, como las elecciones. Nuestras Pautas para la comunidad prohíben expresamente, por ejemplo, la información falsa y dañina, el discurso de odio y las amenazas o llamamientos a la violencia. 

Sobre el tema de los contenidos dañinos en relación con las elecciones, nuestras políticas externas son sólidas y están fundamentadas por investigadores líderes en el campo de la integridad de la información. En ellas, se detallan categorías específicas de contenidos dañinos que están prohibidos, entre ellas:

  • Intervención en el procedimiento: información errónea relacionada con elecciones reales o procedimientos cívicos, tal como tergiversar fechas y horas importantes o requisitos de elegibilidad para participar;

  • Intervención de participación: contenido que incluya intimidación a la seguridad personal o difunda rumores para disuadir la participación en el proceso electoral o cívico;

  • Participación fraudulenta o ilegal: contenido que aliente a las personas a tergiversarse para participar en el proceso cívico o para emitir o destruir boletas ilegalmente; y

  • Deslegitimación de procesos cívicos: contenido destinado a deslegitimar las instituciones democráticas sobre la base de afirmaciones falsas o engañosas sobre los resultados de las elecciones, por ejemplo.

Volver a Noticias
1 Vale la pena señalar que compartir contenido generado por IA o mejorado por IA en Snapchat no va en contra de nuestra política, y sin duda, no es algo que entendamos que es intrínsecamente perjudicial. Durante muchos años, los Snapchatters han disfrutado con la manipulación de imágenes con Lentes divertidas y otras experiencias de RA. Y nos entusiasman las maneras en las que nuestra comunidad puede utilizar la IA para expresarse de forma creativa. Sin embargo, si el contenido es engañoso (o perjudicial), por supuesto lo eliminaremos, independientemente del grado en el que la tecnología de IA pueda haber participado en su creación.