Compartimos nuestra respuesta a los grupos de la sociedad civil sobre la integridad de las elecciones

22 de abril de 2024

A principios de este mes, Snap y otras grandes empresas de tecnología, recibieron una carta de más de 200 organizaciones de la sociedad civil, investigadores y periodistas instándonos a aumentar nuestros esfuerzos para proteger la integridad de las elecciones en 2024. Apreciamos su apoyo y compartimos su compromiso para garantizar que las personas de todo el mundo puedan participar en sus elecciones, al tiempo que hacemos todo lo posible para ayudar a proteger nuestra democracia.

Dada la importancia de estos problemas y la profunda responsabilidad que sentimos hacia los cientos de millones de personas que usan Snapchat para comunicarse con sus amigos y familiares y para aprender más sobre el mundo a través de nuestro contenido, sentimos que era importante expresar nuestra respuesta públicamente. Podés leer nuestra carta a continuación y obtener más información sobre nuestros planes para las elecciones de este año acá.

***

21 de abril de 2024

Estimadas organizaciones de la sociedad civil:

Gracias por su vigilancia y apoyo continuos en este año de actividad electoral sin precedentes en todo el mundo. Estamos agradecidos por la oportunidad de compartir más sobre cómo Snap está abordando nuestras responsabilidades en este contexto y cómo estos esfuerzos se relacionan con los valores de larga data de nuestra empresa. 

Descripción general del enfoque de Snapchat

Nuestro enfoque de la integridad de la plataforma relacionada con las elecciones es por niveles. Los elementos centrales del nivel más alto incluyen:

  • Salvaguardas de producto intencionales;

  • Políticas claras y desarrolladas con cuidado; 

  • Enfoque diligente de los anuncios políticos;

  • Operaciones colaborativas y coordinadas; y

  • Ofrecer herramientas y recursos para empoderar a los Snapchatters.


En conjunto, estos pilares sustentan nuestro enfoque para mitigar una amplia gama de riesgos relacionados con las elecciones, al tiempo que garantizamos que los Snapchatters tengan acceso a herramientas e información que respalden la participación en los procesos democráticos en todo el mundo. 

1. Salvaguardas de producto intencionales

Desde el principio, Snapchat se diseñó de manera diferente a las redes sociales tradicionales. Snapchat no está abierto a un feed de contenido interminable y no aprobado y no permite que las personas hagan streaming en vivo. 

Hace tiempo que reconocemos que las mayores amenazas de la desinformación digital dañina provienen de la velocidad y la escala a la que algunas plataformas digitales permiten que se propague. Las políticas y la arquitectura de nuestra plataforma limitan las oportunidades de que contenido no aprobado o no moderado alcance una escala significativa sin ser verificado. En su lugar, moderamos previamente el contenido antes de que pueda amplificarse a un gran público y limitamos en general la distribución de noticias e información política a menos que provenga de editores y creadores de confianza (incluidas, por ejemplo, las organizaciones de medios como The Wall Street Journal y The Washington Post en los EE. UU., Le Monde en Francia y Times Now en la India). 

Durante este último año, la introducción de funciones de IA generativa en Snapchat se ha cumplido con el mismo nivel de intención. Limitamos las capacidades de nuestros productos de IA para generar contenido o imágenes que puedan usarse para socavar los procesos cívicos o engañar a los votantes. Nuestro chatbot, My AI, por ejemplo, puede proporcionar información sobre eventos políticos o el contexto que rodea a problemas sociales; está programado para no ofrecer opiniones sobre candidatos políticos ni alentar a los Snapchatters a votar por un resultado en particular. Y en nuestras funciones de texto a imagen, hemos adoptado restricciones a nivel de sistema sobre la generación de categorías de contenido de riesgo, incluida la semejanza con figuras políticas conocidas. 

Durante más de una década, y en múltiples ciclos electorales, nuestra arquitectura de producto ha desempeñado un papel central en la creación de un entorno altamente inhóspito para los actores que trabajan para interrumpir los procesos cívicos o socavar el entorno de la información. Y las pruebas sugieren que funciona bien. Nuestros datos más recientes indican que, desde el 1 de enero hasta el 30 de junio de 2023, el número total de casos en los que se aplicaron sanciones debido a información falsa dañina (incluidos los riesgos para la integridad de las elecciones) en todo el mundo representó el 0,0038 % de las sanciones aplicadas a todo el contenido en general, lo que cae dentro de las categorías de menor probabilidad de daño en nuestra plataforma.

Continuaremos adoptando un enfoque centrado en el producto a nuestros esfuerzos de integridad de la plataforma en 2024, incluidos nuestros compromisos como signatarios del Acuerdo de Empresas Técnológicas para Combatir el Uso Engañoso de la IA en las Elecciones de 2024.

2. Políticas claras y pensadas con cuidado

Para complementar nuestras salvaguardas de producto, hemos implementado una serie de políticas que funcionan para promover la seguridad y la integridad en el contexto de eventos destacados, como las elecciones. Nuestras Pautas para la comunidad prohíben expresamente, por ejemplo, la información falsa dañina, el discurso de odio y las amenazas o incitaciones a la violencia. 

Sobre el tema de contenido dañino en relación con las elecciones, nuestras políticas externas son sólidas e informadas por investigadores líderes en el campo de la integridad de la información. En ellas se detallan categorías específicas de contenido dañino que están prohibidas, que incluyen:

  • Interferencia en el procedimiento: información falsa relacionada con los procedimientos de elección o cívicos reales, como la tergiversación de las fechas y los horarios importantes o de los requisitos de elegibilidad para la participación.

  • Interferencia en la participación: contenido que incluye intimidación a la seguridad personal o que difunde rumores para disuadir la participación en el proceso electoral o cívico.

  • Participación fraudulenta o ilegal: contenido que anima a las personas a utilizar una identidad falsa para participar en el proceso cívico o a emitir o destruir boletas ilegalmente.

  • Deslegitimación de procesos cívicos: contenido que tiene como objetivo deslegitimar instituciones democráticas con base en afirmaciones falsas o engañosas, como sobre los resultados de las elecciones, por ejemplo.

Volver a Noticias
1 Vale la pena señalar que compartir contenido generado por IA o mejorado por IA en Snapchat no va en contra de nuestras políticas y, desde luego, no es algo que entendamos que sea inherentemente dañino. Durante muchos años, los Snapchatters han encontrado alegría en la manipulación de imágenes con Lentes divertidos y otras experiencias de RA y estamos entusiasmados con las formas en que nuestra comunidad puede usar la IA para expresarse de forma creativa. Sin embargo, si el contenido es engañoso (o de otro modo dañino), por supuesto lo eliminaremos, independientemente del grado en que la tecnología de IA pueda haber desempeñado un papel en su creación.