Compartimos nuestra respuesta con los grupos de la sociedad civil sobre la integridad electoral

22 de abril de 2024

A principios de este mes, Snap, junto con otras importantes empresas de tecnología, recibió una carta de más de 200 organizaciones de la sociedad civil, investigadores y periodistas instándonos a redoblar nuestros esfuerzos para proteger la integridad de las elecciones de 2024. Agradecemos su labor de promoción y compartimos su compromiso para garantizar que gente de todo el mundo puedan participar en sus elecciones, al tiempo que hacemos todo lo posible para ayudar a proteger nuestra democracia.

Dada la importancia de estos temas y la profunda responsabilidad que sentimos ante los cientos de millones de personas que utilizan Snapchat para comunicarse con sus amigos y familiares y obtener más información sobre el mundo a través de nuestros contenidos, consideramos que era importante dar a conocer nuestra respuesta públicamente. Se puede leer nuestra carta a continuación y obtener más información sobre nuestros planes para las elecciones de este año aquí.

***

21 de abril de 2024

Estimadas organizaciones de la sociedad civil:

Gracias por vuestra vigilancia y defensa permanentes en un año como este de actividad electoral sin precedentes en todo el mundo. Agradecemos la oportunidad de compartir más sobre cómo estamos abordando nuestras responsabilidades en este entorno desde Snap y cómo estos esfuerzos permiten alcanzar los valores de siempre de nuestra compañía. 

Descripción general del planteamiento de Snapchat

Nuestro planteamiento en cuanto a la integridad de la plataforma respecto a las elecciones va por niveles. En el nivel alto, los elementos principales son:

  • Medidas internacionales de seguridad en los productos;

  • Políticas claras y meditadas; 

  • Un enfoque diligente en cuanto a anuncios electorales;

  • Funcionamiento coordinado y colaborativo; y

  • Ofrecimiento de herramientas y recursos para empoderar a los Snapchatters.


Estos pilares constituyen la base de nuestro planteamiento para mitigar una amplia gama de riesgos relacionados con las elecciones, al tiempo que garantizamos a los Snapchatters acceso a herramientas e información que fomentan la participación en procesos democráticos en todo el mundo. 

1. Medidas intencionales de seguridad en los productos

Desde el principio, Snapchat se diseñó de manera diferente a las redes sociales tradicionales. Al abrir Snapchat no te encuentras con un feed de contenido interminable y no verificado y no permite que la gente haga transmisiones en directo. 

Desde hace tiempo somos conscientes de que las mayores amenazas de la nociva desinformación digital radican en la velocidad y la escala a la que algunas plataformas digitales permiten su propagación. Las políticas y la arquitectura de nuestra plataforma limitan las oportunidades para que el contenido no examinado o no moderado alcance una escala significativa sin revisión. En cambio, moderamos previamente los contenidos antes de que puedan alcanzar una gran audiencia y limitamos considerablemente la distribución de noticias e información política a menos que provengan de publicaciones y creadores de confianza (incluidos, por ejemplo, medios de comunicación como The Wall Street Journal y The Washington Post en Estados Unidos, Le Monde en Francia y Times Now en India). 

Durante el año pasado, la introducción de funciones de IA generativa en Snapchat se ha encontrado con el mismo nivel de intención. Limitamos la capacidad de nuestros productos de IA para generar contenidos o imágenes que puedan utilizarse para socavar procesos cívicos o engañar a los votantes. Nuestro chatbot, My AI, por ejemplo, puede proporcionar información sobre eventos políticos o contextos relacionados con cuestiones sociales; está programado para no ofrecer opiniones sobre candidatos políticos ni alentar a los Snapchatters a votar a favor de un resultado determinado. Asimismo, en nuestras funciones de texto a imagen, hemos adoptado restricciones a nivel de sistema para la generación de categorías de contenidos peligrosos, incluyendo las imágenes a semejanza de personalidades políticas. 

Desde hace más de una década, y a lo largo de múltiples ciclos electorales, nuestra arquitectura de producto ha desempeñado un papel fundamental en la creación de un entorno altamente inhóspito para quienes actúan con el fin de interrumpir procesos cívicos o socavar el entorno informativo. Y a juzgar por los resultados, parece que funciona bien. Nuestros datos más recientes indican que, del 1 de enero al 30 de junio de 2023, el número total de acciones correctivas a nivel mundial por información falsa nociva (incluyendo la que supone riesgo para la integridad electoral) representó el 0,0038 % del total de contenidos sometidos a corrección, lo que las sitúa entre las categorías que tienen menor probabilidad de causar daño en nuestra plataforma.

En 2024 continuaremos con nuestra labor en pro de la integridad en nuestra plataforma desde la mismísima arquitectura de producto, incluyendo nuestros compromisos como firmantes del Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024.

2. Políticas claras y meditadas

Para complementar nuestras medidas de seguridad en los productos, hemos implementado una serie de políticas que tienen como objetivo promover la seguridad y la integridad en el ámbito de los eventos de gran repercusión como las elecciones. Nuestras Pautas para la comunidad prohíben expresamente, por ejemplo, información falsa nociva, la incitación al odio y las amenazas o llamadas a la violencia. 

En cuanto a los contenidos nocivos en relación con las elecciones, nuestras políticas externas son sólidas y fundamentadas por investigadores de primer nivel en el ámbito de la integridad de la información. Detallan categorías específicas de contenidos nocivos que están prohibidos, incluyendo:

  • Interferencia en los procedimientos: Información errónea relacionada con los procedimientos electorales o cívicos reales, como tergiversar fechas y horarios importantes o los requisitos de elegibilidad para la participación;

  • Interferencia en la participación: Contenidos que incluyen intimidación a la seguridad personal o difunden rumores para disuadir de la participación en el proceso electoral o cívico;

  • Participación fraudulenta o ilegal: Contenidos que invitan a la gente a falsificar su identidad para participar en el proceso cívico o a destruir o emitir votos de manera ilegal; y

  • Deslegitimación de procesos cívicos: Contenidos que apuntan a deslegitimizar las instituciones democráticas sobre la base de afirmaciones falsas o engañosas sobre los resultados de las elecciones, por ejemplo.

Volver a Noticias
1 Cabe señalar que compartir contenidos generados por IA o mejorados con IA en Snapchat no va en contra de nuestras políticas, y ciertamente no es algo que entendamos como inherentemente perjudicial. Desde hace muchos años, los Snapchatters han disfrutado con la manipulación de imágenes mediante divertidas Lentes y otras experiencias de RA, y nos entusiasma ver cómo nuestra comunidad puede utilizar la IA para expresarse de forma creativa. Sin embargo, si el contenido es engañoso (o nocivo), por supuesto lo eliminaremos, independientemente del grado en que la tecnología de IA pueda haber desempeñado un papel importante en su creación.