Compartimos nuestra respuesta a los grupos de la sociedad civil con relación a la integridad electoral

22 de abril de 2024

Más temprano este mes, Snap, junto con otras importantes empresas de tecnología, recibió una carta enviada por más de 200 organizaciones principales de la sociedad civil, investigadores y periodistas, instándonos a aumentar nuestros esfuerzos para proteger la integridad de las elecciones en 2024. Apreciamos su labor de promoción y compartimos su compromiso de garantizar que las personas de todo el mundo puedan participar en sus elecciones, mientras hacemos todo lo posible para ayudar a proteger nuestra democracia.

Dada la importancia de estos temas y la profunda responsabilidad que sentimos hacia los cientos de millones de personas que usan Snapchat para comunicarse con sus amigos y familiares y conocer más sobre el mundo a través de nuestro contenido, sentimos que era importante hacer pública nuestra respuesta. A continuación, puedes leer nuestra carta y obtener más información sobre nuestros planes para las elecciones de este año.

***

21 de abril de 2024

Estimadas organizaciones de la sociedad civil:

Gracias por tu continua vigilancia y promoción en este año de actividad electoral sin precedentes en todo el mundo. Estamos agradecidos por la oportunidad de compartir más sobre cómo Snap aborda nuestras responsabilidades en este entorno y cómo estos esfuerzos coinciden con los valores duraderos de nuestra empresa.

Descripción general del enfoque de Snapchat

Nuestro enfoque hacia la integridad de las plataformas con relación a las elecciones tiene varios niveles. A un nivel alto, los elementos centrales incluyen:

  • Salvaguardias intencionales de productos;

  • Políticas claras y reflexivas;  

  • Enfoque diligente de los anuncios políticos;

  • Operaciones colaborativas y coordinadas; y

  • Ofrecer herramientas y recursos para empoderar a los Snapchatters.


En conjunto, estos pilares sustentan nuestro enfoque para mitigar una amplia gama de riesgos relacionados con las elecciones, al mismo tiempo que garantizan que los Snapchatters tengan acceso a herramientas e información que respalden la participación en procesos democráticos en todo el mundo.

1. Salvaguardias intencionales de productos

Desde el principio, Snapchat fue diseñado de manera diferente a las redes sociales tradicionales. Snapchat no se abre a un feed de contenido interminable y no evaluado, y no permite que las personas transmitan en vivo.

Hace tiempo que entendemos que las mayores amenazas de la desinformación digital dañina provienen de la velocidad y escala a la que algunas plataformas digitales permiten que se propague. Nuestras políticas y arquitectura de plataforma limitan las oportunidades de que el contenido no evaluado o no moderado alcance una escala significativa sin ningún control. En cambio, moderamos el contenido previamente, antes de que pueda ampliarse a un público más expandido, y limitamos ampliamente la distribución de noticias e información política a menos que provenga de editores y creadores confiables (incluidos, por ejemplo, organizaciones de medios como The Wall Street Journal y The Washington Post en Estados Unidos, Le Monde en Francia y Times Now en India). 

Durante el año pasado, la introducción de funciones de IA generativa en Snapchat ha sido adoptada con el mismo nivel de intención. Limitamos la capacidad de nuestros productos de inteligencia artificial para generar contenido o imágenes que podrían usarse para socavar procesos cívicos o engañar a los votantes. Por ejemplo, nuestro chatbot My AI puede brindar información sobre eventos políticos o el contexto que rodea temas sociales; está programado para no ofrecer opiniones sobre candidatos políticos ni alentar a los Snapchatters a votar por un resultado en particular. Y en nuestras funciones de conversión de texto a imagen, hemos adoptado restricciones a nivel del sistema sobre la generación de categorías de contenido riesgosas, incluida la imagen de figuras políticas conocidas.

Desde hace más de una década, y a lo largo de múltiples ciclos electorales, nuestra arquitectura de producto ha desempeñado un rol determinante en la creación de un entorno altamente inhóspito para los actores que trabajan para alterar los procesos cívicos o socavar el entorno de la información. Y la evidencia sugiere que funciona bien. Nuestros datos más recientes indican que del 1 de enero al 30 de junio de 2023, el número total de controles a nivel mundial por información falsa dañina (incluidos los riesgos para la integridad electoral) representó el 0.0038 % del contenido total aplicado, lo que la posiciona dentro de las categorías de menor probabilidad de daño en nuestra plataforma.

Continuaremos aportando un enfoque de producto a nuestros esfuerzos por la integridad de la plataforma en 2024, incluidos nuestros compromisos como signatarios del Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024.

2. Políticas claras y reflexivas

Para complementar las salvaguardias de nuestros productos, hemos implementado una variedad de políticas que funcionan para promover la seguridad y la integridad en el contexto de eventos de alto perfil como las elecciones. Nuestros lineamientos de la comunidad prohíben expresamente, por ejemplo, la información falsa y dañina, el discurso de odio y las amenazas o incitaciones a la violencia.

En cuanto al tema del contenido dañino en relación con las elecciones, nuestras políticas externas son sólidas y son informadas por investigadores líderes en el campo de la integridad de la información. En ellas se detallan categorías específicas de contenidos dañinos prohibidos, que incluyen:

  • Interferencia en el procedimiento: desinformación relacionada con las elecciones o los procedimientos cívicos reales, como tergiversar fechas y horarios importantes o requisitos de participación;

  • Interferencia en la participación: contenido que incluye intimidación en materia de seguridad personal o difusión de rumores para disuadir la participación en el proceso electoral o cívico;

  • Participación fraudulenta o ilegal: contenido que incita a las personas a participar en el proceso cívico con una identidad falsa, votar ilegalmente o destruir boletas; y

  • Deslegitimación de procesos cívicos: contenido que tiene como objetivo deslegitimar las instituciones democráticas mediante afirmaciones falsas o engañosas respecto a los resultados de las elecciones, por ejemplo.

Volver a las noticias
1 Vale la pena señalar que compartir contenido generado o mejorado mediante inteligencia artificial en Snapchat no va en contra de nuestras políticas y, de hecho, no es algo que entendamos como inherentemente dañino. Desde hace muchos años, los Snapchatters han disfrutado de manipular imágenes con lentes divertidos y otras experiencias de RA, y estamos entusiasmados con las diferentes formas en que nuestra comunidad puede usar la IA para expresarse creativamente. Sin embargo, si el contenido es engañoso (o de cualquier manera dañino), por supuesto lo eliminaremos, independientemente del grado en que la tecnología de inteligencia artificial haya desempeñado un papel en su creación.