La IA en Snapchat: transparencia, seguridad y políticas
16 de abril de 2024
La IA en Snapchat: transparencia, seguridad y políticas
16 de abril de 2024
Cuando llegaron los Lentes en 2015, la tecnología de realidad aumentada (RA) hizo la magia realidad frente a nuestros ojos, revolucionando los que pensábamos que era posible. Hoy en día, más de 300 millones de Snapchatters usan la RA todos los días en promedio, como esperábamos que fuera este tipo de tecnología en nuestra experiencia diaria con la cámara.
Y ahora, los recientes avances en la IA abren posibilidades ilimitadas y deslumbrantes, lo que nos hace replantearnos lo que creíamos que era posible.
Los Snapchatters ya cuentan con muchas maneras inspiradoras de expresarse utilizando la IA, ya sea creando un original fondo de pantalla del Chat con IA generativa para personalizar el estilo de una conversación con un amix, transformándose usando la imaginación con los Lentes de IA, o aprendiendo del mundo mediante conversaciones con My AI. Nos entusiasma mucho el potencial que tiene esta tecnología para ayudar a que nuestra comunidad siga desatando su creatividad e imaginación.
Transparencia para la IA
Creemos que los Snapchatters deben estar informados sobre los tipos de tecnologías que están utilizando, ya sea para crear elementos visuales divertidos o para aprender a través de conversaciones de texto con My AI.
Utilizamos iconos, símbolos y etiquetas contextuales en la aplicación para dar a los Snapchatters transparencia del contexto cuando interactúan con una función que utiliza la tecnología de la IA. Por ejemplo, cuando un Snapchatter comparte una imagen de Sueños generada con IA, el destinatario ve una ficha contextual con más información. Otras funciones, como la herramienta de extensión, que aprovecha la IA para hacer que un Snap parezca estar más alejado, se señalan como función de IA con un ícono de destello para el Snapchatter que crea el Snap.
También tenemos mucho cuidado de analizar todos los anuncios políticos a través de un riguroso proceso de revisión humana, que incluye la revisión exhaustiva de cualquier uso engañoso de contenido, entre ellos, el uso de IA para crear imágenes o contenidos engañosos.
Pronto agregaremos una marca de agua a las imágenes generadas con IA. Aparecerá en las imágenes creadas con las herramientas de IA generativa de Snap cuando la imagen se exporte o se guarde en las Fotos de la cámara. Los destinatarios de una imagen generada con IA hecha en Snapchat podrán ver un pequeño logotipo de fantasma con el ampliamente reconocido ícono de chispa al lado. La incorporación de estas marcas de agua ayudará a informar a quienes las vean que la imagen se creó con IA en Snapchat.
Pruebas y protocolos de seguridad estandarizados
Nos tomamos muy en serio nuestra responsabilidad de diseñar productos y experiencias que prioricen la privacidad, la seguridad y las experiencias adecuadas para la edad de los usuarios. Al igual que todos nuestros productos, las funciones que se basan en la IA siempre se han sometido a una revisión estricta para garantizar que cumplen con nuestros principios de privacidad y seguridad; a través de lo que hemos aprendido con el tiempo, hemos desarrollado medidas de seguridad adicionales:
Equipo rojo
La formación de equipos rojos de IA es una táctica cada vez más común que se utiliza para probar e identificar posibles fallas en los modelos de IA y en las funciones habilitadas para la IA, e implementar soluciones para mejorar la seguridad y la consistencia de los resultados de la IA.
Hemos sido de los primeros en adoptar los novedosos métodos de formación de equipos rojos para la IA en modelos generativos de imágenes, al asociarnos con HackerOne en más de 2,500 horas de trabajo para probar la eficacia de nuestras estrictas protecciones.
Filtros de seguridad y consistencia de las etiquetas
A medida que hemos ampliado las experiencias habilitadas para la IA generativa que están disponibles en Snapchat, hemos establecido principios de gestión responsable y también hemos mejorado nuestras mitigaciones de seguridad.
Hemos creado un proceso de revisión de seguridad para detectar y eliminar instrucciones potencialmente problemáticas en las primeras etapas del desarrollo de las experiencias de Lentes de IA que diseñó nuestro equipo. Todos nuestros Lentes de IA que generan una imagen a partir de una instrucción pasan por este proceso antes de estar terminados y disponibles para nuestra comunidad.
Pruebas inclusivas
Queremos que los Snapchatters de todos los ámbitos de la sociedad tengan acceso y expectativas equitativas cuando utilicen todas las funciones de nuestra app, en particular nuestras experiencias de IA.
Teniendo en cuenta esto, estamos implementando pruebas adicionales para minimizar los potenciales sesgos en los resultados de la IA.
Compromiso continuo con la educación sobre la IA
Creemos en el tremendo potencial que tiene la tecnología de la IA para mejorar la capacidad de nuestra comunidad para expresarse y conectarse, y estamos comprometidos con seguir mejorando estos protocolos de seguridad y transparencia.
Si bien todas nuestras herramientas de IA, tanto visuales como de texto, están diseñadas para evitar la producción de materiales incorrectos, dañinos o engañosos, pueden ocurrir errores. Los Snapchatters pueden reportar contenido y nosotros estamos agradecidos de recibir esa retroalimentación.
Por último, como parte de este compromiso continuo con ayudar a nuestra comunidad a comprender mejor estas herramientas, ahora tenemos información y recursos adicionales en nuestro Sitio de Soporte.