25 de octubre de 2023
07 de febrero de 2024
Te damos la bienvenida a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de servicios digitales (DSA), la Directiva de servicios de medios audiovisuales (AVMSD) y la Ley de medios de comunicación holandesa (DMA).
Al 1 de agosto de 2023, contábamos con un promedio de 102 millones de destinatarios activos mensuales (“AMAR”, por sus siglas en inglés) en nuestra aplicación de Snapchat en la UE. Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la aplicación de Snapchat al menos una vez al mes.
Esta cifra se desglosa por Estado Miembro de la siguiente manera:
Estas cifras se calcularon para cumplir con las reglas de la DSA actuales y solo deben aplicarse para los fines de la DSA. Con el tiempo, es posible que cambiemos la forma de calcular esta cifra, como respuesta a los cambios en las pautas de los reguladores y en la tecnología. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.
Snap Group Limited ha designado a Snap B.V. como su representante legal. Podés comunicarte con el representante a dsa-enquiries [at] snapchat.com para el DSA, a vsp-enquiries [at] snapchat.com para AVMSD y DMA, a través de nuestro Sitio de ayuda [acá], o en:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos
Si sos una agencia encargada de hacer cumplir la ley, seguí los pasos que se indican acá.
Para DSA, estamos regulados por la Comisión Europea y la Autoridad para Consumidores y Mercados de los Países Bajos (ACM).
Para AVMSD y el DMA, estamos regulados por la Autoridad de Medios de Comunicación Holandesa (CvdM).
Snap está obligado por los artículos 15, 24 y 42 de la DSA a publicar informes que contienen información prescrita sobre la moderación de contenido de Snap para los servicios de Snapchat que se consideran “plataformas en línea”, es decir, Spotlight, For You, Perfiles públicos, Mapas, Lentes y publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.
Snap publica informes de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen de contenido reportado en nuestra plataforma. Nuestro último informe para el primer semestre de 2023 (1 de enero - 30 de junio) se puede ver acá. Ese informe contiene la siguiente información:
Solicitudes de los gobiernos, que incluyen solicitudes de eliminación de información y contenido;
Violaciones de contenido, que incluye medidas tomadas en relación con contenido ilegal y tiempo de respuesta medio;
Apelaciones, que se reciben y manejan a través de nuestro proceso de gestión de reclamos internos.
Esas secciones son relevantes para la información requerida por el artículo 15.1(a), (b) y (d) de la DSA. Tené en cuenta que aún no contienen un conjunto de datos completo porque el último informe cubre el primer semestre de 2023, que es anterior a la entrada en vigor de la DSA.
Proporcionamos a continuación información adicional sobre aspectos no cubiertos por nuestro informe de transparencia para el primer semestre de 2023:
Moderación de contenido (Artículo 15.1(c) y (e), Artículo 42.2)
Todo el contenido de Snapchat debe adherirse a nuestras Pautas para la comunidad y Condiciones de servicio, así como a condiciones, pautas y explicaciones adicionales. Los mecanismos de detección proactiva y los informes de contenido o cuentas ilegales o que violan las normas requieren una revisión, en cuyo momento, nuestros sistemas de herramientas procesan la solicitud, recopilan metadatos relevantes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada que está diseñada para facilitar operaciones de revisión efectivas y eficientes. Cuando nuestros equipos de moderación determinan que un usuario ha violado nuestras Condiciones, ya sea a través de revisión humana o por medios automatizados, podemos eliminar el contenido o la cuenta infractora y cerrar o limitar la visibilidad de la cuenta correspondiente, y/o notificar a las fuerzas de seguridad como se explica en nuestro Explicativo de moderación, aplicación de la ley y apelaciones de Snapchat. Los usuarios cuyas cuentas están bloqueadas por nuestro equipo de seguridad por violaciones a las Pautas para la comunidad pueden enviar una apelación de cuenta bloqueada y los usuarios pueden apelar contra ciertas medidas de cumplimiento de contenido.
Herramientas de moderación de contenido automatizada
En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de que sea elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:
Detección proactiva de contenido ilegal y que viole las normas usando aprendizaje automático;
Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);
Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos emojis.
Para el período de nuestro más reciente Informe de transparencia (primer semestre de 2023), no hubo ningún requisito de cotejar indicadores formales o tasas de error para estos sistemas automatizados. Sin embargo, monitoreamos regularmente estos sistemas en busca de problemas y nuestras decisiones de moderación humana se evalúan regularmente para garantizar la precisión.
Moderación humana
Nuestro equipo de moderación de contenido opera en todo el mundo, lo que nos permite ayudar a mantener a los Snapchatters seguros las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana por las especialidades de idiomas de los moderadores (tené en cuenta que algunos moderadores se especializan en múltiples idiomas) a partir de agosto de 2023:
Los números anteriores fluctúan con frecuencia a medida que vemos tendencias de volumen o envíos por idioma/país. En situaciones en las que necesitamos ayuda lingüística adicional, usamos servicios de traducción.
Los moderadores se reclutan usando una descripción de trabajo estándar que incluye un requisito de idioma (dependiendo de la necesidad). El requisito de idioma establece que el candidato debería poder demostrar fluidez escrita y hablada en el idioma y tener al menos un año de experiencia laboral para puestos de nivel inicial. Los candidatos también deben cumplir con los requisitos educativos y de antecedentes para ser considerados. Los candidatos también deben demostrar una comprensión de los eventos actuales del país o la región de la moderación de contenido a la que le brindarán soporte.
Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para ayudar a proteger a nuestra comunidad de Snapchat. La capacitación se dicta durante un período de varias semanas, en el que los nuevos miembros del equipo reciben información sobre las políticas, las herramientas y los procedimientos de escalada de Snap. Después de la capacitación, cada moderador debe aprobar un examen de certificación antes de que se le permita revisar el contenido. Nuestro equipo de moderación participa con regularidad en cursos de actualización relacionados con sus flujos de trabajo, especialmente cuando se dan casos que rozan los límites de las políticas y dependen del contexto. También llevamos a cabo programas de mejora de habilidades, sesiones de certificación y pruebas para garantizar que todos los moderadores estén actualizados y en cumplimiento de todas las políticas actualizadas. Finalmente, cuando aparecen tendencias de contenido urgentes en función de eventos actuales, diseminamos rápidamente aclaraciones de las políticas, para que los equipos puedan responder de acuerdo con las políticas de Snap.
Le proporcionamos a nuestro equipo de moderación de contenido, los “primeros en responder digitales” de Snap, con apoyo y recursos importantes, incluso les brindamos apoyo para su bienestar en el trabajo y el fácil acceso a los servicios de salud mental.
Salvaguardas de la moderación de contenido
Reconocemos que hay riesgos asociados a la moderación de contenido, incluidos los riesgos para las libertades de expresión y de reunión, que pueden estar causados por sesgos de moderadores automatizados y humanos e informes abusivos, incluso por parte de gobiernos, grupos políticos o personas bien organizadas. Snapchat generalmente no es un lugar para contenido político o activista, particularmente en nuestros espacios públicos.
Sin embargo, para protegerse contra estos riesgos, Snap cuenta con pruebas y capacitación implementadas y cuenta con procedimientos sólidos y consistentes para manejar las denuncias de contenido ilegal o que viole la ley, incluidas las procedentes de las autoridades policiales y gubernamentales. Evaluamos y evolucionamos continuamente nuestros algoritmos de moderación de contenido. Si bien los daños potenciales a la libertad de expresión son difíciles de detectar, no somos conscientes de ningún problema significativo y proporcionamos vías para que nuestros usuarios denuncien los errores si se producen.
Nuestras políticas y sistemas promueven el cumplimiento consistente y justo de las normas y, como se describió anteriormente, proporcionan a los Snapchatters la oportunidad de disputar de forma significativa los resultados del cumplimiento de las normas a través de los procesos de notificaciones y apelaciones que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.
Nos esforzamos continuamente para mejorar nuestras políticas y procesos de cumplimiento y hemos hecho grandes avances para combatir el contenido y las actividades potencialmente dañinos e ilegales en Snapchat. Esto se refleja en una tendencia al alza en las cifras de denuncias y cumplimiento de las normas que se muestran en nuestro más reciente informe de transparencia y las tasas de prevalencia decrecientes de las violaciones de los derechos en Snapchat en general.
Avisos de Alertadores de confianza (artículo 15.1(b))
Para el período de nuestro último Informe de transparencia (primer semestre de 2023), no hubo Alertadores de Confianza designados formalmente en virtud de la DSA. Como resultado, el número de avisos enviados por dichos Alertadores de Confianza fue cero (0) en este período.
Disputas extrajudiciales (artículo 24.1(a))
Para el período de nuestro último Informe de transparencia (primer semestre de 2023), no hubo designación formal de organismos de acuerdos por disputas extrajudiciales en virtud de la DSA. Como resultado, el número de disputas enviadas a dichos organismos fue cero (0) en este período.
Suspensiones de cuentas en conformidad con el artículo 23 (artículo 24.1(b))
Para el período de nuestro último Informe de transparencia (primer semestre de 2023), no hubo ningún requisito de suspender cuentas en conformidad con el artículo 23 de la DSA por la provisión de contenido manifiestamente ilegal, avisos infundados o quejas infundadas. Como resultado, el número de dichas suspensiones fue cero (0). Sin embargo, Snap toma las medidas de cumplimiento apropiadas contra las cuentas como se explica en nuestra Explicación de la moderación de Snapchat, cumplimiento de normas y apelaciones. La información sobre el nivel de cumplimiento de las normas de las cuentas de Snap se puede encontrar en nuestro informe de transparencia (primer semestre de 2023).