Unión Europea
Última actualización: 7 de febrero de 2024

Bienvenidos a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de Comunicación de Países Bajos (DMA).  

Promedio de destinatarios activos mensuales 

El 1 de agosto de 2023 contábamos con un promedio de 102 millones de destinatarios activos mensuales (“AMAR”) de nuestra app de Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro del siguiente modo:

Estas cifras se calcularon para cumplir las reglas actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, es posible que cambiemos la forma de calcular esta cifra, como respuesta a los cambios en las pautas de los reguladores y en la tecnología. También es posible que difiera de los cálculos empleados para otras métricas de usuarie activos que compartimos con diferentes propósitos.

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal. Puedes comunicarte con el representante en dsa-enquiries [at] snapchat.com para la DSA, en vsp-enquiries [at] snapchat.com para AVMSD y DMA, a través de nuestro sitio de soporte [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Ámsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican a continuación aquí.

Autoridades reguladoras

En el caso de la DSA, nos rige la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). 

Para el caso de la AVMSD y la DMA, nos rige la Autoridad de Medios de Comunicación de Países Bajos (CvdM).

Informe de transparencia de la DSA

Según los artículos 15, 24 y 42 de la DSA, Snap debe publicar informes que contengan información reglamentaria sobre la moderación de contenido de Snap para los servicios de Snapchat que se consideren “plataformas en línea”, es decir, Spotlight, For You, perfiles públicos, mapas, Lentes y publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para informar de los esfuerzos de seguridad de Snap, y la naturaleza y el volumen del contenido documentado en nuestra plataforma. Nuestro último informe sobre el primer semestre de 2023 (del 1 de enero al 30 de junio) se puede encontrar aquí. Ese informe contiene la siguiente información:

  • Solicitudes gubernamentales, que incluyen solicitudes de eliminación de información y contenido; 

  • Incumplimientos de las normas de contenido, que incluyen medidas adoptadas en relación con el contenido ilegal y el tiempo medio de respuesta;

  • Apelaciones, que se reciben y gestionan a través de nuestro proceso interno de gestión de quejas.

Esas secciones son pertinentes a la información solicitada por el artículo 15.1(a), (b) y (d) de la DSA. Se debe tener en cuenta que estos informes aún no contienen un conjunto de datos completo, porque el último informe abarca el primer semestre de 2023, que es anterior a la entrada en vigor de la DSA. 

A continuación bridamos información adicional sobre aspectos no cubiertos por nuestro informe de transparencia del primer semestre de 2023:

Moderación de contenido (artículo 15.1(c) y (e), Artículo 42.2)

Todo el contenido en Snapchat debe cumplir nuestros lineamientos de la comunidad y nuestros términos y condiciones de servicio, así como los términos, lineamientos y las explicaciones de respaldo. A raíz de los mecanismos proactivos de detección y los informes de contenido o cuentas ilegales o infractores, se inicia una revisión; a partir de ese momento, nuestras herramientas procesan la solicitud, recopilan metadatos pertinentes y envían el contenido correspondiente a nuestro equipo de moderación a través de una interfaz de usuario estructurada que facilita las operaciones de revisión eficientes. Cuando nuestros equipos de moderación decidan, a través de revisones a cargo de personas o por medios automatizados, que un usuario infringió nuestros términos y condiciones, podremos eliminar el contenido o la cuenta infractores, cancelar o limitar la visibilidad de la cuenta en cuestión o notificar a las autoridades como se explica en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat.  Los usuarios cuyas cuentas sean bloqueadas por nuestro equipo de seguridad a causa de incumplimientos de los lineamientos de la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra determinadas medidas de cumplimiento de los contenidos.

Herramientas automatizadas de moderación de contenido

En nuestras superficies de contenido público, el contenido generalmente se somete a moderación automática y la revisión a cargo de personas antes de que se pueda distribuir a un público amplio. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor mediante el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de idioma abusivo para rechazar contenido en función de una lista identificada y actualizada periódicamente de palabras clave abusivas, incluidos emojis.

Durante el período de nuestro último informe de transparencia (primer semestre de 2023), no hubo ningún requisito de recopilar indicadores formales o tasas de error para estos sistemas automatizados. Sin embargo, supervisamos periódicamente estos sistemas en busca de problemas, y nuestras decisiones de moderación a cargo de personas se determinan periódicamente para garantizar la precisión.


Moderación humana

Dado que nuestro equipo de moderación de contenido opera en todo el mundo, esto nos permite ayudar a mantener a los Snapchatters a salvo las 24 horas del día, los 7 días de la semana. A continuación encontrará una explicación detallada de nuestros recursos de moderación humana según las especialidades de idioma de los moderadores (tenga en cuenta que algunos moderadores se especializan en varios idiomas) al mes de agosto de 2023:

Las cifras anteriores fluctúan con frecuencia a medida que vemos las tendencias del volumen de entrada o los envíos por idioma o país. En situaciones en las que necesitamos soporte lingüístico adicional, utilizamos servicios de traducción.

Los moderadores se contratan utilizando una descripción de trabajo estándar que incluye un requisito de idioma (según la necesidad). El requisito de idioma establece que el candidato debe ser capaz de demostrar fluidez escrita y hablada en el idioma y tener al menos un año de experiencia laboral para puestos de nivel inicial. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o la región en la que van a moderar los contenidos. 

Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para ayudar a proteger nuestra comunidad de Snapchat. La capacitación se lleva a cabo durante un periodo de varias semanas, en el que los nuevos miembros del equipo reciben formación sobre las políticas, herramientas y procedimientos de escalamiento de Snap. Después de la capacitación, cada moderador debe pasar un examen de certificación antes de que se le permita revisar contenidos. Nuestro equipo de moderación participa regularmente en cursos de actualización relevantes para sus flujos de trabajo, particularmente cuando nos encontramos con casos delicados o que dependen del contexto. También ejecutamos programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén actualizados y cumplan con todas las políticas vigentes. Por último, cuando surgen tendencias de contenido urgentes en función de la actualidad, difundimos rápidamente aclaraciones de políticas para que los equipos puedan responder de acuerdo con las políticas de Snap.

Proporcionamos a nuestro equipo de moderación de contenido, los “primeros respondedores digitales” de Snap, con un soporte y recursos significativos, incluido el apoyo para el bienestar en el trabajo y un fácil acceso a servicios de salud mental. 


Salvaguardias de moderación de contenido

Reconocemos que la moderación de contenidos entraña riesgos asociados, incluidos los riesgos para las libertades de expresión y reunión que pueden estar causados por la parcialidad de moderadores automatizados y humanos y por informes abusivos, incluso de gobiernos, formaciones políticas o personas bien organizadas. Por lo general, Snapchat no es un lugar para contenido político o de activismo, particularmente en nuestros espacios públicos. 

Sin embargo, para protegerse contra estos riesgos, Snap ha puesto en marcha comprobaciones y capacitación, y cuenta con procedimientos sólidos y coherentes para gestionar las denuncias de contenidos ilegales o infractores, incluidas las procedentes de las autoridades policiales y gubernamentales. Evaluamos y evolucionamos continuamente nuestros algoritmos de moderación de contenido. Aunque los posibles daños a la libertad de expresión son difíciles de detectar, no tenemos conocimiento de ningún problema significativo y ofrecemos vías para que nuestros usuarios denuncien los errores si se producen. 

Nuestras políticas y sistemas promueven una aplicación coherente y justa de la ley y, como se ha descrito anteriormente, ofrecen a los Snapchatters la oportunidad de impugnar de manera significativa los resultados de la aplicación de la ley a través de procesos de notificación y apelación que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de cada Snapchatter.

Nos esforzamos continuamente por mejorar nuestras políticas y procesos de aplicación de la normativa y hemos logrado grandes avances en la lucha contra los contenidos y actividades potencialmente dañinos e ilegales en Snapchat. Esto se refleja en una tendencia al alza en nuestras cifras de presentación de informes y aplicación de la ley que se muestran en nuestro último Informe de transparencia y en la disminución de las tasas de prevalencia de infracciones en Snapchat en general. 


Avisos de informantes de confianza (Artículo 15.1(b))

Durante el período de nuestro último Informe de transparencia (primer semestre de 2023), no hubo Informantes de confianza nombrados formalmente en virtud del DSA. Como resultado, el número de notificaciones presentadas por dichos Informantes de confianza fue cero (0) en este período.


Controversias extrajudiciales (Artículo 24.1(a))

Durante el periodo de nuestro último Informe de transparencia (primer semestre de 2023), no se designó formalmente ningún órgano extrajudicial de resolución de controversias en virtud del DSA. Como resultado, el número de controversias presentadas a dichos órganos fue cero (0) en este período.


Suspensiones de cuentas de conformidad con el Artículo 23 (Artículo 24.1(b))

Durante el período de nuestro último Informe de transparencia (primer semestre de 2023), no hubo ningún requisito de suspender cuentas de conformidad con el Artículo 23 de la DSA por la disposición de contenido manifiestamente ilegal, notificaciones sin fundamento o quejas sin fundamento. Como resultado, el número de tales suspensiones fue cero (0). Sin embargo, Snap toma las medidas de cumplimiento adecuadas contra las cuentas, como se explica en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat, y la información sobre el nivel de cumplimiento de la ley de cuentas de Snap se puede encontrar en nuestro Informe de transparencia (primer semestre de 2023).