Unión Europea
Última actualización: 7 de febrero de 2024

Estas cifras se calcularon para cumplir las reglas actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, es posible que cambiemos la forma de calcular esta cifra, como respuesta a los cambios en las pautas de los reguladores y en la tecnología. También es posible que difiera de los cálculos empleados para otras métricas de usuarie activos que compartimos con diferentes propósitos.

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal. Puedes comunicarte con el representante en dsa-enquiries [at] snapchat.com para la DSA, en vsp-enquiries [at] snapchat.com para AVMSD y DMA, a través de nuestro sitio de soporte [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Ámsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican a continuación aquí.

Autoridades reguladoras

En el caso de la DSA, nos rige la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). 

Para el caso de la AVMSD y la DMA, nos rige la Autoridad de Medios de Comunicación de Países Bajos (CvdM).

Informe de transparencia de la DSA

Según los artículos 15, 24 y 42 de la DSA, Snap debe publicar informes que contengan información reglamentaria sobre la moderación de contenido de Snap para los servicios de Snapchat que se consideren “plataformas en línea”, es decir, Spotlight, For You, perfiles públicos, mapas, Lentes y publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para informar de los esfuerzos de seguridad de Snap, y la naturaleza y el volumen del contenido documentado en nuestra plataforma. Nuestro último informe sobre el primer semestre de 2023 (del 1 de enero al 30 de junio) se puede encontrar aquí. Ese informe contiene la siguiente información:

  • Solicitudes gubernamentales, que incluyen solicitudes de eliminación de información y contenido; 

  • Incumplimientos de las normas de contenido, que incluyen medidas adoptadas en relación con el contenido ilegal y el tiempo medio de respuesta;

  • Apelaciones, que se reciben y gestionan a través de nuestro proceso interno de gestión de quejas.

Esas secciones son pertinentes a la información solicitada por el artículo 15.1(a), (b) y (d) de la DSA. Se debe tener en cuenta que estos informes aún no contienen un conjunto de datos completo, porque el último informe abarca el primer semestre de 2023, que es anterior a la entrada en vigor de la DSA. 

A continuación bridamos información adicional sobre aspectos no cubiertos por nuestro informe de transparencia del primer semestre de 2023:

Moderación de contenido (artículo 15.1(c) y (e), Artículo 42.2)

Todo el contenido en Snapchat debe cumplir nuestros lineamientos de la comunidad y nuestros términos y condiciones de servicio, así como los términos, lineamientos y las explicaciones de respaldo. A raíz de los mecanismos proactivos de detección y los informes de contenido o cuentas ilegales o infractores, se inicia una revisión; a partir de ese momento, nuestras herramientas procesan la solicitud, recopilan metadatos pertinentes y envían el contenido correspondiente a nuestro equipo de moderación a través de una interfaz de usuario estructurada que facilita las operaciones de revisión eficientes. Cuando nuestros equipos de moderación decidan, a través de revisones a cargo de personas o por medios automatizados, que un usuario infringió nuestros términos y condiciones, podremos eliminar el contenido o la cuenta infractores, cancelar o limitar la visibilidad de la cuenta en cuestión o notificar a las autoridades como se explica en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat.  Los usuarios cuyas cuentas sean bloqueadas por nuestro equipo de seguridad a causa de incumplimientos de los lineamientos de la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra determinadas medidas de cumplimiento de los contenidos.

Herramientas automatizadas de moderación de contenido

En nuestras superficies de contenido público, el contenido generalmente se somete a moderación automática y la revisión a cargo de personas antes de que se pueda distribuir a un público amplio. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor mediante el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de idioma abusivo para rechazar contenido en función de una lista identificada y actualizada periódicamente de palabras clave abusivas, incluidos emojis.

Durante el período de nuestro último informe de transparencia (primer semestre de 2023), no hubo ningún requisito de recopilar indicadores formales o tasas de error para estos sistemas automatizados. Sin embargo, supervisamos periódicamente estos sistemas en busca de problemas, y nuestras decisiones de moderación a cargo de personas se determinan periódicamente para garantizar la precisión.


Moderación humana

Dado que nuestro equipo de moderación de contenido opera en todo el mundo, esto nos permite ayudar a mantener a los Snapchatters a salvo las 24 horas del día, los 7 días de la semana. A continuación encontrará una explicación detallada de nuestros recursos de moderación humana según las especialidades de idioma de los moderadores (tenga en cuenta que algunos moderadores se especializan en varios idiomas) al mes de agosto de 2023:

Bienvenidos a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de Comunicación de Países Bajos (DMA).  

Promedio de destinatarios activos mensuales 

El 1 de agosto de 2023 contábamos con un promedio de 102 millones de destinatarios activos mensuales (“AMAR”) de nuestra app de Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro del siguiente modo:

Estas cifras se calcularon para cumplir las reglas actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, hemos ajustado la forma en que calculamos esta cifra debido a cambios en la política interna, las orientaciones de los reguladores y la tecnología, y las cifras no deben compararse entre periodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarie activos que compartimos con diferentes propósitos.


Solicitudes de las autoridades de los Estados miembros
(Artículo 15.1(a) de la DSA)

Solicitudes de retirada

Durante este periodo, hemos recibido 0 solicitudes de retirada de fondos de Estados miembros de la UE en cumplimiento con el artículo 9 de la Ley de Servicios Digitales (DSA).

Solicitudes de información

Durante este período, hemos recibido las siguientes solicitudes de información de Estados miembros de la Unión Europea en cumplimiento con el artículo 10 de la Ley de Servicios Digitales (DSA):

El tiempo promedio de respuesta para informar a las autoridades sobre la recepción de solicitudes de información es de 0 minutos: proporcionamos una respuesta automática confirmando la recepción. El tiempo medio de tramitación de las solicitudes de información es de unos 10 días. Este parámetro refleja el periodo de tiempo que transcurre desde que Snap recibe una solicitud de información hasta que considera que la solicitud está totalmente resuelta. En algunos casos, la duración de este proceso depende en parte de la rapidez con la que las fuerzas de seguridad respondan a las solicitudes de aclaración de Snap necesarias para procesar su solicitud.

Moderación de contenido


Todo el contenido en Snapchat debe adherirse a nuestros lineamientos de la comunidad y a nuestros Términos y condiciones de servicio, así como los términos, lineamientos y las explicaciones de respaldo. A raíz de los mecanismos proactivos de detección y los informes de contenido o cuentas ilegales o infractores, se inicia una revisión; a partir de ese momento, nuestras herramientas procesan la solicitud, recopilan metadatos pertinentes y envían el contenido correspondiente a nuestro equipo de moderación a través de una interfaz de usuario estructurada que facilita las operaciones de revisión eficientes. Cuando nuestros equipos de moderación decidan, a través de revisones a cargo de personas o por medios automatizados, que un usuario infringió nuestros términos y condiciones, podremos eliminar el contenido o la cuenta infractores, cancelar o limitar la visibilidad de la cuenta en cuestión o notificar a las autoridades como se explica en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat.  Los usuarios cuyas cuentas sean bloqueadas por nuestro equipo de seguridad a causa de incumplimientos de los lineamientos de la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra determinadas medidas de cumplimiento de los contenidos.

Notificaciones sobre contenidos y cuentas (DSA Artículo 15.1(b))

Snap ha puesto en marcha mecanismos que permiten a usuarios y no usuarios notificar a Snap sobre contenidos y cuentas que incumplen nuestros lineamientos de la comunidad y Términos y condiciones de servicio en la plataforma, incluidos aquellos que se consideran ilegales según lo establecido en el artículo 16 de la Ley de Servicios Digitales (DSA). Estos mecanismos de notificación están disponibles en la propia app (es decir, directamente desde el contenido) y también en nuestro sitio web.

Durante el período mencionado, hemos recibido las siguientes notificaciones sobre contenidos y cuentas en la UE:

Durante el segundo semestre de 2003, procesamos 664,896 notificaciones exclusivamente mediante medios automatizados. Todas ellas se aplicaron en contra de nuestros lineamientos de la comunidad, las cuales abarcan los contenidos ilegales.

Además de los contenidos generados por los usuarios y las cuentas, moderamos los anuncios si incumplen las políticas de nuestra plataforma. A continuación se presenta el número total de anuncios denunciados y retirados en la Unión Europea.

Avisos de informantes de confianza (Artículo 15.1(b))

Durante el período cubierto por nuestro último Informe de Transparencia (segundo semestre de 2023), no se designaron formalmente informantes de confianza, según lo dispuesto en la DSA. Como resultado, el número de notificaciones enviados por dichos informantes de confianza fue cero (0) en este periodo.

Moderación proactiva de contenidos (artículo 15.1(c))

Durante el período mencionado, Snap llevó a cabo la moderación de contenidos por iniciativa propia a los siguientes contenidos y cuentas en la UE:

Todos los esfuerzos de moderación por iniciativa propia de Snap se llevaron a cabo mediante intervenciones humanas o automatizadas. En nuestras superficies de contenido público, el contenido generalmente se somete a moderación automática y la revisión a cargo de personas antes de que se pueda distribuir a un público amplio. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor mediante el aprendizaje automático;

  • Herramientas de comparación de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada periódicamente de palabras clave abusivas, incluidos emojis.


Apelaciones (artículo 15.1(d))

Durante el período mencionado, Snap gestionó los siguientes contenidos y apelaciones de cuentas en la UE a través de sus sistemas internos de gestión de reclamaciones:


Bienvenidos a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de Comunicación de Países Bajos (DMA).  

Promedio de destinatarios activos mensuales 

El 1 de agosto de 2023 contábamos con un promedio de 102 millones de destinatarios activos mensuales (“AMAR”) de nuestra app de Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro del siguiente modo:

Estas cifras se calcularon para cumplir las reglas actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, es posible que cambiemos la forma de calcular esta cifra, como respuesta a los cambios en las pautas de los reguladores y en la tecnología. También es posible que difiera de los cálculos empleados para otras métricas de usuarie activos que compartimos con diferentes propósitos.

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal. Puedes comunicarte con el representante en dsa-enquiries [at] snapchat.com para la DSA, en vsp-enquiries [at] snapchat.com para AVMSD y DMA, a través de nuestro sitio de soporte [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Ámsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican a continuación aquí.

Autoridades reguladoras

En el caso de la DSA, nos rige la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). 

Para el caso de la AVMSD y la DMA, nos rige la Autoridad de Medios de Comunicación de Países Bajos (CvdM).

Informe de transparencia de la DSA

Según los artículos 15, 24 y 42 de la DSA, Snap debe publicar informes que contengan información reglamentaria sobre la moderación de contenido de Snap para los servicios de Snapchat que se consideren “plataformas en línea”, es decir, Spotlight, For You, perfiles públicos, mapas, Lentes y publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para informar de los esfuerzos de seguridad de Snap, y la naturaleza y el volumen del contenido documentado en nuestra plataforma. Nuestro último informe sobre el primer semestre de 2023 (del 1 de enero al 30 de junio) se puede encontrar aquí. Ese informe contiene la siguiente información:

  • Solicitudes gubernamentales, que incluyen solicitudes de eliminación de información y contenido; 

  • Incumplimientos de las normas de contenido, que incluyen medidas adoptadas en relación con el contenido ilegal y el tiempo medio de respuesta;

  • Apelaciones, que se reciben y gestionan a través de nuestro proceso interno de gestión de quejas.

Esas secciones son pertinentes a la información solicitada por el artículo 15.1(a), (b) y (d) de la DSA. Se debe tener en cuenta que estos informes aún no contienen un conjunto de datos completo, porque el último informe abarca el primer semestre de 2023, que es anterior a la entrada en vigor de la DSA. 

A continuación bridamos información adicional sobre aspectos no cubiertos por nuestro informe de transparencia del primer semestre de 2023:

Moderación de contenido (artículo 15.1(c) y (e), Artículo 42.2)

Todo el contenido en Snapchat debe cumplir nuestros lineamientos de la comunidad y nuestros términos y condiciones de servicio, así como los términos, lineamientos y las explicaciones de respaldo. A raíz de los mecanismos proactivos de detección y los informes de contenido o cuentas ilegales o infractores, se inicia una revisión; a partir de ese momento, nuestras herramientas procesan la solicitud, recopilan metadatos pertinentes y envían el contenido correspondiente a nuestro equipo de moderación a través de una interfaz de usuario estructurada que facilita las operaciones de revisión eficientes. Cuando nuestros equipos de moderación decidan, a través de revisones a cargo de personas o por medios automatizados, que un usuario infringió nuestros términos y condiciones, podremos eliminar el contenido o la cuenta infractores, cancelar o limitar la visibilidad de la cuenta en cuestión o notificar a las autoridades como se explica en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat.  Los usuarios cuyas cuentas sean bloqueadas por nuestro equipo de seguridad a causa de incumplimientos de los lineamientos de la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra determinadas medidas de cumplimiento de los contenidos.

Herramientas automatizadas de moderación de contenido

En nuestras superficies de contenido público, el contenido generalmente se somete a moderación automática y la revisión a cargo de personas antes de que se pueda distribuir a un público amplio. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor mediante el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de idioma abusivo para rechazar contenido en función de una lista identificada y actualizada periódicamente de palabras clave abusivas, incluidos emojis.

Durante el período de nuestro último informe de transparencia (primer semestre de 2023), no hubo ningún requisito de recopilar indicadores formales o tasas de error para estos sistemas automatizados. Sin embargo, supervisamos periódicamente estos sistemas en busca de problemas, y nuestras decisiones de moderación a cargo de personas se determinan periódicamente para garantizar la precisión.


Moderación humana

Dado que nuestro equipo de moderación de contenido opera en todo el mundo, esto nos permite ayudar a mantener a los Snapchatters a salvo las 24 horas del día, los 7 días de la semana. A continuación encontrará una explicación detallada de nuestros recursos de moderación humana según las especialidades de idioma de los moderadores (tenga en cuenta que algunos moderadores se especializan en varios idiomas) al mes de agosto de 2023:

Bienvenidos a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de Comunicación de Países Bajos (DMA).  

Promedio de destinatarios activos mensuales 

El 1 de agosto de 2023 contábamos con un promedio de 102 millones de destinatarios activos mensuales (“AMAR”) de nuestra app de Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro del siguiente modo:

Bienvenidos a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de Comunicación de Países Bajos (DMA).  

Promedio de destinatarios activos mensuales 

El 1 de agosto de 2023 contábamos con un promedio de 102 millones de destinatarios activos mensuales (“AMAR”) de nuestra app de Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro del siguiente modo: