Unión Europea
Última actualización: el 7 de febrero de 2024

Estas cifras se calcularon para cumplir las normas actuales de la DSA y solo deben tenerse en cuenta a efectos de la DSA. Con el tiempo, es posible que cambiemos la forma de calcular esta cifra, como respuesta a los cambios en las pautas de los reguladores y en la tecnología. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.

Representante Legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal. Puedes ponerte en contacto con el representante en dsa-enquiries [arroba] snapchat.com respecto a la DSA, en vsp-enquiries [arroba] snapchat.com respecto a la AVMSD y la DMA, a través de nuestro sitio web de Ayuda [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí.

Autoridades reguladoras

En el caso de DSA, estamos regulados por la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). 

En el caso de AVMSD y la DMA, estamos regulados por la Autoridad Holandesa de Medios de Comunicación (CvdM).

Informe de transparencia de la DSA

Los artículos 15, 24 y 42 de la DSA requieren que Snap publique informes que contengan información prescrita sobre la moderación de contenidos de Snap para los servicios de Snapchat que se consideran "plataformas en línea", es decir, Spotlight, For You, perfiles públicos, Mapas, Lentes y Publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen del contenido denunciado en nuestra plataforma. Nuestro último informe correspondiente al primer semestre de 2023 (del 1 de enero al 30 de junio) puede encontrarse aquí. Ese informe contiene la siguiente información:

  • Solicitudes gubernamentales, que incluyen solicitudes de eliminación de información y contenido; 

  • Infracciones de contenido, que incluyen las medidas adoptadas en relación con el contenido ilegal y el tiempo medio de respuesta; 

  • Apelaciones, que se reciben y tramitan a través de nuestro proceso interno de gestión de quejas.

Esas secciones son pertinentes para la información requerida por el artículo 15.1(a), (b) y (d) de la DSA. Ten en cuenta que aún no contienen un conjunto de datos completo porque el último informe abarca el primer semestre de 2023, que es anterior a la entrada en vigor de la DSA. 

A continuación proporcionamos información adicional sobre los aspectos no cubiertos por nuestro informe de transparencia para el primer semestre de 2023:

Moderación de contenidos (artículo 15.1(c) y (e), artículo 42.2)

Todo el contenido de Snapchat debe cumplir con nuestras Pautas para la comunidad y Condiciones de servicio, así como con los términos, pautas y explicaciones fundamentales. Los mecanismos de detección proactiva y los informes de contenido o cuentas ilegales o infractores provocan una revisión, momento en el que nuestros sistemas de herramientas procesan la solicitud, recopilan los metadatos pertinentes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada que está diseñada para facilitar operaciones de revisión efectivas y eficientes. Cuando nuestros equipos de moderación determinen, ya sea a través de revisión humana o por medios automatizados, que un usuario ha infringido nuestros Términos, podemos eliminar la cuenta o el contenido infractor, dar por terminado o limitar la visibilidad de la cuenta en cuestión y/o notificar a las fuerzas de la ley, tal y como se explica en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat.  Los usuarios cuyas cuentas estén bloqueadas por nuestro equipo de seguridad por infringir las Pautas para la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra ciertas medidas de aplicación de contenido.

Herramientas automatizadas de moderación de contenido

En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de ser elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor utilizando el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos los emojis.

Durante el período cubierto por nuestro último informe de transparencia (primer semestre de 2023), no hubo ningún requerimiento de cotejar los indicadores formales/tasas de error para estos sistemas automatizados. Sin embargo, supervisamos regularmente estos sistemas en busca de problemas y nuestras decisiones de moderación humana se determinan regularmente para garantizar la precisión.


Moderación humana

Nuestro equipo de moderación de contenido opera en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapchatters las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana según las especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en múltiples idiomas) a partir de agosto de 2023:

Bienvenido a nuestra página de transparencia de la Unión Europea (UE), dedicada a la publicación de información específica de la UE conforme a la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de los Países Bajos (DMA).

Promedio mensual de destinatarios activos 

A 1 de agosto de 2023, contábamos con un promedio de 102 millones de destinatarios activos mensuales ("PDAM") de nuestra aplicación Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro de la siguiente manera:

Estas cifras se calcularon para cumplir las normas actuales de la DSA y solo deben tenerse en cuenta a efectos de la DSA. Con el tiempo, hemos ajustado la metodología para calcular esta cifra en función de cambios en la política interna, las pautas de los reguladores y la tecnología, y no pretendemos que las cifras puedan compararse entre periodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.


Solicitudes de las autoridades de los Estados miembros
(Artículo 15.1(a) del RSD)

Solicitudes de retirada 

Durante este período, hemos recibido 0 solicitudes de retirada de Estados miembros de la UE de conformidad con el artículo 9 del RSD. 

Solicitudes de información 

Durante este período, hemos recibido las siguientes solicitudes de información de Estados miembros de la UE de conformidad con el artículo 10 del RDS:

El tiempo medio de respuesta para informar a las autoridades de la recepción de Solicitudes de información es de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción. El tiempo medio de respuesta para dar cumplimiento a las solicitudes de información es de ~10 días. Este indicador refleja el período de tiempo desde que Snap recibe una Solicitud de información hasta que Snap considera que la solicitud se ha resuelto por completo. En algunos casos, la duración de este proceso depende en parte de la velocidad con que las fuerzas de seguridad respondan a cualquier solicitud de aclaración de Snap necesaria para procesar su solicitud.

Moderación de contenidos 


Todo el contenido de Snapchat debe cumplir con nuestras Pautas para la comunidad y Condiciones de servicio, así como con los términos, pautas y documentos explicativos. Los mecanismos de detección proactiva y los informes de contenido o cuentas ilegales o infractores provocan una revisión, momento en el que nuestros sistemas de herramientas procesan la solicitud, recopilan los metadatos pertinentes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada que está diseñada para facilitar operaciones de revisión efectivas y eficientes. Cuando nuestros equipos de moderación determinen, ya sea a través de revisión humana o por medios automatizados, que un usuario ha infringido nuestros Términos, podemos eliminar la cuenta o el contenido infractor, dar por terminado o limitar la visibilidad de la cuenta en cuestión y/o notificar a las fuerzas de la ley, tal y como se explica en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat.  Los usuarios cuyas cuentas estén bloqueadas por nuestro equipo de seguridad por infringir las Pautas para la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra ciertas medidas de aplicación de contenido.

Notificaciones sobre contenidos y cuentas (artículo 15.1(b) del RSD)

Snap ha puesto en marcha mecanismos para permitir a usuarios y no usuarios hacer notificaciones a Snap sobre contenidos y cuentas que infrinjan nuestras Pautas para la comunidad y Condiciones de servicio en la plataforma, incluidos aquellos que consideren ilegales de conformidad con el artículo 16 del RSD.  Estos mecanismos de denuncia están disponibles en la propia aplicación (es decir, directamente desde el contenido en sí) y en nuestro sitio web.

Durante el período en cuestión, recibimos los siguientes avisos de contenido y cuentas en la UE:

En el segundo semestre de 2023, gestionamos 664 896 notificaciones únicamente a través de medios automatizados. Todas estas medidas se aplicaron en cumplimiento de nuestras Pautas para la comunidad porque nuestras Pautas para la comunidad encapsulan contenidos ilegales. 

Además de los contenidos y cuentas generados por los usuarios, moderamos los anuncios si infringen las políticas de nuestra plataforma. A continuación se muestran el total de anuncios que se denunciaron y eliminaron en la UE. 

Avisos de marcadores de confianza (artículo 15.1(b))

Durante el período de nuestro último Informe de transparencia (segundo semestre de 2023), no hubo marcadores de confianza designados formalmente en virtud del RSD. Como resultado, el número de notificaciones presentadas por dichos marcadores de confianza fue cero (0) en este período.

Moderación proactiva de contenidos (artículo 15.1(c))

Durante el período en cuestión, Snap aplicó medidas correctivas sobre los siguientes contenidos y cuentas en la UE después de iniciar la moderación de contenidos por su propia iniciativa:

Todos los esfuerzos de moderación a iniciativa de Snap sirvieron de palanca para la humana y la automatizada. En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de ser elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor utilizando el aprendizaje automático;

  • Herramientas de coincidencia de valores hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos los emojis


Apelaciones (artículo 15.1(d))

Durante el período en cuestión, Snap tramitó las siguientes apelaciones sobre contenidos y cuentas en la UE a través de sus sistemas internos de gestión de quejas:


Bienvenido a nuestra página de transparencia de la Unión Europea (UE), dedicada a la publicación de información específica de la UE conforme a la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de los Países Bajos (DMA).

Promedio mensual de destinatarios activos 

A 1 de agosto de 2023, contábamos con un promedio de 102 millones de destinatarios activos mensuales ("PDAM") de nuestra aplicación Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro de la siguiente manera:

Estas cifras se calcularon para cumplir las normas actuales de la DSA y solo deben tenerse en cuenta a efectos de la DSA. Con el tiempo, es posible que cambiemos la forma de calcular esta cifra, como respuesta a los cambios en las pautas de los reguladores y en la tecnología. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.

Representante Legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal. Puedes ponerte en contacto con el representante en dsa-enquiries [arroba] snapchat.com respecto a la DSA, en vsp-enquiries [arroba] snapchat.com respecto a la AVMSD y la DMA, a través de nuestro sitio web de Ayuda [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí.

Autoridades reguladoras

En el caso de DSA, estamos regulados por la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). 

En el caso de AVMSD y la DMA, estamos regulados por la Autoridad Holandesa de Medios de Comunicación (CvdM).

Informe de transparencia de la DSA

Los artículos 15, 24 y 42 de la DSA requieren que Snap publique informes que contengan información prescrita sobre la moderación de contenidos de Snap para los servicios de Snapchat que se consideran "plataformas en línea", es decir, Spotlight, For You, perfiles públicos, Mapas, Lentes y Publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen del contenido denunciado en nuestra plataforma. Nuestro último informe correspondiente al primer semestre de 2023 (del 1 de enero al 30 de junio) puede encontrarse aquí. Ese informe contiene la siguiente información:

  • Solicitudes gubernamentales, que incluyen solicitudes de eliminación de información y contenido; 

  • Infracciones de contenido, que incluyen las medidas adoptadas en relación con el contenido ilegal y el tiempo medio de respuesta; 

  • Apelaciones, que se reciben y tramitan a través de nuestro proceso interno de gestión de quejas.

Esas secciones son pertinentes para la información requerida por el artículo 15.1(a), (b) y (d) de la DSA. Ten en cuenta que aún no contienen un conjunto de datos completo porque el último informe abarca el primer semestre de 2023, que es anterior a la entrada en vigor de la DSA. 

A continuación proporcionamos información adicional sobre los aspectos no cubiertos por nuestro informe de transparencia para el primer semestre de 2023:

Moderación de contenidos (artículo 15.1(c) y (e), artículo 42.2)

Todo el contenido de Snapchat debe cumplir con nuestras Pautas para la comunidad y Condiciones de servicio, así como con los términos, pautas y explicaciones fundamentales. Los mecanismos de detección proactiva y los informes de contenido o cuentas ilegales o infractores provocan una revisión, momento en el que nuestros sistemas de herramientas procesan la solicitud, recopilan los metadatos pertinentes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada que está diseñada para facilitar operaciones de revisión efectivas y eficientes. Cuando nuestros equipos de moderación determinen, ya sea a través de revisión humana o por medios automatizados, que un usuario ha infringido nuestros Términos, podemos eliminar la cuenta o el contenido infractor, dar por terminado o limitar la visibilidad de la cuenta en cuestión y/o notificar a las fuerzas de la ley, tal y como se explica en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat.  Los usuarios cuyas cuentas estén bloqueadas por nuestro equipo de seguridad por infringir las Pautas para la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra ciertas medidas de aplicación de contenido.

Herramientas automatizadas de moderación de contenido

En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de ser elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor utilizando el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos los emojis.

Durante el período cubierto por nuestro último informe de transparencia (primer semestre de 2023), no hubo ningún requerimiento de cotejar los indicadores formales/tasas de error para estos sistemas automatizados. Sin embargo, supervisamos regularmente estos sistemas en busca de problemas y nuestras decisiones de moderación humana se determinan regularmente para garantizar la precisión.


Moderación humana

Nuestro equipo de moderación de contenido opera en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapchatters las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana según las especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en múltiples idiomas) a partir de agosto de 2023:

Bienvenido a nuestra página de transparencia de la Unión Europea (UE), dedicada a la publicación de información específica de la UE conforme a la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de los Países Bajos (DMA).

Promedio mensual de destinatarios activos 

A 1 de agosto de 2023, contábamos con un promedio de 102 millones de destinatarios activos mensuales ("PDAM") de nuestra aplicación Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro de la siguiente manera:

Bienvenido a nuestra página de transparencia de la Unión Europea (UE), dedicada a la publicación de información específica de la UE conforme a la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de los Países Bajos (DMA).

Promedio mensual de destinatarios activos 

A 1 de agosto de 2023, contábamos con un promedio de 102 millones de destinatarios activos mensuales ("PDAM") de nuestra aplicación Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro de la siguiente manera: