Unión Europea
Última actualización: 7 de febrero de 2024

Bienvenido a nuestra página de transparencia de la Unión Europea (UE), dedicada a la publicación de información específica de la UE exigida por la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios Neerlandeses (DMA).

Promedio mensual de beneficiarios activos 

A 1.° de agosto de 2023, contamos con 102 millones de destinatarios activos mensuales promedio ("AMAR") en nuestra app Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por estado miembro de la siguiente manera:

Estas cifras se calcularon para cumplir con la normativa actual de la Ley de Servicios Digitales (LSD) y solo se deben utilizar con esta finalidad. Puede que con el tiempo nuestra forma de calcular esta cifra cambie, como por ejemplo en atención a cambios orientativos y técnicos por parte del organismo regulador. También puede que sea diferente de los cálculos utilizados para obtener otras cifras relativas a usuarios activos que publicamos con otras finalidades.

Representante legal 

Snap Group Limited han nombrado a Snap B.V. como su Representante Legal Puedes ponerte en contacto con el representante en dsa-enquiries [at] snapchat.com para la DSA, en vsp-enquiries [at] snapchat.com para la AVMSD y la DMA, a través de nuestro sitio web de ayuda [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si eres una agencia de aplicación de la ley, sigue los pasos que se indican aquí.

Autoridades reguladoras

En materia de la LSD, estamos sometidos a la regulación de la Comisión Europea y de la Autoridad Neerlandesa para Consumidores y mercados (ACM, por sus siglas en inglés). 

En el caso de AVMSD y DMA, nos regimos por la Autoridad Holandesa de Medios de Comunicación (CvdM).

Informe de transparencia de la LSD

Snap está obligada según los artículos 15, 24 y 42 de la LSD a publicar informes que contengan la información requerida sobre la moderación de contenidos de Snap para los servicios de Snapchat que se consideren "plataformas en línea", es decir, Spotlight, For You, Perfiles públicos, Maps, Lentes y Publicidad. Tal informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para proporcionar información sobre las actividades de Snap en materia de seguridad y la naturaleza y el volumen de contenidos denunciados en nuestra plataforma. Nuestro último informe del primer semestre de 2023 (del 1 de enero al 30 de junio) se puede encontrar aquí. Dicho informe contiene la siguiente información:

  • Requerimientos de organismos públicos, lo que incluye requerimientos de eliminación de información y de contenidos; 

  • Infracciones de contenido, lo que incluye medidas adoptadas en relación con contenidos ilegales y el tiempo medio de respuesta; 

  • Apelaciones, que se reciben y tramitan a través de nuestro proceso interno de tramitación de reclamaciones.

Dichas secciones son pertinentes en cuanto a la información requerida por el artículo 15.1(a), (b) y (d) de la LSD. Téngase en cuenta que aún no contienen un paquete completo de datos porque el último informe abarca el primer semestre de 2023, anterior a la entrada en vigor de la LSD. 

A continuación proporcionamos información adicional sobre los aspectos no cubiertos por nuestro informe de transparencia del primer semestre de 2023:

Moderación de contenidos (artículo 15.1(c) y (e), artículo 42.2)

Todo el contenido de Snapchat debe cumplir nuestras Pautas para la comunidad y Términos del servicio, así como los términos, pautas y documentos explicativos. Los mecanismos de detección proactiva y las denuncias de contenidos o cuentas ilegales o infractores dan pie a una revisión, momento en el que nuestros sistemas de herramientas procesan la solicitud, recopilan metadatos relevantes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada diseñada para facilitar operaciones de revisión efectivas y Cuando nuestros equipos de moderación determinen, ya sea a través de revisión humana o por medios automatizados, que un usuario ha infringido nuestros Términos, podemos eliminar el contenido o la cuenta infractores, dar por cancelada o limitar la visibilidad de la cuenta en cuestión, y/o notificarlo a las fuerzas de seguridad tal y como se explica en nuestro Documento explicativo sobre moderación, aplicación de normativa y apelación en Snapchat.  Los usuarios cuyas cuentas estén bloqueadas por nuestro equipo de seguridad por infracciones de las Pautas para la comunidad pueden presentar una apelación contra el bloqueo de cuentas, y los usuarios pueden apelar contra determinadas medidas de aplicación de normas sobre contenidos.

Herramientas automatizadas de moderación de contenidos

En nuestras áreas de contenido público, los contenidos generalmente pasan por moderación automática y revisión humana antes de ser distribuidos al público general. En cuanto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenidos ilegales e infractores mediante aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenidos basados en una lista identificada y actualizada regularmente de palabras clave abusivas, incluyendo emojis.

Durante el período de nuestro último Informe de transparencia (primer semestre de 2023), no fue necesario recopilar indicadores formales / tasas de error para estos sistemas automatizados. Sin embargo, supervisamos regularmente estos sistemas en busca de problemas y la precisión de nuestras decisiones de moderación humanas es verificada regularmente.


Moderación humana

Nuestro equipo de moderación de contenidos opera en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapfans las 24 horas del día, los 7 días de la semana. A continuación encontrarás el desglose de nuestros recursos de moderación humana por especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en varios idiomas) a partir de agosto de 2023:

Las cifras anteriores tienden a variar con frecuencia, según las tendencias en el volumen de ingreso o envíos por idioma/país. Cuando requerimos apoyo lingüístico adicional, recurrimos a servicios de traducción.

Los moderadores son contratados siguiendo una descripción de trabajo estándar que incluye un requisito lingüístico (en función de las necesidades). El requisito lingüístico especifica que los candidatos deben demostrar fluidez tanto en la comunicación escrita como en la oral en el idioma correspondiente y tener al menos un año de experiencia laboral para los puestos de nivel inicial. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser tomados en consideración. Los candidatos también deben demostrar conocimiento actualizado sobre el país o región en los que van a realizar la tarea de moderación de contenidos. 

Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para contribuir a la protección de nuestra comunidad en Snapchat. La capacitación se lleva a cabo a lo largo de varias semanas, en las que los nuevos miembros del equipo reciben instrucción sobre las políticas, herramientas y procesos de escalado de Snap. Después de completar la capacitación, cada moderador debe pasar un examen de certificación antes de poder comenzar a revisar los contenidos. Nuestro equipo de moderación se mantiene actualizado regularmente mediante capacitaciones relacionadas con sus flujos de trabajo, en especial cuando nos encontramos con casos en los que las políticas superan los límites y dependen del contexto. También llevamos a cabo programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén al día y cumplan todas las políticas actualizadas. Por último, cuando surgen tendencias de contenido urgentes basadas en acontecimientos actuales, proporcionamos rápidamente aclaraciones sobre las políticas para que los equipos puedan tomar medidas de acuerdo con las políticas de Snap.

Ofrecemos apoyo y recursos a nuestro equipo de moderación de contenido, que son los "primeros respondedores digitales" de Snap, incluido el apoyo al bienestar en el trabajo y un fácil acceso a los servicios de salud mental.


Medidas de seguridad para la moderación de contenidos

Reconocemos que existen riesgos asociados a la moderación de contenidos, incluidos los riesgos para las libertades de expresión y reunión, que pueden ser causados por prejuicios e informes abusivos de moderadores automatizados y humanos, incluidos gobiernos, grupos políticos o individuos bien organizados. En general, Snapchat no es un lugar para contenidos políticos o activistas, y menos en nuestros espacios públicos.

Sin embargo, para mitigar estos riesgos, Snap ha implementado pruebas y formación, y ha establecido procedimientos sólidos y coherentes para gestionar las denuncias relacionadas con contenido ilegal o infractor, incluidas las procedentes de las autoridades policiales y gubernamentales. Constantemente evaluamos y mejoramos nuestros algoritmos de moderación de contenidos. Aunque es difícil detectar posibles daños a la libertad de expresión, no tenemos constancia de problemas significativos y ofrecemos a nuestros usuarios vías para denunciar los errores que se produzcan.

Nuestras políticas y sistemas fomentan la aplicación justa y coherente, y como se mencionó previamente, ofrecen a los Snapfans la oportunidad de apelar de manera significativa las decisiones a través de procesos de notificación y apelación que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapfans

Continuamos trabajando constantemente en la mejora de nuestras políticas y procesos de aplicación, y hemos hecho grandes progresos en nuestra lucha contra los contenidos y actividades ilegales y potencialmente perjudiciales en Snapchat. Esto se refleja en un aumento en las cifras de denuncias y aplicación de la ley, como se detalla en nuestro último informe de transparencia y en la disminución de las tasas de prevalencia de infracciones en Snapchat en general.


Avisos de señalizadores de confianza (artículo 15.1(b))

Durante el periodo de nuestro último informe de transparencia (1.º S de 2023), no se designó oficialmente a ningún señalizador de confianza según la DSA. Como resultado, el número de avisos presentados por dichos señalizadores de confianza fue cero (0) en este periodo.


Litigios extrajudiciales (artículo 24.1(a))

En el mismo período cubierto por nuestro último informe de transparencia (primer semestre de 2023), no se designaron oficialmente órganos extrajudiciales de resolución de litigios en virtud del ASD. Como resultado, el número de litigios sometidos a dichos órganos fue cero (0) en este periodo.


Suspensión de cuentas en virtud del artículo 23 (artículo 24.1(b))

Durante el período de nuestro último informe de transparencia (1.º S de 2023), no fue necesario suspender cuentas en virtud del artículo 23 de la DSA debido a la provisión de contenidos manifiestamente ilegales, avisos infundados o reclamaciones infundadas. Como resultado, el número de dichas suspensiones fue cero (0). Sin embargo, Snap toma las medidas apropiadas para sancionar cuentas, tal como se detalla en nuestro documento "Snapchat Moderation, Enforcement, and Appeals Explainer", y la información relativa al nivel de aplicación de las medidas de suspensión de cuentas de Snap puede consultarse en nuestro informe de transparencia (1.°S 2023).