Unión Europea
Última actualización: el 7 de febrero de 2024

Bienvenido a nuestra página de transparencia de la Unión Europea (UE), dedicada a la publicación de información específica de la UE conforme a la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de los Países Bajos (DMA).

Promedio mensual de destinatarios activos 

A 1 de agosto de 2023, contábamos con un promedio de 102 millones de destinatarios activos mensuales ("PDAM") de nuestra aplicación Snapchat en la UE.
Esto significa que, en los últimos 6 meses, un promedio de 102 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro de la siguiente manera:

Estas cifras se calcularon para cumplir las normas actuales de la DSA y solo deben tenerse en cuenta a efectos de la DSA. Con el tiempo, es posible que cambiemos la forma de calcular esta cifra, como respuesta a los cambios en las pautas de los reguladores y en la tecnología. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.

Representante Legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal. Puedes ponerte en contacto con el representante en dsa-enquiries [arroba] snapchat.com respecto a la DSA, en vsp-enquiries [arroba] snapchat.com respecto a la AVMSD y la DMA, a través de nuestro sitio web de Ayuda [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí.

Autoridades reguladoras

En el caso de DSA, estamos regulados por la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). 

En el caso de AVMSD y la DMA, estamos regulados por la Autoridad Holandesa de Medios de Comunicación (CvdM).

Informe de transparencia de la DSA

Los artículos 15, 24 y 42 de la DSA requieren que Snap publique informes que contengan información prescrita sobre la moderación de contenidos de Snap para los servicios de Snapchat que se consideran "plataformas en línea", es decir, Spotlight, For You, perfiles públicos, Mapas, Lentes y Publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen del contenido denunciado en nuestra plataforma. Nuestro último informe correspondiente al primer semestre de 2023 (del 1 de enero al 30 de junio) puede encontrarse aquí. Ese informe contiene la siguiente información:

  • Solicitudes gubernamentales, que incluyen solicitudes de eliminación de información y contenido; 

  • Infracciones de contenido, que incluyen las medidas adoptadas en relación con el contenido ilegal y el tiempo medio de respuesta; 

  • Apelaciones, que se reciben y tramitan a través de nuestro proceso interno de gestión de quejas.

Esas secciones son pertinentes para la información requerida por el artículo 15.1(a), (b) y (d) de la DSA. Ten en cuenta que aún no contienen un conjunto de datos completo porque el último informe abarca el primer semestre de 2023, que es anterior a la entrada en vigor de la DSA. 

A continuación proporcionamos información adicional sobre los aspectos no cubiertos por nuestro informe de transparencia para el primer semestre de 2023:

Moderación de contenidos (artículo 15.1(c) y (e), artículo 42.2)

Todo el contenido de Snapchat debe cumplir con nuestras Pautas para la comunidad y Condiciones de servicio, así como con los términos, pautas y explicaciones fundamentales. Los mecanismos de detección proactiva y los informes de contenido o cuentas ilegales o infractores provocan una revisión, momento en el que nuestros sistemas de herramientas procesan la solicitud, recopilan los metadatos pertinentes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada que está diseñada para facilitar operaciones de revisión efectivas y eficientes. Cuando nuestros equipos de moderación determinen, ya sea a través de revisión humana o por medios automatizados, que un usuario ha infringido nuestros Términos, podemos eliminar la cuenta o el contenido infractor, dar por terminado o limitar la visibilidad de la cuenta en cuestión y/o notificar a las fuerzas de la ley, tal y como se explica en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat.  Los usuarios cuyas cuentas estén bloqueadas por nuestro equipo de seguridad por infringir las Pautas para la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra ciertas medidas de aplicación de contenido.

Herramientas automatizadas de moderación de contenido

En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de ser elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor utilizando el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos los emojis.

Durante el período cubierto por nuestro último informe de transparencia (primer semestre de 2023), no hubo ningún requerimiento de cotejar los indicadores formales/tasas de error para estos sistemas automatizados. Sin embargo, supervisamos regularmente estos sistemas en busca de problemas y nuestras decisiones de moderación humana se determinan regularmente para garantizar la precisión.


Moderación humana

Nuestro equipo de moderación de contenido opera en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapchatters las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana según las especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en múltiples idiomas) a partir de agosto de 2023:

Los mencionados números fluctúan frecuentemente a medida que vemos tendencias de volumen entrante o envíos por idioma o país. En situaciones en las que necesitemos ayuda lingüística adicional, utilizamos servicios de traducción.

Los moderadores se contratan utilizando una descripción estándar del puesto de trabajo, que incluye un requisito de idioma (según se necesite). El requisito de idioma establece que el candidato debe ser capaz de demostrar fluidez escrita y oral en el idioma y tener al menos un año de experiencia laboral para puestos de nivel principiante. Los candidatos también deben cumplir los requisitos de educación y formación para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o región en cuya moderación de contenido colaborarán. 

Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para ayudar a proteger a nuestra comunidad Snapchat. La capacitación se lleva a cabo durante un período de varias semanas, en el que se informa a los nuevos miembros del equipo sobre las políticas, herramientas y procesos de escalado de Snap. Después de la capacitación, cada moderador debe superar un examen de certificación antes de poder revisar contenido. Nuestro equipo de moderación participa regularmente en cursos de actualización que tienen que ver con sus flujos de trabajo, especialmente cuando nos encontramos con casos al límite de nuestras políticas y casos relativos a cierto contexto. También llevamos a cabo programas de mejora de capacidades, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén al día y en cumplimiento de todas las versiones más recientes de las políticas. Por último, cuando surgen tendencias de contenido urgentes basadas en acontecimientos de actualidad, difundimos rápidamente aclaraciones de las políticas para que los equipos puedan reaccionar de acuerdo con las políticas de Snap.

Proporcionamos a nuestro equipo de moderación de contenido, los "primeros en responder digitalmente" en Snap, apoyo y recursos significativos, incluyendo asistencia para el bienestar en el trabajo y fácil acceso a servicios de salud mental. 


Garantías de protección al moderar contenidos

Reconocemos que existen riesgos asociados a la moderación de contenidos, incluyendo riesgos para la libertad de expresión y asociación, que pueden ser causados por sesgos de moderadores automatizados y humanos y por denuncias abusivas, incluso por parte de gobiernos, formaciones políticas o personas bien organizadas. Por lo general, Snapchat no es lugar para contenido político o activista, especialmente en nuestros espacios públicos. 

Sin embargo, para protegerse contra estos riesgos, Snap tiene establecidas pruebas y formación, y cuenta con procedimientos sólidos y coherentes para tratar denuncias sobre contenido ilegal o infractor, incluso de las autoridades policiales y gubernamentales. Evaluamos y evolucionamos continuamente nuestros algoritmos de moderación de contenido. Si bien es difícil detectar posibles daños a la libertad de expresión, no nos consta que haya ningún problema significativo y ofrecemos vías para que nuestros usuarios informen de errores si se producen. 

Nuestras políticas y sistemas promueven una aplicación coherente y justa y, tal y como se ha descrito anteriormente, ofrecen a los Snapchatters una verdadera oportunidad para resolver realmente las disputas que surjan, mediante procesos de Notificación y Apelación, cuyo objetivo es salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.

Nos esforzamos continuamente por mejorar nuestras políticas y procesos de cumplimiento y hemos logrado grandes avances en la lucha contra el contenido y las actividades potencialmente nocivos e ilegales en Snapchat. Prueba de ello es la tendencia al alza en nuestras cifras de denuncias y cumplimiento, como se aprecia en nuestro último informe de transparencia, así como la disminución de la tasa de predominio de infracciones en Snapchat en general. 


Avisos de marcadores de confianza (artículo 15.1(b))

Durante el período cubierto por nuestro último informe de transparencia (primer semestre de 2023), no hubo marcadores de confianza formalmente designados en virtud de la DSA. Como resultado, el número de notificaciones presentadas por dichos marcadores de confianza fue cero (0) en este período.


Controversias Extrajudiciales (artículo 24.1(a))

Durante el período cubierto por nuestro último informe de transparencia (primer semestre de 2023), no hubo órganos de resolución de disputas extrajudiciales formalmente designados en virtud de la DSA. Como resultado, el número de litigios presentados ante dichos órganos fue cero (0) en este período.


Suspensiones de cuentas de acuerdo con el artículo 23 (artículo 24.1(b))

Durante el período cubierto por nuestro último informe de transparencia (primer semestre de 2023), no hubo ningún requerimiento de suspensión de cuentas de acuerdo con el artículo 23 de la DSA por suministro de contenido manifiestamente ilegal, notificaciones sin fundamento o quejas sin fundamento. Como resultado, el número de tales suspensiones fue cero (0). No obstante, Snap ejecuta medidas adecuadas de cumplimiento frente a las cuentas, tal y como se explica en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat, y se puede encontrar información sobre el nivel de cumplimiento a que Snap somete a las cuentas en nuestro informe de transparencia (primer trimestre de 2023).