Snap Values
Unión Europea

Te damos la bienvenida a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE exigida por la Ley de Servicios Digitales (LSD), la Directiva de Servicios de Comunicación Audiovisual (DSCA), la Ley de Medios de los Países Bajos (LMPB) y el Reglamento de Contenido Terrorista en Línea (RCTL). Nota: La versión más actualizada de estos Informes de transparencia se encuentra en la localización en-US.

Representante Legal 

Snap Group Limited ha designado a Snap B.V. como su Representante Legal para lo relativo a la LSD. Puedes comunicarte con el representante en dsa-enquiries [@] snapchat.com para LSD, en vsp-enquiries [@] snapchat.com para DSCA y LMPB, a tco-enquiries [@] snapchat.com para RCTL, a través de nuestro Sitio de soporte [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Ámsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí.

Comunícate en inglés u holandés cuando te pongas en contacto con nosotros.

Autoridades Reguladoras

En el caso de la LSD, nos rige la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). En el caso de la DSCA y la LMPB, nos rige la Autoridad de Medios de Comunicación de los Países Bajos (CvdM). En el caso del RCTL, nos rige la Autoridad de los Países Bajos para la prevención de contenido terrorista en línea y material de abuso sexual infantil (ATKM).

Informe de transparencia de la LSD

Publicado: 29 de agosto de 2025

Última actualización: 29 de agosto de 2025

Período de informe: del 1 de enero de 2025 al 30 de junio de 2025

Publicamos este informe de conformidad con los requisitos de transparencia para informes según los artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento [UE] 2022/2065) ("DSA"). A menos que se indique lo contrario, la información contenida en este informe es para el período de informe del 1 de enero de 2025 al 30 de junio de 2025 (primer semestre de 2025). 

1. Promedio de Destinatarios Activos Mensuales 
(Artículos 24.2 y 42.3 de la LSD)

Al 30 de junio de 2025, tenemos un promedio de 94,7 millones de destinatarios activos mensuales ("MDAM") de nuestra app de Snapchat en la UE. Esto significa que, en el período de los últimos 6 meses finalizado el 30 de junio de 2025, un promedio de 94,7 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos 1 vez al mes.

Esta cifra se desglosa por Estado miembro del siguiente modo:

Estas cifras se calcularon para cumplir los requisitos actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, hemos ajustado la forma en que calculamos esta cifra debido a cambios en la política interna, las orientaciones de los reguladores y la tecnología, de modo que las cifras no deben compararse entre periodos. También es posible que difiera de los cálculos empleados para otras cifras de usuarios activos que compartimos con diferentes propósitos.

2. Solicitudes de las autoridades de los Estados miembro
(Artículo 15.1(a) de la DSA)

a) Órdenes de actuar contra el contenido ilegal

Durante este período de informe (primer semestre de 2025), recibimos cero (0) órdenes de actuar contra contenido ilegal identificado específicamente por parte de las autoridades de los Estados miembros de la UE, incluidas las emitidas de acuerdo con el Artículo 9 de la DSA. 


Como este número es cero (0), no podemos proporcionar un desglose por el tipo de contenido ilegal en cuestión o por el Estado miembro que emite la orden, ni por la mediana de tiempo para cumplir con las órdenes.

b) Órdenes de proporcionar información 

Durante este período de informe (primer semestre de 2025), recibimos las siguientes órdenes (que no incluyen órdenes de divulgación de emergencia) de divulgar datos de los usuarios por parte de autoridades de los Estados miembro de la UE, incluidas las emitidas de acuerdo con el Artículo 10 de la DSA:

La mediana de tiempo para informar a las autoridades pertinentes sobre la recepción de estas órdenes de proporcionar información fue de <1 minuto; proporcionamos una respuesta automatizada confirmando la recepción

La mediana de tiempo para cumplir con estas órdenes de proporcionar información fue de ~14 días. Esta métrica refleja el período de tiempo desde que Snap recibió una orden hasta que Snap consideró que el asunto se había resuelto completamente, lo que en casos individuales puede depender en parte de la velocidad con la cual la autoridad del Estado miembro correspondiente responda a cualquier solicitud de aclaración de Snap necesaria para procesar la orden.

Ten en cuenta que no proporcionamos un desglose de las órdenes anteriores de proporcionar información categorizadas por el tipo de contenido ilegal en cuestión porque generalmente no disponemos de esta información.


3. Moderación de contenido 


Todo el contenido de Snapchat debe cumplir con nuestros Lineamientos de la comunidad y los Términos y condiciones de servicio. Cierto contenido también debe cumplir con lineamientos y políticas adicionales. Por ejemplo, el contenido enviado para recomendación algorítmica a un público más amplio en nuestras superficies de transmisión pública debe cumplir con los estándares adicionales y más altos estipulados en nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, mientras que los anuncios deben cumplir con nuestras Políticas publicitarias.

Hacemos cumplir estas políticas usando tecnología y revisión humana. También proporcionamos mecanismos para que usuarios y no usuarios denuncien infracciones, incluido el contenido y las actividades ilegales, directamente en la aplicación o a través de nuestro sitio web. También usamos tecnología de detección proactiva de daños. Los mecanismos de detección proactiva y los informes activan una revisión, que luego puede aprovechar una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas apropiadas de acuerdo con nuestras políticas. 

Presentamos a continuación más información sobre nuestra moderación de contenidos en el primer semestre de 2025.

a) Notificaciones enviadas en conformidad con el Artículo 16 de la DSA 
(Artículo 15.1(b) de la DSA)

De acuerdo con el Artículo 16 de la DSA, Snap ha instituido mecanismos que permiten a los usuarios y no usuarios notificar a Snap sobre la presencia en Snapchat de elementos específicos de información que consideran contenido ilegal. Pueden hacerlo denunciando cuentas o contenidos específicos, ya sea directamente en la aplicación de Snapchat o en nuestro sitio web. 

Al enviar notificaciones desde la aplicación o a través de nuestro sitio web, los denunciantes pueden seleccionar un motivo de denuncia específico en un menú de opciones que refleje las categorías de las infracciones enumeradas en nuestros Lineamientos de la comunidad (por ejemplo, discurso de odio, sustancias prohibidas). Nuestros Lineamientos de la comunidad, que se basan en nuestros valores, generalmente abarcan categorías de contenido y actividades que son ilegales en la UE, por lo que nuestras opciones de denuncia en algunos casos incluyen categorías de contenido ilegal en la UE. Sin embargo, en la medida en que un denunciante en la UE crea que la cuenta o el contenido que denuncia son ilegales por razones no mencionadas específicamente en nuestro menú de denuncias, puede denunciarlo como "otro contenido ilegal", y tendrá la oportunidad de explicar por qué cree que lo que denuncia es ilegal. 

Durante el período de informe (primer semestre de 2025), recibimos las siguientes notificaciones de usuarios que creemos que están en la UE:

A continuación, proporcionamos un desglose que refleja cómo se procesaron estas notificaciones, es decir, a través de un proceso que incluye revisión humana o únicamente a través de medios automatizados: 

Si, tras la revisión, determinamos que la cuenta o el contenido reportados infringen nuestros Lineamientos de la comunidad (incluso por razones de ilegalidad), podemos: (i) eliminar el contenido objetable; (ii) advertir al titular de la cuenta correspondiente y aplicar una advertencia a la cuenta; o (iii) bloquear la cuenta correspondiente, como se explica con más detalle en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat

En el primer semestre de 2025, tomamos las siguientes medidas de cumplimiento al recibir notificaciones presentadas por usuarios que creemos que están en la UE:

Nota: El total de notificaciones enviadas, desglosadas por tipo de incumplimiento en el gráfico anterior, no incluye todas las denuncias hechas a través de nuestro Sitio de Soporte. El Sitio de Soporte informa que los reportantes de la UE representan aproximadamente el 0,4 % del volumen total de notificación de la UE. Tenemos la intención de incluir esos informes del Sitio de Soporte en nuestros cálculos en el futuro. 

En el primer semestre de 2025, todas las denuncias por "otro contenido ilegal" que accionamos recibieron finalmente medidas de cumplimiento en virtud de nuestros Lineamientos de la comunidad, porque nuestros Lineamientos de la comunidad prohibían el contenido o la actividad relevante. Por lo tanto, categorizamos estas medidas de cumplimiento en la categoría correspondiente de infracción a los Lineamientos de la comunidad en la tabla anterior.

Además de las medidas de cumplimiento anteriores, podemos tomar medidas sobre el contenido que se nos notifica en conformidad con otras políticas y lineamientos de Snap aplicables: 

  • Con respecto al contenido en nuestras superficies de difusión pública, si determinamos que el contenido denunciado no cumple con los criterios de nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, podemos rechazar el contenido para su recomendación algorítmica o podemos limitar la distribución del contenido para excluir a ciertas audiencias (si el contenido cumple con nuestros requisitos de elegibilidad para recomendación, pero es sensible o sugestivo). 

En el primer semestre de 2025, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión pública de Snapchat que se nos reportó en la UE, de acuerdo con nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones:

  • Si determinamos que una publicidad denunciada infringe nuestras Políticas publicitarias, podemos eliminarla tras la revisión. 

En el primer semestre de 2025, tomamos las siguientes medidas con respecto a los anuncios que se nos reportaron por parte de usuarios que creemos que están en la UE:


b) Moderación de contenido realizada por iniciativa propia de Snap 
(Artículo 15.1(c))

Además de revisar las notificaciones enviadas según el artículo 16 de la DSA, Snap también modera los contenidos por su propia iniciativa. A continuación proporcionamos información sobre la moderación de contenido realizada por iniciativa propia de Snap, incluido el uso de herramientas automatizadas, las medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido y el número y los tipos de restricciones impuestas como resultado de esos esfuerzos proactivos de moderación de contenido.

  • Uso de herramientas automatizadas en la moderación por propia iniciativa de Snap

Implementamos herramientas automatizadas para identificar de manera proactiva y, en ciertos casos, aplicar medidas contra las infracciones de nuestros términos y políticas. Estas herramientas incluyen herramientas de coincidencia de hash (incluyendo PhotoDNA y Google CSAI Match), Google Content Safety API, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), otra tecnología personalizada diseñada para detectar texto y emojis abusivos, y tecnologías que aprovechan la inteligencia artificial, incluido el aprendizaje automático y modelos de lenguaje grande. Nuestras herramientas automatizadas están diseñadas para detectar infracciones a nuestros Lineamientos de la comunidad y, cuando corresponda, a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones y a las Políticas publicitarias. 

En el primer semestre de 2025, toda nuestra detección proactiva se llevó a cabo usando herramientas automatizadas. (En algunos casos, nuestro equipo de Confianza y Seguridad detectó manualmente contenido que era ilegal o que infringía las políticas de Snap, el cual posteriormente fue investigado y al cual se le aplicaron las políticas de Snap o las leyes relevantes). Cuando nuestras herramientas automatizadas detectan un posible incumplimiento a nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana. A continuación se describen el número y los tipos de restricciones impuestas como resultado de este proceso. 

  • Número y tipos de restricciones impuestas por iniciativa propia de Snap

En el primer semestre de 2025, Snap tomó las siguientes medidas de cumplimiento tras detectar proactivamente infracciones a nuestros Lineamientos de la comunidad:

Además, en el primer semestre de 2025, en lo que respecta al contenido en nuestras superficies de difusión pública, tomamos las siguientes medidas después de detectar proactivamente infracciones a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones a través del uso de herramientas automatizadas:

* Como se estableció en nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, las cuentas que infrinjan reiteradamente o de forma notoria nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones podrían ser descalificadas de forma temporal o permanente para las recomendaciones en nuestras superficies de difusión pública. Aplicamos esta medida en el contexto de nuestros esfuerzos de moderación proactivos.

Además, en el primer semestre de 2025, tomamos las siguientes medidas tras detectar proactivamente infracciones a nuestras Políticas publicitarias a través del uso de herramientas automatizadas:

  • Medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido

Nuestros equipos de moderación de contenido aplican nuestras políticas de moderación de contenido para ayudar a proteger a la comunidad de Snapchat. La capacitación se lleva a cabo durante un periodo de varias semanas, en el cual los nuevos miembros del equipo reciben formación sobre las políticas, herramientas y procedimientos de escalamiento de Snap. Nuestros equipos de moderación participan regularmente en cursos de actualización relevantes para sus flujos de trabajo, particularmente cuando nos encontramos con casos límite en relación con las políticas y dependientes del contexto. También ejecutamos programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén actualizados y cumplan con todas las políticas vigentes. Por último, cuando surgen tendencias de contenido urgentes en función de la actualidad, difundimos rápidamente aclaraciones de políticas para que los equipos puedan responder de acuerdo con las políticas de Snap.

Proporcionamos a nuestros equipos de moderación de contenido un apoyo y recursos significativos, incluido apoyo para el bienestar en el trabajo y un fácil acceso a servicios de salud mental. 

c) Quejas recibidas a través de los sistemas internos de manejo de quejas (por ej. apelaciones) de Snap 
(Artículo 15.1(d))

Los usuarios cuyas cuentas hayan sido bloqueadas por nuestros equipos de seguridad por infracciones a los Lineamientos de la comunidad (incluido el contenido y las actividades ilegales) pueden presentar una apelación por cuenta bloqueada. Los usuarios también pueden apelar ciertas decisiones de moderación de contenido.

Durante el período de informe (primer semestre de 2025), Snap procesó las siguientes apelaciones (incluidas apelaciones por bloqueo de cuenta y por decisiones de moderación a nivel de contenido) presentadas a través de sus sistemas internos de gestión de quejas por parte de usuarios que creemos que están en la UE:

d) Uso de medios automatizados con el fin de moderar el contenido 
(Artículos 15.1(e) y 42.2(c))

  • Descripción cualitativa y propósitos

Como se explicó anteriormente en la Sección 3(b), implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, aplicar medidas de cumplimiento a las infracciones de nuestros términos y políticas. Estas herramientas incluyen herramientas de coincidencia de hash (incluyendo PhotoDNA y Google CSAI Match), Google Content Safety API, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), otra tecnología personalizada diseñada para detectar texto y emojis abusivos, y tecnologías que aprovechan la inteligencia artificial, incluido el aprendizaje automático y modelos de lenguaje grande. Nuestras herramientas automatizadas están diseñadas para detectar infracciones a nuestros Lineamientos de la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones y las políticas publicitarias.

Cuando nuestras herramientas automatizadas detectan un posible incumplimiento a nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana. 

 

  • Indicadores de precisión y posible tasa de error, desglosados por Estado miembro

Monitoreamos los indicadores de precisión y la posible tasa de error de nuestras herramientas automatizadas de moderación seleccionando muestras aleatorias de tareas procesadas por nuestras herramientas automatizadas y enviándolas para que nuestros equipos de moderación humana las revisen nuevamente. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias ya decisión de moderación ha sido confirmada como correcta tras la nueva revisión por parte de moderadores humanos. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada como se describió anteriormente. 

Monitoreamos la precisión y la posible tasa de error para dos categorías amplias de herramientas automatizadas de moderación, a saber: 

  • Herramientas automatizadas que detectan o actúan contra infracciones a nuestros Lineamientos de la comunidad, y que pueden llevar a medidas de cumplimiento en contra de la cuenta de un usuario (por ejemplo, la aplicación de advertencias a la cuenta o el bloqueo de esta). En función del muestreo, en el primer semestre de 2025, la tasa de precisión de estas herramientas automatizadas fue de aproximadamente el 96 %, y la tasa de error fue de aproximadamente el 4 %. 

  • Herramientas automatizadas que detectan o toman medidas sobre el contenido en nuestras superficies de difusión pública sobre la base de nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones. En función del muestreo, en el primer semestre de 2025, la tasa de precisión de estas herramientas automatizadas fue de aproximadamente el 88 %, y la tasa de error fue de aproximadamente el 12 %.

Sobre la base del muestreo, en el primer semestre de 2025, la tasa de precisión combinada de las herramientas automatizadas utilizadas en las dos categorías descritas anteriormente fue de aproximadamente el 90 %, y la tasa de error fue de aproximadamente el 10 %. 

Por lo general, no hacemos un seguimiento del idioma del contenido que moderamos en Snapchat; por lo tanto, no podemos proporcionar un desglose de las tasas de precisión y error para nuestras herramientas automatizadas de moderación para el idioma oficial de cada Estado miembro. A los efectos de representar esta información, proporcionamos a continuación un desglose de nuestras tasas combinadas de precisión y error en relación con el contenido moderado automáticamente (que abarca tanto nuestros Lineamientos de la comunidad como nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones) según creemos que se origina en cada Estado miembro.

  • Protecciones

Somos conscientes del posible impacto que las herramientas automatizadas de moderación pueden tener en los derechos fundamentales, por lo que implementamos medidas de protección para minimizar ese impacto.

Nuestras herramientas automatizadas de moderación de contenido se prueban antes de ser implementadas. Los modelos se prueban fuera de línea para determinar su desempeño y se implementan a través de pruebas A/B para garantizar su funcionamiento adecuado antes de que entren completamente en producción. Realizamos revisiones de control de calidad (QA) previas al lanzamiento, revisiones de lanzamiento y revisiones de QA de precisión continuas durante los lanzamientos graduales). 

Después del lanzamiento de nuestras herramientas automatizadas, evaluamos su desempeño y precisión de forma continua, y hacemos los ajustes necesarios. Este proceso implica una nueva revisión de muestras de tareas automatizadas por parte de nuestros moderadores humanos para identificar modelos que requieren ajustes con el fin de mejorar la precisión. También monitoreamos la prevalencia de daños específicos en Snapchat a través de un muestreo diario aleatorio de contenido público, y aprovechamos esta información para identificar áreas de mejora. 

Nuestras políticas y sistemas promueven una aplicación coherente y justa de las regulaciones, inclusive por parte de nuestras herramientas automatizadas, y ofrecemos a los Snapchatters la oportunidad de disputar de manera significativa los resultados de la aplicación de las regulaciones a través de procesos de notificación y apelación que tienen como objetivo proteger los intereses de nuestra comunidad y a la vez proteger los derechos individuales de cada Snapchatter.

Nos esforzamos por mejorar continuamente nuestras herramientas automatizadas de moderación de contenido para mejorar su precisión y respaldar la aplicación constante y justa de nuestras políticas.

e) Controversias presentadas a órganos extrajudiciales de resolución de controversias según el Artículo 21
(Artículo 24.1(a))

Para el período de informe (primer semestre de 2025), proporcionamos la siguiente información sobre las disputas presentadas contra Snap a los organismos de resolución extrajudicial de disputas a los que se refiere el Artículo 21 de la DSA: 

La tabla anterior refleja el estado, al 30 de junio de 2025, de las disputas presentadas ante organismos certificados de resolución extrajudicial de disputas en virtud del Artículo 21 de la DSA durante el período de informe (primer semestre de 2025). Para todas las métricas, incluimos los casos recibidos por Snap, incluso si faltaba información (ya sea total o parcialmente) que Snap solicitó en su momento y no recibió sino hasta una fecha posterior. Con respecto a las disputas en las que se emitió una decisión, únicamente incluimos decisiones que se recibieron durante el período de informe. Del mismo modo, de las 3 decisiones a favor del reclamante, 2 están actualmente pendientes de apelación. Se presentó una apelación exitosa en 1 caso; sin embargo, dado que la decisión revisada a favor de Snap se emitió fuera del período de informe relevante, este caso continúa reportándose como una decisión a favor del reclamante.


La mediana de tiempo necesario para completar los procedimientos de resolución de disputas se ha calculado a partir de la fecha en que Snap recibe la queja hasta la fecha en que recibe la decisión del organismo de ODS.


Ten en cuenta que la tabla anterior no incluye las quejas que se presentaron a un organismo certificado del Artículo 21, pero que el organismo relevante consideró inadmisibles antes de transmitirlas a Snap. No podemos confirmar el número de disputas que corresponden a esta categoría porque únicamente algunos organismos certificados notifican a Snap sobre este tipo de disputa, pero no todos. Sin embargo, sabemos de 28 quejas del primer semestre de 2025 que corresponden a esta categoría.

f) Suspensiones impuestas en virtud del Artículo 23
(Artículo 24.1(b))
  • Suspensiones de conformidad con el Artículo 23.1: suspensión de cuentas que con frecuencia proporcionan contenido manifiestamente ilegal 

Como se explicó en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat, las cuentas que determinamos que se usan principalmente para infringir nuestros Lineamientos de la comunidad (incluso a través de la disposición de contenido manifiestamente ilegal) y las cuentas que causan daños graves se desactivan inmediatamente. Para otras infracciones de nuestros lineamientos de la comunidad, Snap generalmente tiene un proceso de aplicación de las normas que consta de tres pasos:

  • Paso uno: se elimina el contenido infractor.

  • Paso dos: el usuario recibe una notificación en la que se indica que infringió nuestros Lineamientos de la comunidad, que se eliminó su contenido y que, si continúa cometiendo infracciones, se tomarán medidas adicionales, como la desactivación de su cuenta.

  • Paso tres: nuestro equipo registra una advertencia contra la cuenta del usuario.

Encontrarás más arriba, la información sobre el número de faltas (es decir, advertencias) y bloqueos impuestos en el primer semestre de 2024 en cuentas de la UE en las secciones 3(a) y 3(b).

  • Suspensiones de conformidad con el Artículo 23.2: suspensión sobre el procesamiento de notificaciones y quejas de individuos, entidades y denunciantes que con frecuencia presentan notificaciones o quejas que son manifiestamente infundadas

Aplicando nuestra definición interna de notificaciones y quejas "manifiestamente infundadas", además de nuestros umbrales internos para lo que consideramos la presentación frecuente de dichas notificaciones y quejas, el número de suspensiones en el procesamiento de notificaciones y quejas impuestas en el primer semestre de 2025 de conformidad con el Artículo 23.2 de la DSA es el siguiente:

4. Información sobre nuestros equipos de moderación de contenido 
a) Recursos humanos dedicados a la moderación de contenido, incluido el cumplimiento de los Artículos 16, 20 y 22 de la DSA, desglosados por los idiomas oficiales de los Estados miembro
(Artículo 42.2(a))


Nuestros equipos de moderación de contenidos operan en todo el mundo, 24 horas, todos los días, lo que nos permite contribuir con la seguridad de nuestra comunidad. A continuación se muestra el desglose de nuestros recursos humanos de moderación por especialidad lingüística principal de los moderadores (ten en cuenta que algunos moderadores se especializan en varios idiomas, pero los moderadores multilingües solo se cuentan una vez) al 30 de junio de 2025:

La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenido que admiten los idiomas oficiales de los Estados miembros de la UE al 30 de junio de 2025. En situaciones en las que necesitamos soporte lingüístico adicional, utilizamos servicios de traducción.

b) Calificaciones y experiencia lingüística de los moderadores de contenido; capacitación y apoyo proporcionados
(Artículo 42.2(b))

Los moderadores se contratan utilizando una descripción de trabajo estándar que incluye un requisito de idioma (según la necesidad). El requisito de idioma establece que el candidato debe poder demostrar fluidez escrita y hablada en el idioma. Además, para los puestos de nivel de entrada, se requiere que el candidato tenga al menos un año de experiencia laboral. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o la región en la que van a moderar los contenidos. 


Consulta la información anterior sobre la capacitación y el apoyo que Snap proporciona a los moderadores de contenido, lo que se requiere por separado en virtud del Artículo 15(1)(c) de la DSA y, por lo tanto, se incluye en la Sección 3(b), en la subsección final titulada: "Medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido".

Informe de escaneo de medios de explotación y abuso sexual infantil (CSEA)

Publicado: 31 de enero de 2025

Última actualización: 31 de enero de 2025

Este informe cubre el período comprendido entre el 1 de enero de 2024 y el 31 de diciembre de 2024.

Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar el abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.


Las tecnologías que utilizamos incluyen (a) la coincidencia de hash robusta de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente; y (b) la API de seguridad de contenido de Google para identificar imágenes nuevas y "nunca antes analizadas con hash" de CSEA. Denunciamos imágenes de CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. El NCMEC, a su vez, se coordina con las fuerzas de seguridad de los Estados Unidos y otros países, según sea necesario.


Informe

La siguiente tabla incluye datos sobre la detección proactiva y las medidas resultantes contra los usuarios de la UE por imágenes de CSEA durante 2024. (Se debe tener en cuenta que algunas medidas de cumplimiento desprendidas de dicho análisis proactivo en 2024 aún se pueden apelar en el momento en que se compiló este informe y, por lo tanto, no se reflejarían en los datos de apelaciones y restablecimientos a continuación).

*Esta categoría informa sobre las medidas por infracciones a los lineamientos de la comunidad de Snap que prohíben la explotación sexual infantil.  No se informa aquí del contenido detectado proactivamente que se aplica por otras infracciones de los lineamientos de la comunidad de Snap.

**Una aplicación de medidas puede anularse si determinamos que era errónea en función de nuestras políticas vigentes en el momento de la aplicación, o si determinamos que se aplicó correctamente al principio, pero nuestra política aplicable ha cambiado en el momento de revisar la apelación.

Salvaguardas de moderación de contenido

Las salvaguardas aplicadas para el Escaneo de Medios de CSEA se establecen anteriormente en el informe de transparencia de la DSA de la UE.

Informe de transparencia en línea sobre contenido terrorista de la Unión Europea

Publicado: 28 de febrero de 2025

Última actualización: 28 de febrero de 2025

Período de informe: del 1 de julio de 2024 al 31 de diciembre de 2024

Este Informe de transparencia se publica de conformidad con los Artículos 7(2) y 7(3) del Reglamento 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenido terrorista en línea (el Reglamento). Cubre el período de informe del 1 de enero al 31 de diciembre de 2024

Información general
  • Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de alojamiento en relación con la identificación y la eliminación o la desactivación del acceso al contenido terrorista

  • Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de alojamiento para abordar la reaparición en línea de material que se haya eliminado o cuyo acceso se haya desactivado previamente por haber sido considerado contenido terrorista, en particular cuando se hayan usado herramientas automatizadas


Snapchat experimenta una incidencia muy baja de contenido terrorista, y no recibió una orden de remoción en virtud del Reglamento en 2024.

Se prohíbe a los terroristas, las organizaciones terroristas y los extremistas violentos usar Snapchat. El contenido que propugne, promueva, glorifique o fomente el terrorismo u otros actos violentos y delictivos está prohibido por nuestros Lineamientos de la comunidad. Los usuarios pueden denunciar el contenido que infringe nuestros Lineamientos de la comunidad a través de nuestro menú de denuncias en la aplicación y en nuestro Sitio de soporte. También usamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubre. 


Independientemente de cómo podamos darnos cuenta de que existe contenido en infracción, nuestros equipos de seguridad, a través de una combinación de automatización y moderación humana, revisan rápidamente el contenido identificado y toman decisiones relacionadas con el cumplimiento. Las medidas de cumplimiento pueden incluir eliminar el contenido, enviar una advertencia o bloquear la cuenta en infracción, y si se justifica, denunciar la cuenta a las autoridades. Para prevenir la reaparición de contenido terrorista o de otro tipo de contenido extremista violento en Snapchat, además de trabajar con las autoridades, tomamos medidas para bloquear el dispositivo asociado con la cuenta infractora y evitar que el usuario cree otra cuenta de Snapchat. 


Puedes encontrar más detalles sobre nuestras medidas para identificar y eliminar contenido terrorista en nuestro Explicativo sobre contenido de odio, terrorismo y extremismo violento y en nuestro Explicativo sobre moderación, cumplimiento y apelaciones.



Denuncias y cumplimiento 
  • Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o cuyo acceso se haya desactivado después de órdenes de eliminación o de medidas específicas, y el número de órdenes de eliminación en las cuales el contenido no se haya eliminado o cuyo acceso no se haya desactivado de conformidad con el primer párrafo del Artículo 3(7) y el primer párrafo del Artículo 3(8), junto con los fundamentos


Durante el período de informes, Snap no recibió ninguna orden de eliminación, ni se nos exigió que implementáramos ninguna medida específica de conformidad con el Artículo 5 del Reglamento. En consecuencia, no se nos exigió que tomáramos medidas de cumplimiento en virtud del Reglamento.

La siguiente tabla describe las medidas de cumplimiento adoptadas en función de las denuncias de los usuarios y la detección proactiva contra el contenido y las cuentas que infringieron nuestros Lineamientos de la comunidad relacionados con el contenido de terrorismo y extremismo violento, tanto en la UE como en otras partes del mundo.

Apelaciones relacionadas con el cumplimiento
  • Artículo 7(3)(d): el número y el resultado de las quejas manejadas por el proveedor de servicios de alojamiento de acuerdo con el Artículo 10

  • Artículo 7(3)(g): el número de casos en los cuales el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo después de una queja del proveedor de contenidos

Como no se nos requirieron medidas de cumplimiento en virtud del Reglamento durante el período de informe, como se señaló anteriormente, no manejamos quejas de conformidad con el Artículo 10 del Reglamento y no tuvimos restablecimientos asociados.

La siguiente tabla contiene información relacionada con apelaciones y restablecimientos, tanto en la UE como en otros lugares del mundo, que involucran contenido de terrorismo y extremismo violento, y que hemos aplicado en virtud de nuestros Lineamientos de la comunidad.

Procedimientos judiciales & apelaciones
  • Artículo 7(3)(e): el número y el resultado de los procedimientos de revisión administrativa o judicial interpuestos por el proveedor de servicios de alojamiento

  • Artículo 7(3)(f): el número de casos en los cuales se requirió al proveedor de servicios de alojamiento que restableciera el contenido o el acceso al mismo como consecuencia de procedimientos de revisión administrativa o judicial

Como no se requirieron medidas de cumplimiento en virtud del Reglamento durante el período de informe, como se señaló anteriormente, no tuvimos procedimientos de revisión administrativa o judicial asociados, y no se nos exigió restablecer el contenido como resultado de dichos procedimientos.

Evaluación de riesgo de DSA

Este informe se ha preparado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y proporciona los resultados de nuestra evaluación de los riesgos del sistema derivados del diseño, la función y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación establecidas para abordar esos riesgos.


Informe de evaluación de riesgos y mitigación de DSA | Snapchat | Agosto de 2023 (PDF)


Auditoría e implementación de auditoría de DSA

Estos informes se han preparado para cumplir con las obligaciones de Snap en virtud del artículo 37 del Reglamento (UE) 2022/2065 y proporcionar: (i) los resultados de la auditoría independiente del cumplimiento de Snap con las obligaciones establecidas en el capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas adoptadas para implementar las recomendaciones operativas de esa auditoría independiente.

Informe de auditoría independiente de DSA | Snapchat | Agosto de 2024 (PDF)

Informe de implementación de auditoría de DSA | Snapchat | Septiembre de 2024 (PDF)



Código de prácticas VSP de la UE

Snap es un proveedor de "servicio de plataforma para compartir videos" ("VSP") de conformidad con el artículo 1(1)(aa) AVMSD. Este Código de conducta ("Código") se ha preparado para describir cómo Snap cumple con sus obligaciones como VSP en virtud de la Ley de medios holandeses ("DMA") y la Directiva (UE) 2010/13 (modificada por la Directiva (UE) 2018/1808 (la "Directiva de servicios de medios audiovisuales" o "AVMSD")). El Código es aplicable en toda la Unión Europea, así como en el Espacio Económico Europeo.

Código de conducta VSP de la UE | Snapchat | Marzo de 2025 (PDF)

Alemán | Búlgaro | Checo | Croata | Danés | Neerlandés | Eslovaco | Esloveno | Estonio | Finés | Francés | Griego | Húngaro | Irlandés | Italiano | Letón | Lituano | Maltés | Polaco | Portugués | Rumano | Sueco | Español