Te damos la bienvenida a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE exigida por la Ley de Servicios Digitales (DSA por sus siglas en inglés), la Directiva de Servicios de Comunicación Audiovisual (AVMSD), la Ley de Medios de los Países Bajos (DMA) y el Reglamento de Contenido Terrorista en Línea (TCO). Nota: La versión más actualizada de estos Informes de transparencia se encuentra en la localización en-US.
Snap Group Limited ha designado a Snap B.V. como su Representante Legal para lo relativo a la DSA. Puedes comunicarte con el representante en dsa-enquiries [@] snapchat.com para la DSA, en vsp-enquiries [@] snapchat.com para la AVMSD y la DMA, a tco-enquiries [@] snapchat.com para la TCO, a través de nuestro Sitio de soporte [aquí], o en:
Snap B.V.
Keizersgracht 165, 1016 DP
Ámsterdam, Países Bajos
Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí.
Comunícate en inglés u holandés cuando te pongas en contacto con nosotros.
En el caso de la DSA, nos rige la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). En el caso de la AVMSD y la DMA, nos rige la Autoridad de Medios de Comunicación de los Países Bajos (CvdM). En el caso del TCO, nos rige la Autoridad de los Países Bajos para la prevención de contenido terrorista en línea y material de abuso sexual infantil (ATKM).
Publicado: 28 de febrero de 2025
Última actualización: 23 de abril de 2025 (versión 2.0)
Período de informe: del 1 de julio de 2024 al 31 de diciembre de 2024
Publicamos este informe en conformidad con los requisitos de transparencia para informes según los artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento [UE] 2022/2065) ("DSA"). A menos que se indique lo contrario, la información contenida en este informe es para el período de informe del 1 de julio de 2024 al 31 de diciembre de 2024 (segundo semestre de 2024).
Al 1 de enero de 2025, tenemos un promedio de 93.7 millones de destinatarios activos mensuales ("AMAR" por sus siglas en inglés) en nuestra app de Snapchat en la UE. Esto significa que, en el período de los últimos 6 meses, finalizado el 31 de diciembre de 2024, un promedio de 93.7 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez en un mes determinado.
Esta cifra se desglosa por Estado miembro del siguiente modo:
Estas cifras se calcularon para cumplir los requisitos actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, hemos ajustado la forma en que calculamos esta cifra debido a cambios en la política interna, las orientaciones de los reguladores y la tecnología, y las cifras no deben compararse entre periodos. También es posible que difiera de los cálculos empleados para otras cifras de usuarios activos que compartimos con diferentes propósitos.
Durante este período de informe (segundo semestre de 2024), recibimos cero (0) órdenes de actuar contra contenido ilegal identificado específicamente por parte de las autoridades de los Estados miembros de la UE, incluidas las emitidas de acuerdo con el Artículo 9 de la DSA.
Como este número es cero (0), no podemos proporcionar un desglose por el tipo de contenido ilegal en cuestión o por el Estado miembro que emite la orden, ni por la mediana de tiempo para cumplir con las órdenes.
Durante este período de informe (segundo semestre de 2024), recibimos las siguientes órdenes de divulgar datos de los usuarios por parte de autoridades de los Estados miembro de la UE, incluidas las emitidas de acuerdo con el Artículo 10 de la DSA:
La mediana de tiempo para informar a las autoridades pertinentes sobre la recepción de estas órdenes de proporcionar información fue de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción.
La mediana de tiempo para cumplir con estas órdenes de proporcionar información fue de ~12 días. Esta métrica refleja el período de tiempo desde que Snap recibió una orden hasta que Snap consideró que el asunto se había resuelto completamente, lo que en casos individuales puede depender en parte de la velocidad con la cual la autoridad del Estado miembro correspondiente responda a cualquier solicitud de aclaración de Snap necesaria para procesar la orden.
Ten en cuenta que no proporcionamos un desglose de las órdenes anteriores de proporcionar información categorizadas por el tipo de contenido ilegal en cuestión porque generalmente no disponemos de esta información.
Todo el contenido de Snapchat debe cumplir con nuestros Lineamientos de la comunidad y los Términos y condiciones de servicio. Cierto contenido también debe cumplir con lineamientos y políticas adicionales. Por ejemplo, el contenido enviado para recomendación algorítmica a un público más amplio en nuestras superficies de transmisión pública debe cumplir con los estándares adicionales y más altos estipulados en nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, mientras que los anuncios deben cumplir con nuestras Políticas publicitarias.
Hacemos cumplir estas políticas usando tecnología y revisión humana. También proporcionamos mecanismos para que usuarios y no usuarios denuncien infracciones, incluido el contenido y las actividades ilegales, directamente en la aplicación o a través de nuestro sitio web. También usamos tecnología de detección proactiva de daños. Las denuncias y los mecanismos de detección proactivos activan una revisión, que luego aprovecha una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas adecuadas de acuerdo con nuestras políticas.
Presentamos a continuación más información sobre nuestra moderación de contenidos en el segundo semestre de 2024.
De acuerdo con el Artículo 16 de la DSA, Snap ha instituido mecanismos que permiten a los usuarios y no usuarios notificar a Snap sobre la presencia en Snapchat de elementos específicos de información que consideran contenido ilegal. Pueden hacerlo denunciando cuentas o contenidos específicos, ya sea directamente en la aplicación de Snapchat o en nuestro sitio web.
Al enviar notificaciones desde la aplicación o a través de nuestro sitio web, los denunciantes pueden seleccionar un motivo de denuncia específico en un menú de opciones que refleje las categorías de las infracciones enumeradas en nuestros Lineamientos de la comunidad (por ejemplo, discurso de odio, sustancias prohibidas). Nuestros Lineamientos de la comunidad prohíben el contenido y las actividades que son ilegales en la UE, por lo tanto, nuestras razones para denunciar reflejan en gran medida categorías específicas de contenido ilegal en la UE. Sin embargo, en la medida en que un denunciante en la UE crea que la cuenta o el contenido que denuncia son ilegales por razones no mencionadas específicamente en nuestro menú de denuncias, puede denunciarlo como "otro contenido ilegal", y tendrá la oportunidad de explicar por qué cree que lo que denuncia es ilegal.
Durante el período de informe (segundo semestre de 2024), recibimos las siguientes notificaciones enviadas de acuerdo con el Artículo 16 de la DSA en la UE:
A continuación, proporcionamos un desglose que refleja cómo se procesaron estas notificaciones, es decir, a través de un proceso que incluye revisión humana o únicamente a través de medios automatizados:
Si, tras la revisión, determinamos que la cuenta o el contenido denunciados infringen nuestros Lineamientos de la comunidad (incluso por razones de ilegalidad), podemos (i) eliminar el contenido objetable, (ii) advertir al titular de la cuenta correspondiente y aplicar una falta a la cuenta, y/o (iii) bloquear la cuenta correspondiente, como se explica con más detalle en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat.
En el segundo semestre de 2024, aplicamos las siguientes penalizaciones al recibir notificaciones enviadas en conformidad con el artículo 16 de la DSA en la UE:
En el segundo semestre de 2024, todas las denuncias por "otro contenido ilegal" que accionamos recibieron finalmente medidas de cumplimiento en virtud de nuestros Lineamientos de la comunidad, porque nuestros Lineamientos de la comunidad prohibían el contenido o la actividad relevante. Por lo tanto, categorizamos estas medidas de cumplimiento en la categoría correspondiente de infracción a los Lineamientos de la comunidad en la tabla anterior.
Además de las medidas de cumplimiento anteriores, podemos tomar medidas sobre el contenido que se nos notifica en conformidad con otras políticas y lineamientos de Snap aplicables:
Con respecto al contenido en nuestras superficies de difusión pública, si determinamos que el contenido denunciado no cumple con los criterios de nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, podemos rechazar el contenido para su recomendación algorítmica o podemos limitar la distribución del contenido para excluir a ciertas audiencias (si el contenido cumple con nuestros requisitos de elegibilidad para recomendación, pero es sensible o sugestivo).
En el segundo semestre de 2024, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión pública de Snapchat que se nos reportó en la UE, de acuerdo con nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones:
Si determinamos que una publicidad denunciada infringe nuestras Políticas publicitarias, podemos eliminarla tras la revisión.
En el segundo semestre de 2024, tomamos las siguientes medidas con respecto a los anuncios que se nos reportaron en la UE:
Además de revisar las notificaciones enviadas según el artículo 16 de la DSA, Snap también modera los contenidos por su propia iniciativa. A continuación proporcionamos información sobre la moderación de contenido realizada por iniciativa propia de Snap, incluido el uso de herramientas automatizadas, las medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido y el número y los tipos de restricciones impuestas como resultado de esos esfuerzos proactivos de moderación de contenido.
Uso de herramientas automatizadas en la moderación por propia iniciativa de Snap
Implementamos herramientas automatizadas para identificar de manera proactiva y, en ciertos casos, aplicar medidas contra las infracciones de nuestros términos y políticas. Estas herramientas incluyen herramientas de coincidencia de hash (incluyendo PhotoDNA y Google CSAI Match), Google Content Safety API, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), otra tecnología personalizada diseñada para detectar texto y emojis abusivos, y tecnologías que aprovechan la inteligencia artificial, incluido el aprendizaje automático y modelos de lenguaje grande. Nuestras herramientas automatizadas están diseñadas para detectar infracciones a nuestros Lineamientos de la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones y las políticas publicitarias.
En el segundo semestre de 2024, toda nuestra detección proactiva se llevó a cabo usando herramientas automatizadas. Cuando nuestras herramientas automatizadas detectan un posible incumplimiento a nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana. A continuación se describen el número y los tipos de restricciones impuestas como resultado de este proceso.
Número y tipos de restricciones impuestas por iniciativa propia de Snap
En el segundo semestre de 2024, Snap tomó las siguientes medidas de cumplimiento tras detectar proactivamente infracciones a nuestros Lineamientos de la comunidad (incluidas infracciones que equivalían a contenido y actividades ilegales en virtud de las leyes de la UE y de los Estados miembros):
Además, en el segundo semestre de 2024, en lo que respecta al contenido en nuestras superficies de difusión pública, tomamos las siguientes medidas después de haber detectado proactivamente en Snapchat a través del uso de herramientas automatizadas infracciones a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones:
* Como se estableció en nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, las cuentas que infrinjan reiteradamente o de forma notoria nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones podrían ser descalificadas de forma temporal o permanente para las recomendaciones en nuestras superficies de difusión pública. Aplicamos esta medida en el contexto de nuestros esfuerzos de moderación proactivos.
Además, en el segundo semestre de 2024, tomamos las siguientes medidas tras detectar proactivamente en Snapchat, a través del uso de herramientas automatizadas, infracciones a nuestras Políticas publicitarias:
Medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido
Nuestros equipos de moderación de contenido aplican nuestras políticas de moderación de contenido para ayudar a proteger a la comunidad de Snapchat. La capacitación se lleva a cabo durante un periodo de varias semanas, en el cual los nuevos miembros del equipo reciben formación sobre las políticas, herramientas y procedimientos de escalamiento de Snap. Nuestros equipos de moderación participan regularmente en cursos de actualización relevantes para sus flujos de trabajo, particularmente cuando nos encontramos con casos límite en relación con las políticas y dependientes del contexto. También ejecutamos programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén actualizados y cumplan con todas las políticas vigentes. Por último, cuando surgen tendencias de contenido urgentes en función de la actualidad, difundimos rápidamente aclaraciones de políticas para que los equipos puedan responder de acuerdo con las políticas de Snap.
Proporcionamos a nuestros equipos de moderación de contenido un apoyo y recursos significativos, incluido apoyo para el bienestar en el trabajo y un fácil acceso a servicios de salud mental.
Los usuarios cuyas cuentas hayan sido bloqueadas por nuestros equipos de seguridad por infracciones a los Lineamientos de la comunidad (incluido el contenido y las actividades ilegales) pueden presentar una apelación por cuenta bloqueada. Los usuarios también pueden apelar ciertas decisiones de moderación de contenido.
Durante el período de informes (segundo semestre de 2024), Snap procesó las siguientes apelaciones (incluidas apelaciones por bloqueo de cuenta y por decisiones de moderación a nivel de contenido) presentadas a través de sus sistemas internos de gestión de quejas en la UE:
Descripción cualitativa y propósitos
Como se explicó anteriormente en la Sección 3(b), implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, aplicar medidas de cumplimiento a las infracciones de nuestros términos y políticas. Estas herramientas incluyen herramientas de coincidencia de hash (incluyendo PhotoDNA y Google CSAI Match), Google Content Safety API, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos) y tecnologías que aprovechan la inteligencia artificial, el aprendizaje automático y modelos de lenguaje grande. Nuestras herramientas automatizadas están diseñadas para detectar infracciones a nuestros Lineamientos de la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones y las políticas publicitarias.
Cuando nuestras herramientas automatizadas detectan un posible incumplimiento a nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana.
Indicadores de precisión y posible tasa de error, desglosados por Estado miembro
Monitoreamos los indicadores de precisión y la posible tasa de error de nuestras herramientas automatizadas de moderación seleccionando muestras aleatorias de tareas procesadas por nuestras herramientas automatizadas y enviándolas para que nuestros equipos de moderación humana las revisen nuevamente. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias cuya decisión de moderación ha sido confirmada como correcta tras la nueva revisión por parte de moderadores humanos. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada como se describió anteriormente.
Monitoreamos la precisión y la posible tasa de error para dos categorías amplias de herramientas automatizadas de moderación, a saber:
Herramientas automatizadas que detectan o actúan contra infracciones a nuestros Lineamientos de la comunidad, y que pueden llevar a medidas de cumplimiento en contra de la cuenta de un usuario (por ejemplo, la aplicación de advertencias a la cuenta o el bloqueo de esta). Según el muestreo, en el segundo semestre de 2024, la tasa de precisión de estas herramientas automatizadas fue de aproximadamente el 95 %, y la tasa de error fue de aproximadamente el 5 %.
Herramientas automatizadas que detectan o toman medidas sobre el contenido en nuestras superficies de difusión pública sobre la base de nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones. En función del muestreo, en el segundo semestre de 2024, la tasa de precisión de estas herramientas automatizadas fue de aproximadamente el 85 %, y la tasa de error fue de aproximadamente el 15 %.
Sobre la base del muestreo, en el segundo semestre de 2024, la tasa de precisión combinada de las herramientas automatizadas utilizadas en las dos categorías descritas anteriormente fue de aproximadamente el 89 %, y la tasa de error fue de aproximadamente el 11 %.
Por lo general, no hacemos un seguimiento del idioma del contenido que moderamos en Snapchat; por lo tanto, no podemos proporcionar un desglose de las tasas de precisión y error para nuestras herramientas automatizadas de moderación para el idioma oficial de cada Estado miembro. A los efectos de representar esta información, proporcionamos a continuación un desglose de nuestras tasas combinadas de precisión y error en relación con el contenido moderado automáticamente (que abarca tanto nuestros Lineamientos de la comunidad como nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones) que se origina en cada Estado miembro.
Protecciones
Somos conscientes del posible impacto que las herramientas automatizadas de moderación pueden tener en los derechos fundamentales, por lo que implementamos medidas de protección para minimizar ese impacto.
Nuestras herramientas automatizadas de moderación de contenido se prueban antes de ser implementadas. Los modelos se prueban fuera de línea para determinar su desempeño y se implementan a través de pruebas A/B para garantizar su funcionamiento adecuado antes de que entren completamente en producción. Realizamos revisiones de Control de calidad (QA) previas al lanzamiento, revisiones de lanzamiento y revisiones de control de calidad de precisión continuas durante los lanzamientos parciales (graduales).
Después del lanzamiento de nuestras herramientas automatizadas, evaluamos su desempeño y precisión de forma continua, y hacemos los ajustes necesarios. Este proceso implica una nueva revisión de muestras de tareas automatizadas por parte de nuestros moderadores humanos para identificar modelos que requieren ajustes con el fin de mejorar la precisión. También monitoreamos la prevalencia de daños específicos en Snapchat a través de un muestreo diario aleatorio de contenido público, y aprovechamos esta información para identificar áreas de mejora.
Nuestras políticas y sistemas promueven una aplicación coherente y justa de las regulaciones, inclusive por parte de nuestras herramientas automatizadas, y ofrecemos a los Snapchatters la oportunidad de disputar de manera significativa los resultados de la aplicación de las regulaciones a través de procesos de notificación y apelación que tienen como objetivo proteger los intereses de nuestra comunidad y a la vez proteger los derechos individuales de cada Snapchatter.
Nos esforzamos por mejorar continuamente nuestras herramientas automatizadas de moderación de contenido para mejorar su precisión y respaldar la aplicación constante y justa de nuestras políticas.
Para el período de informe (segundo semestre de 2024), proporcionamos la siguiente información sobre las disputas presentadas contra Snap a los organismos de resolución extrajudicial de disputas a los que se refiere el Artículo 21 de la DSA:
La tabla anterior refleja, al 31 de diciembre de 2024, el estado de las disputas presentadas a organismos certificados de resolución extrajudicial de disputas en virtud del Artículo 21 de la DSA durante el período de informe (segundo semestre de 2024). Al 31 de diciembre de 2024, de las 20 disputas presentadas a dichos organismos en el segundo semestre de 2024, 15 estaban pendientes y 5 se habían resuelto antes de que se emitiera una decisión.
Ten en cuenta que la tabla anterior no incluye las quejas que se presentaron a un organismo certificado del Artículo 21, pero que el organismo relevante consideró inadmisibles antes de transmitirlas a Snap. No podemos confirmar el número de disputas que corresponden a esta categoría porque únicamente algunos organismos certificados notifican a Snap sobre este tipo de disputa, pero no todos. Sin embargo, somos conscientes de que hay 6 quejas del segundo semestre de 2024 que corresponden a esta categoría.
Suspensiones en conformidad con el Artículo 23.1: Suspensión de cuentas que con frecuencia proporcionan contenido manifiestamente ilegal
Como se explicó en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat, las cuentas que determinamos que se usan principalmente para infringir nuestros Lineamientos de la comunidad (incluso a través de la disposición de contenido manifiestamente ilegal) y las cuentas que causan daños graves se desactivan inmediatamente. Para otras infracciones de nuestros lineamientos de la comunidad, Snap generalmente tiene un proceso de aplicación de las normas que consta de tres pasos:
Paso uno: Se elimina el contenido infractor.
Paso dos: El usuario recibe una notificación en la que se indica que infringió nuestros Lineamientos de la comunidad, que se eliminó su contenido y que, si continúa cometiendo infracciones, se tomarán medidas adicionales, como la desactivación de su cuenta.
Paso tres: Nuestro equipo registra una advertencia contra la cuenta del usuario.
La información sobre el número de de faltas (es decir, advertencias) y bloqueos impuestos en el segundo semestre de 2024 a cuentas en la UE se puede encontrar en las secciones 3(a) y 3(b) anteriores.
Suspensiones de conformidad con el Artículo 23.2: Suspensión sobre el procesamiento de notificaciones y quejas de individuos, entidades y denunciantes que con frecuencia presentan notificaciones o quejas que son manifiestamente infundadas
Aplicando nuestra definición interna de notificaciones y quejas "manifiestamente infundadas" y nuestros umbrales internos para lo que consideramos la presentación frecuente de dichas notificaciones y quejas, el número de suspensiones en el procesamiento de notificaciones y quejas impuestas en el segundo semestre de 2024, en conformidad con el Artículo 23.2 de la DSA, es el siguiente:
Nuestros equipos de moderación de contenidos operan en todo el mundo, 24 horas, todos los días, lo que nos permite contribuir con la seguridad de nuestra comunidad. A continuación se muestra el desglose de nuestros recursos humanos de moderación según las especialidades lingüísticas de los moderadores al 31 de diciembre del 2024 (ten en cuenta que algunos están especializados en varios idiomas):
La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenido que admiten los idiomas oficiales de los Estados miembros de la UE al 31 de diciembre de 2024. En situaciones en las que necesitamos soporte lingüístico adicional, utilizamos servicios de traducción.
Los moderadores se contratan utilizando una descripción de trabajo estándar que incluye un requisito de idioma (según la necesidad). El requisito de idioma establece que el candidato debe poder demostrar fluidez escrita y hablada en el idioma. Además, para los puestos de nivel de entrada, se requiere que el candidato tenga al menos un año de experiencia laboral. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o la región en la que van a moderar los contenidos.
Consulta la información anterior sobre la capacitación y el apoyo que Snap proporciona a los moderadores de contenido, lo que se requiere por separado en virtud del Artículo 15(1)(c) de la DSA y, por lo tanto, se incluye en la Sección 3(b), en la subsección final titulada: "Medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido"
Publicado: 31 de enero de 2025
Última actualización: 31 de enero de 2025
Este informe cubre el período comprendido entre el 1 de enero de 2024 y el 31 de diciembre de 2024.
Antecedentes
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar el abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.
Las tecnologías que utilizamos incluyen (a) la coincidencia de hash robusta de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente; y (b) la API de seguridad de contenido de Google para identificar imágenes nuevas y "nunca antes analizadas con hash" de CSEA. Denunciamos imágenes de CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. El NCMEC, a su vez, se coordina con las fuerzas de seguridad de los Estados Unidos y otros países, según sea necesario.
Informe
La siguiente tabla incluye datos sobre la detección proactiva y las medidas resultantes contra los usuarios de la UE por imágenes de CSEA durante 2024. (Se debe tener en cuenta que algunas medidas de cumplimiento desprendidas de dicho análisis proactivo en 2024 aún se pueden apelar en el momento en que se compiló este informe y, por lo tanto, no se reflejarían en los datos de apelaciones y restablecimientos a continuación).
*Esta categoría informa sobre las medidas por infracciones a los lineamientos de la comunidad de Snap que prohíben la explotación sexual infantil. No se informa aquí del contenido detectado proactivamente que se aplica por otras infracciones de los lineamientos de la comunidad de Snap.
**Una aplicación de medidas puede anularse si determinamos que era errónea en función de nuestras políticas vigentes en el momento de la aplicación, o si determinamos que se aplicó correctamente al principio, pero nuestra política aplicable ha cambiado en el momento de revisar la apelación.
Salvaguardas de moderación de contenido
Las salvaguardas aplicadas para el Escaneo de Medios de CSEA se establecen anteriormente en el informe de transparencia de la DSA de la UE.
Publicado: 28 de febrero de 2025
Última actualización: 28 de febrero de 2025
Período de informe: del 1 de julio de 2024 al 31 de diciembre de 2024
Este Informe de transparencia se publica de conformidad con los Artículos 7(2) y 7(3) del Reglamento 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenido terrorista en línea (el Reglamento). Cubre el período de informe del 1 de enero al 31 de diciembre de 2024.
Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de alojamiento en relación con la identificación y la eliminación o la desactivación del acceso al contenido terrorista
Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de alojamiento para abordar la reaparición en línea de material que se haya eliminado o cuyo acceso se haya desactivado previamente por haber sido considerado contenido terrorista, en particular cuando se hayan usado herramientas automatizadas
Snapchat experimenta una incidencia muy baja de contenido terrorista, y no recibió una orden de remoción en virtud del Reglamento en 2024.
Se prohíbe a los terroristas, las organizaciones terroristas y los extremistas violentos usar Snapchat. El contenido que propugne, promueva, glorifique o fomente el terrorismo u otros actos violentos y delictivos está prohibido por nuestros Lineamientos de la comunidad. Los usuarios pueden denunciar el contenido que infringe nuestros Lineamientos de la comunidad a través de nuestro menú de denuncias en la aplicación y en nuestro Sitio de soporte. También usamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubre.
Independientemente de cómo podamos darnos cuenta de que existe contenido infractor, nuestros equipos de seguridad, a través de una combinación de automatización y moderación humana, revisan rápidamente el contenido identificado y toman decisiones relacionadas con el cumplimiento. Las medidas de cumplimiento pueden incluir eliminar el contenido, enviar una advertencia o bloquear la cuenta infractora, y si se justifica, denunciar la cuenta a las autoridades. Para prevenir la reaparición de contenido terrorista o de otro tipo de contenido extremista violento en Snapchat, además de trabajar con las autoridades, tomamos medidas para bloquear el dispositivo asociado con la cuenta infractora y evitar que el usuario cree otra cuenta de Snapchat.
Puedes encontrar más detalles sobre nuestras medidas para identificar y eliminar contenido terrorista en nuestro Explicativo sobre contenido de odio, terrorismo y extremismo violento y en nuestro Explicativo sobre moderación, cumplimiento y apelaciones.
Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o cuyo acceso se haya desactivado después de órdenes de eliminación o de medidas específicas, y el número de órdenes de eliminación en las cuales el contenido no se haya eliminado o cuyo acceso no se haya desactivado de conformidad con el primer párrafo del Artículo 3(7) y el primer párrafo del Artículo 3(8), junto con los fundamentos
Durante el período de informes, Snap no recibió ninguna orden de eliminación, ni se nos exigió que implementáramos ninguna medida específica de conformidad con el Artículo 5 del Reglamento. En consecuencia, no se nos exigió que tomáramos medidas de cumplimiento en virtud del Reglamento.
La siguiente tabla describe las medidas de cumplimiento adoptadas en función de las denuncias de los usuarios y la detección proactiva contra el contenido y las cuentas que infringieron nuestros Lineamientos de la comunidad relacionados con el contenido de terrorismo y extremismo violento, tanto en la UE como en otras partes del mundo.
Artículo 7(3)(d): el número y el resultado de las quejas manejadas por el proveedor de servicios de alojamiento de acuerdo con el Artículo 10
Artículo 7(3)(g): el número de casos en los cuales el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo después de una queja del proveedor de contenidos
Como no se nos requirieron medidas de cumplimiento en virtud del Reglamento durante el período de informe, como se señaló anteriormente, no manejamos quejas de conformidad con el Artículo 10 del Reglamento y no tuvimos restablecimientos asociados.
La siguiente tabla contiene información relacionada con apelaciones y restablecimientos, tanto en la UE como en otros lugares del mundo, que involucran contenido de terrorismo y extremismo violento, y que hemos aplicado en virtud de nuestros Lineamientos de la comunidad.
Artículo 7(3)(e): el número y el resultado de los procedimientos de revisión administrativa o judicial interpuestos por el proveedor de servicios de alojamiento
Artículo 7(3)(f): el número de casos en los cuales se requirió al proveedor de servicios de alojamiento que restableciera el contenido o el acceso al mismo como consecuencia de procedimientos de revisión administrativa o judicial
Como no se requirieron medidas de cumplimiento en virtud del Reglamento durante el período de informe, como se señaló anteriormente, no tuvimos procedimientos de revisión administrativa o judicial asociados, y no se nos exigió restablecer el contenido como resultado de dichos procedimientos.
Este informe se ha preparado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y proporciona los resultados de nuestra evaluación de los riesgos del sistema derivados del diseño, la función y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación establecidas para abordar esos riesgos.
Informe de evaluación de riesgos y mitigación de DSA | Snapchat | Agosto de 2023 (PDF)
Estos informes se han preparado para cumplir con las obligaciones de Snap en virtud del artículo 37 del Reglamento (UE) 2022/2065 y proporcionar: (i) los resultados de la auditoría independiente del cumplimiento de Snap con las obligaciones establecidas en el capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas adoptadas para implementar las recomendaciones operativas de esa auditoría independiente.
Informe de auditoría independiente de DSA | Snapchat | Agosto de 2024 (PDF)
Informe de implementación de auditoría de DSA | Snapchat | Septiembre de 2024 (PDF)
Código de prácticas VSP de la UE
Snap es un proveedor de "servicio de plataforma para compartir videos" ("VSP") de conformidad con el artículo 1(1)(aa) AVMSD. Este Código de conducta ("Código") se ha preparado para describir cómo Snap cumple con sus obligaciones como VSP en virtud de la Ley de medios holandeses ("DMA") y la Directiva (UE) 2010/13 (modificada por la Directiva (UE) 2018/1808 (la "Directiva de servicios de medios audiovisuales" o "AVMSD")). El Código es aplicable en toda la Unión Europea, así como en el Espacio Económico Europeo.
Código de conducta VSP de la UE | Snapchat | Marzo de 2025 (PDF)
Alemán | Búlgaro | Checo | Croata | Danés | Neerlandés | Eslovaco | Esloveno | Estonio | Finés | Francés | Griego | Húngaro | Irlandés | Italiano | Letón | Lituano | Maltés | Polaco | Portugués | Rumano | Sueco | Español