Bienvenido a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales (DSA, por sus siglas en inglés) la Directiva de Servicios de Medios Audiovisuales (AVMSD, por sus siglas en inglés), la Ley de Medios Holandeses (DMA, por sus siglas en inglés) y el Reglamento en línea de contenido terrorista (TCO, por sus siglas en inglés). Ten en cuenta que la versión más actualizada de estos Informes de transparencia se puede encontrar en la configuración regional en-US.
Snap Group Limited ha designado a Snap B.V. como su representante legal a efectos de la DSA. Puedes ponerte en contacto con el representante en dsa-enquiries [at] snapchat.com para la DSA, en vsp-enquiries [at] snapchat.com para la AVMSD y la DMA, en tco-enquiries [at] snapchat.com for TCO, a través de nuestro sitio web de ayuda [aquí], o en:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos
Si eres una fuerza de seguridad local, sigue los pasos que se indican aquí.
Cuando te pongas en contacto con nosotros, comunícate en inglés u holandés.
En materia de la DSA, estamos sometidos a la regulación de la Comisión Europea y de la Autoridad Neerlandesa para Consumidores y mercados (ACM, por sus siglas en inglés). En el caso de AVMSD y DMA, nos regimos por la Autoridad Holandesa de Medios de Comunicación (CvdM). En el caso de TCO, estamos regulados por la Autoridad Neerlandesa para la prevención del contenido terrorista en línea y el material de abuso sexual infantil (ATKM).
Publicado: 28 de febrero de 2025
Última actualización: 23 de abril de 2025 (versión 2.0)
Ciclo de informes: del 1 de julio de 2024 al 31 de diciembre de 2024
Publicamos este informe de acuerdo con los requisitos de información de transparencia establecidos en los artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento (UE) 2022/2065) («DSA»). Excepto cuando se indique lo contrario, la información contenida en este informe es para el período comprendido entre el 1 de julio de 2024 y el 31 de diciembre de 2024 (segundo semestre de 2024).
Desde el 1 de enero de 2025, contamos con un promedio de 93,7 millones de destinatarios activos mensuales («AMAR») de nuestra aplicación Snapchat en la UE. Esto significa que, en el último período de 6 meses terminado el 31 de septiembre de 2024, 93,7 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.
Esta cifra se desglosa por estado miembro de la siguiente manera:
Estas cifras se calcularon para cumplir con los requisitos actuales de la DSA y solo se deben utilizar con esta finalidad. Hemos cambiado la forma en la que calculamos esta cifra con el transcurso del tiempo, incluso en respuesta a cambios en la política interna, las orientaciones de los reguladores y la tecnología, y no se pretende que las cifras entre períodos se comparen. También puede que sea diferente de los cálculos utilizados para obtener otras cifras relativas a usuarios activos que publicamos con otras finalidades.
Durante este período de informe (segundo semestre de 2024), recibimos cero (0) órdenes de actuar contra contenidos ilegales específicamente identificados por parte de las autoridades de los Estados miembros de la UE, incluidas las emitidas de acuerdo con el artículo 9 de la DSA.
Dado que este número es cero (0), no podemos proporcionar un desglose por tipo de contenido ilegal en cuestión o Estado miembro que emite la orden, ni por el tiempo medio para acusar recibo o dar efecto a las órdenes.
Durante este período de informe (segundo semestre de 2024), recibimos las siguientes órdenes de divulgar datos de usuarios por parte de autoridades de los Estados miembros de la UE, incluidas las emitidas de acuerdo con el artículo 10 de la DSA:
El tiempo medio para informar a las autoridades pertinentes de la recepción de estos pedidos para proporcionar información fue de 0 minutos: proporcionamos una respuesta automatizada confirmando la recepción.
El tiempo medio para dar efecto a estos pedidos de proporcionar información fue de ~12 días. Esta métrica refleja el período de tiempo desde que Snap recibió un pedido hasta cuando Snap consideró que el asunto se resolvió completamente, lo que en casos individuales puede depender en parte de la velocidad con la que la autoridad del Estado miembro pertinente responda a cualquier solicitud de aclaración de Snap necesaria para procesar el pedido.
Nota: No proporcionamos un desglose de los pedidos anteriores para proporcionar información categorizada por tipo de contenido ilegal en cuestión porque esta información no está generalmente disponible para nosotros.
Todo el contenido que se encuentra en Snapchat debe cumplir con nuestras Pautas para la comunidad y Términos del servicio. Determinados contenidos también deben cumplir con pautas y políticas adicionales. Por ejemplo, el contenido enviado para recomendaciones algorítmicas a una audiencia más amplia en nuestras plataformas de difusión pública debe cumplir con los estándares adicionales y más altos en nuestras Pautas para el contenido sobre los requisitos de las recomendaciones, mientras que los anuncios deben cumplir con nuestras Políticas de publicidad.
Aplicamos estas políticas utilizando tecnología y revisión humana. Proporcionamos mecanismos para que los usuarios y no usuarios denuncien incumplimientos, incluidos contenidos y actividades ilegales, directamente en la aplicación o a través de nuestro sitio web. También utilizamos tecnología proactiva de detección de daños. Los mecanismos de detección proactivos e informes motivan una revisión, que luego aprovecha una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas adecuadas de acción con nuestras políticas.
Proporcionamos más información sobre nuestra moderación de contenido en el segundo semestre de 2024 a continuación.
De acuerdo con el artículo 16 de la DSA, Snap ha establecido mecanismos que permiten a usuarios y no usuarios notificar a Snap sobre la presencia en Snapchat de elementos específicos de información que consideren contenido ilegal. Pueden hacerlo denunciando contenidos o cuentas específicas, ya sea directamente en la aplicación Snapchat o en nuestro sitio web.
Al enviar avisos en la aplicación o a través de nuestro sitio web, los informantes pueden seleccionar un motivo de denuncia específico de un menú de opciones que refleje las categorías de incumplimientos enumeradas en nuestras Pautas para la comunidad (por ejemplo, discurso de odio, drogas). Nuestras Pautas para la comunidad prohíben los contenidos y actividades que sean ilegales en la UE, por lo que nuestras razones de denuncia reflejan en gran medida categorías específicas de contenidos ilegales en la UE. Sin embargo, en la medida en que un informante de la UE crea que el contenido o la cuenta que denuncia es ilegal por razones no mencionadas específicamente en nuestro menú de denuncias, podrá denunciarlo por «otro contenido ilegal» y se le dará la oportunidad de explicar por qué cree que lo que denuncia es ilegal.
Durante el período del informe (segundo semestre de 2024), recibimos los siguientes avisos presentados de conformidad con el artículo 16 de la DSA en la UE:
A continuación, proporcionamos un desglose que refleja cómo se procesaron estos avisos, es decir, a través de un proceso que incluye revisión humana o únicamente por medios automatizados:
Si, tras su revisión, determinamos que el contenido o la cuenta denunciados infringen nuestras Pautas para la comunidad (incluso por razones de ilegalidad), podemos (i) eliminar el contenido infractor, (ii) advertir al titular de la cuenta correspondiente y aplicar una sanción contra la cuenta, y/o (iii) bloquear la cuenta correspondiente, como se explica con más detalle en nuestra Explicación de moderación, aplicación de la ley y apelaciones de Snapchat.
En el segundo semestre de 2024, tomamos las siguientes acciones de cumplimiento al recibir avisos enviados de acuerdo con el artículo 16 de la DSA en la UE:
En el segundo semestre de 2024, todas las denuncias por «otro contenido ilegal» que gestionamos se hicieron cumplir en virtud de nuestras Pautas para la comunidad porque nuestras Pautas para la comunidad prohibían el contenido o la actividad correspondiente. En consecuencia, categorizamos estas medidas de aplicación en la categoría correspondiente de incumplimiento de las Pautas para la comunidad en la tabla anterior.
Además de las medidas de cumplimiento anteriores, podemos tomar medidas sobre el contenido que se nos notifique de acuerdo con otras políticas y pautas de Snap aplicables:
Con respecto al contenido en nuestras emisiones públicas, si determinamos que el contenido denunciado no cumple nuestros criterios de elegibilidad para las Pautas para el contenido sobre los requisitos de las recomendaciones, podemos rechazar el contenido para una recomendación algorítmica o límitar su distribución para excluir a determinados públicos (si el contenido cumple nuestros criterios de elegibilidad para recomendación, pero es sensible o sugerente).
En el segundo semestre de 2024, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión públicas de Snapchat denunciadas ante nosotros en la UE, de acuerdo con nuestras Pautas para el contenido sobre los requisitos de las recomendaciones:
Si determinamos que un anuncio denunciado infringe nuestras Políticas de publicidad, podemos eliminarlo una vez que se revise.
En el segundo semestre de 2024, tomamos las siguientes medidas con respecto a los anuncios que se nos informaron en la UE:
Además de revisar las notificaciones enviadas de conformidad con el artículo 16 de la DSA, enviar un Snap también modera el contenido por iniciativa propia. A continuación, proporcionamos información sobre la moderación de contenido realizada por iniciativa propia de Snap, incluyendo el uso de herramientas automatizadas, las medidas tomadas para proporcionar capacitación y asistencia a las personas cobrar de la moderación de contenido, y la cantidad y los tipos de restricciones impuestas como resultado de esos esfuerzos proactivos de moderación de contenido.
Uso de herramientas automatizadas en la moderación por iniciativa propia de Snap
Implementamos herramientas automatizadas para detectar de manera proactiva y, en algunos casos, hacer cumplir los incumplimientos de nuestros Terms y políticas. Estas herramientas incluyen herramientas de comparación de hash (como PhotoDNA y Google CSAI Match), la API de seguridad de contenidos de Google, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), y tecnologías que aprovechan la inteligencia artificial, el aprendizaje automático y los modelos de lenguaje grandes. Nuestras herramientas automatizadas están diseñadas para detectar incumplimientos de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben los contenidos ilegales) y, cuando corresponda, nuestras Pautas para el contenido sobre los requisitos de las recomendaciones y Políticas de publicidad.
En el segundo semestre de 2024, toda nuestra detección proactiva se llevó a cabo aprovechando las herramientas automatizadas. Cuando nuestras herramientas automatizadas detectan una posible incumplimiento de nuestras políticas, toman medidas automáticamente de acción con nuestras políticas o crear una tarea para revisión humana. La cantidad y los tipos de restricciones impuestas como resultado de este proceso se describen a continuación.
Número y tipos de restricciones impuestas por iniciativa propia de Snap
En el segundo semestre de 2024, Snap tomó las siguientes medidas de cumplimiento después de detectar de forma proactiva incumplimientos de nuestras Pautas para la comunidad (incluidos los incumplimientos que constituyen contenidos y actividades ilegales en virtud de las leyes de la UE y los Estados miembros):
Además, en el segundo semestre de 2024, con respecto al contenido en nuestras superficies de difusión públicas, tomamos las siguientes acciones después de detectar de forma proactiva en Snapchat, mediante el uso de herramientas automatizadas, incumplimiento de nuestras Pautas para el contenido sobre los requisitos de las recomendaciones:
* Como se indica en nuestras Pautas para el contenido sobre los requisitos de las recomendaciones, las cuentas que infrinjan repetida o gravemente nuestras Pautas para el contenido sobre los requisitos de las recomendaciones pueden ser descalificadas temporal o permanentemente de las recomendaciones en nuestras superficies de difusión públicas. Llevamos a cabo esta acción en el contexto de nuestros esfuerzos de moderación proactiva.
Además, en el segundo semestre de 2024, tomamos las siguientes acciones después de detectar de forma proactiva en Snapchat, mediante el uso de herramientas automatizadas, infracciones de nuestras Políticas de publicidad:
Medidas adoptadas para proporcionar formación y asistencia a las personas a cargo de la moderación de contenidos
Nuestros equipos de moderación de contenidos aplican nuestras políticas de moderación de contenidos para ayudar a proteger a nuestra comunidad de Snapchat. Se forman a lo largo de varias semanas, en las que los nuevos miembros del equipo reciben instrucción sobre las políticas, herramientas y procesos de escalado de Snap. Nuestros equipos de moderación participan regularmente en cursos de actualización relevantes para sus flujos de trabajo, en particular cuando nos encontramos con casos en los que las políticas transcienden y dependen del contexto. También llevamos a cabo programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén al día y cumplan todas las políticas actualizadas. Por último, cuando surgen tendencias de contenido urgentes basadas en acontecimientos actuales, proporcionamos rápidamente aclaraciones sobre las políticas para que los equipos puedan tomar medidas de acuerdo con las políticas de Snap.
Proporcionamos a nuestros equipos de moderación de contenidos un apoyo y recursos significativos, incluido apoyo al bienestar en el trabajo y un fácil acceso a servicios de salud mental.
Los usuarios cuyas cuentas estén bloqueadas por nuestros equipos de seguridad debido a infracciones de las Pautas para la comunidad (incluido por contenido y actividades ilegales) pueden presentar un recurso por cuenta bloqueada. Los usuarios también pueden apelar contra ciertas decisiones de moderación de contenidos.
Durante el período de informe (segundo semestre de 2024), Snap procesó las siguientes apelaciones (incluidas apelaciones contra bloqueos de cuentas y decisiones de moderación a nivel de contenidos) presentadas a través de sus sistemas internos de gestión de quejas en la UE:
Descripción cualitativa y propósitos
Como se explicó anteriormente en la Sección 3(b), implementamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, sancionar incumplimientos de nuestras condiciones y políticas. Estas herramientas incluyen herramientas de comparación de hash (como PhotoDNA y Google CSAI Match), la API de seguridad de contenidos de Google, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), y tecnologías que aprovechan la inteligencia artificial, el aprendizaje automático y los modelos de lenguaje grandes. Nuestras herramientas automatizadas están diseñadas para detectar incumplimientos de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben los contenidos ilegales) y, cuando corresponda, nuestras Pautas para el contenido sobre los requisitos de las recomendaciones y políticas de publicidad.
Cuando nuestras herramientas automatizadas detectan una posible incumplimiento de nuestras políticas, toman medidas automáticamente de acción con nuestras políticas o crear una tarea para revisión humana. .
Indicadores de precisión y posible tasa de error, desglosados por Estado miembro
Monitoreamos los indicadores de la precisión y la posible tasa de error de nuestras herramientas de moderación automatizada mediante la selección de muestras aleatorias de tareas procesadas por nuestras herramientas automatizadas y su envio para una nueva revisión por parte de nuestros equipos de moderación humana. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias que se confirma que tienen decisiones de moderación correctas al volver a revisar por los moderadores humanos. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada como se describió anteriormente.
Monitoreamos la precisión y la posible tasa de error de dos amplias categorías de herramientas de moderación automatizadas, concretamente:
Herramientas automatizadas que detectan y/o hacen cumplir las normas contra los incumplimientos de nuestras Pautas para la comunidad y que pueden dar lugar a medidas contra la cuenta de un usuario (por ejemplo, advertencias aplicadas contra la cuenta o bloqueo de la misma). Según el muestreo, en el segundo semestre de 2024, la tasa de precisión de estas herramientas automatizadas fue de aproximadamente el 95 % y la tasa de error fue de aproximadamente el 5 %.
Las herramientas automatizadas que detectan y/o toman medidas sobre el contenido en nuestras emisiones públicas surgen en función de nuestras Pautas para el contenido sobre los requisitos de las recomendaciones. Según el muestreo, en el segundo semestre de 2024, la tasa de precisión de estas herramientas automatizadas fue de aproximadamente el 85 % y la tasa de error fue de aproximadamente el 15 %.
Según el muestreo, en el segundo semestre de 2024, la tasa de precisión combinada de las herramientas automatizadas utilizadas en ambas categorías descritas anteriormente fue de aproximadamente el 89 % y la tasa de error fue de aproximadamente el 11 %.
Por lo general, no rastreamos el idioma del contenido que moderamos en Snapchat y, por lo tanto, no podemos proporcionar un desglose de la precisión y las tasas de error de nuestras herramientas de moderación automatizada para cada idioma oficial de los Estados miembros. Como referencia para esta información, proporcionamos a continuación un desglose de nuestras tasas de precisión y error combinadas para el contenido moderado automáticamente (tanto en nuestras Pautas para la comunidad como en nuestras Pautas para el contenido sobre los requisitos de las recomendaciones) que proviene de cada Estado miembro.
Medidas de seguridad
Somos conscientes del impacto potencial de las herramientas automatizadas de moderación sobre los derechos fundamentales, e implementamos medidas de seguridad para ayudar a minimizar ese impacto.
Nuestras herramientas automatizadas de moderación de contenido se someten a pruebas antes de su implementación. El rendimiento de los modelos se prueba sin conexión y se implementan mediante pruebas A/B para garantizar su funcionamiento adecuado antes de entrar completamente en producción. Realizamos revisiones de control de calidad (CC) previas al lanzamiento, revisiones de lanzamiento y comprobaciones de calidad de precisión regulares durante implementaciones parciales (escalonadas).
Tras el lanzamiento de nuestras herramientas automatizadas, evaluamos su rendimiento y precisión de forma continua, y realizamos los ajustes necesarios Este proceso implica la revisión de muestras de tareas automatizadas por parte de nuestros moderadores humanos para identificar modelos que requieren ajustes para mejorar la precisión. También supervisamos la prevalencia de daños específicos en Snapchat a través de muestreos diarios al azar de determinados contenidos públicos y aprovechamos esta información para identificar áreas que aún deben mejorarse.
Nuestras políticas y sistemas fomentan la aplicación justa y uniforme, incluidas nuestras herramientas de automatización, y ofrecen a los Snapfans la oportunidad de apelar de manera significativa las decisiones a través de procesos de notificación y apelación que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapfans.
Nos esforzamos por mejorar continuamente nuestras herramientas de moderación de contenidos automatizada para mejorar su precisión y apoyar una aplicación coherente y justa de nuestras políticas.
Durante el período de informe (segundo semestre de 2024), proporcionamos la siguiente información sobre las disputas presentadas contra Snap a los organismos extrajudiciales de resolución de disputas mencionados en el artículo 21 de la DSA:
La tabla anterior refleja el estado a 31 de diciembre de 2024 de las disputas presentadas ante organismos extrajudiciales de resolución de disputas certificados en virtud del artículo 21 de la DSA durante el período de información (segundo semestre de 2024). A 31 de diciembre de 2024, de 20 disputas presentadas ante dichos organismos en el segundo semestre de 2024, 15 estaban pendientes y 5 se habían resuelto antes de que se emitiera una decisión.
Ten en cuenta que no incluimos en la tabla anterior las quejas que se enviaron ante un organismo certificado en virtud del artículo 21, pero que el organismo pertinentecompetente consideró inadmisibles antes de transmitirlas a Snap. No podemos confirmar el número de disputas que entran en esta categoría porque algunos organismos certificados, pero no todos, notifican a Snap dichas disputas. Sin embargo, tenemos 6 quejas que entran en esta categoría en el segundo semestre de 2024.
Suspensiones de conformidad con el artículo 23.1: suspensión de cuentas que proporcionan frecuentemente contenido manifiestamente ilegal
Como se explica en nuestro Explicación de moderación, cumplimiento y recursos de Snapchat, las cuentas que determinemos que se utilizan principalmente para infringir nuestras Pautas para la comunidad (por ejemplo, mediante la provisión de contenido manifiestamente ilegal) y las cuentas que causan daños graves se desactivan inmediatamente. Para otras infracciones de nuestras Pautas para la comunidad, Snap generalmente aplica un proceso de aplicación en tres partes:
Primer paso: se elimina el contenido infractor.
Segundo paso: el usuario recibe una notificación que indica que ha infringido nuestras Pautas para la comunidad, que su contenido ha sido eliminado y que los incumplimientos repetidas darán lugar a medidas de cumplimiento adicionales, incluida la desactivación de su cuenta.
Tercer paso: nuestro equipo registra una llamada de atención contra la cuenta del usuario.
La información sobre el número de faltas (es decir, advertencias) y bloqueos impuestos en el segundo semestre de 2024 a cuentas en la UE se puede encontrar más arriba, en las Secciones 3 (a) y 3 (b).
Suspensiones de conformidad con el artículo 23.2: suspensión en el procesamiento de denuncias y quejas de personas, entidades e informantes que presentan frecuentemente denuncias o quejas que son manifiestamente infundadas
La aplicación de nuestra definición interna de denuncias y quejas «manifiestamente infundadas», y nuestros umbrales internos para lo que consideramos la frecuente presentación de dichas denuncias y quejas, el número de suspensiones en el procesamiento de denuncias y quejas impuestas en el segundo semestre de 2024 de conformidad con el artículo 23.2 de la DSA es la siguiente
Nuestros equipos de moderación de contenidos operan en todo el mundo, las 24 horas del día, los 7 días de la semana, lo que nos permite ayudar a mantener segura a nuestra comunidad. A continuación se muestra el desglose de nuestros recursos de moderación humana por especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en varios idiomas) a partir del 31 de diciembre de 2024:
La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenidos en las lenguas oficiales de los Estados miembros de la UE a partir del 31 de diciembre de 2024. Cuando requerimos apoyo lingüístico adicional, recurrimos a servicios de traducción.
(Artículo 42.2(b))
Los moderadores son contratados siguiendo una descripción de trabajo estándar que incluye un requisito lingüístico (en función de las necesidades). El requisito lingüístico establece que el candidato debe poder demostrar fluidez escrita y oral en el idioma y, para los puestos de nivel inicial, los candidatos deben tener al menos un año de experiencia laboral. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser tomados en consideración. Los candidatos también deben demostrar conocimiento actualizado sobre el país o región en los que van a realizar la tarea de moderación de contenidos.
Véase más arriba para obtener información sobre la formación y el respaldo que Snap proporciona a los moderadores de contenidos, lo que se exige por separado en virtud del artículo 15(1)(c) de la DSA y, por lo tanto, se incluye en la Sección 3(b), en la subsección final titulada: «Medidas adoptadas para proporcionar formación y asistencia a las personas a cargo de la moderación de contenidos»
Publicado: 31 de enero de 2025
Última actualización: 31 de enero de 2025
Este informe cubre el período que comienza el 1 de enero de 2024 y que finaliza el 31 de diciembre de 2024.
Antecedentes
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la Explotación y Abuso Sexual Infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.
Las tecnologías que utilizamos incluyen (a) la coincidencia de hash robusta de PhotoDNA y la coincidencia de Child Sexual Abuse Imagery (CSAI) de Google para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente; y (b) la API de Seguridad de contenido de Google para identificar imágenes de CSEA novedosas "nunca antes hashadas". Informamos sobre imágenes relacionadas con CSEA al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC, por sus siglas en inglés), tal como lo exige la ley. NCMEC, a su vez, se coordina con la aplicación de la ley en los Estados Unidos y otros países, según sea necesario.
Informe
El siguiente gráfico incluye datos sobre la detección proactiva y las medidas de cumplimiento resultantes contra los usuarios de la UE para imágenes de CSEA durante 2024. (Ten en cuenta que algunas medidas de cumplimiento resultantes de dicho escaneo proactivo en 2024 aún pueden estar sujetas a apelación a partir de cuando se compiló este informe y, por lo tanto, no se reflejarían en los datos de apelaciones y restablecimientos a continuación).
*Esta categoría informa sobre las violaciones de las Pautas para la comunidad de Snap que prohíben la explotación sexual infantil. El contenido detectado de forma proactiva que se aplica por otras infracciones de las Pautas para la comunidad de Snap no se encuentra aquí.
**Una aplicación puede anularse si determinamos que fue errónea en función de nuestras políticas en vigor en el momento de la aplicación, o si determinamos que se aplicó correctamente desde un principio, pero nuestra política aplicable ha cambiado en el momento de revisar la apelación.
Medidas de seguridad para la moderación de contenido
Las salvaguardas aplicadas para CSEA Media Scanning se establecen en el informe de transparencia de la DSA de la UE anterior.
Publicado: 28 de febrero de 2025
Última actualización: 28 de febrero de 2025
Ciclo de informes: del 1 de enero de 2024 al 31 de diciembre de 2024
Este Informe de transparencia se publica de acuerdo con los artículos 7, apartado 2, y 7, apartado 3, del Reglamento 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenidos terroristas en línea (el Reglamento). Cubre el período de información, del 1 de enero al 31 de diciembre de 2024.
Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de alojamiento en relación con la identificación y eliminación o inhabilitación del acceso a contenidos terroristas
Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de alojamiento para hacer frente a la reaparición en línea de material que ha sido eliminado previamente o al que se ha desactivado el acceso por considerarse contenido terrorista, en particular, cuando se hayan utilizado herramientas automatizadas
Snapchat registra una incidencia de contenidos terroristas muy baja, y no recibió una orden de eliminación en virtud del reglamento en 2024.
Los terroristas, organizaciones terroristas y extremistas violentos tienen prohibido utilizar Snapchat. El contenido que abogue, promueva, glorifique o impulse el terrorismo u otros actos delictivos violentos está prohibido por nuestras Pautas para la comunidad. Los usuarios pueden denunciar contenido que infrinja nuestras Pautas para la comunidad a través de nuestro menú de denuncias en la aplicación y nuestro sitio de ayuda. También utilizamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubre.
Independientemente de cómo nos demos cuenta de una infracción de contenidos, nuestros equipos de seguridad, a través de una combinación de automatización y moderación humana, revisan rápidamente el contenido identificado y toman decisiones de cumplimiento. Las medidas coercitivas pueden incluir eliminar el contenido, advertir o deshabilitar la cuenta infractora y, si se justifica, denunciar la cuenta a las fuerzas de seguridad. Para prevenir la reaparición de contenido terrorista o extremista violento en Snapchat, además de trabajar con las fuerzas del orden, tomamos medidas para bloquear el dispositivo asociado a la cuenta infractora e impedir que el usuario cree otra cuenta de Snapchat.
Puedes encontrar más detalles sobre nuestras medidas para identificar y eliminar contenido terrorista en nuestra Explicación sobre contenido de odio, terrorismo y extremismo violento y nuestra Explicación sobre moderación, aplicación de la ley y apelaciones.
Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o cuyo acceso se ha bloqueado a raíz de órdenes de eliminación o medidas específicas, y el número de órdenes de eliminación donde el contenido no se ha eliminado o cuyo acceso no se ha bloqueado en conformidad con el artículo 3, apartado 7, y el párrafo primero del artículo 3, apartado 8, junto con los motivos correspondientes
Durante el período sobre el que se informa, Snap no recibió ninguna orden de eliminación, ni se nos exigió que implementáramos ninguna medida específica de conformidad con el artículo 5 del Reglamento. En consecuencia, no se nos exigió que tomáramos medidas de cumplimiento en virtud del reglamento.
La siguiente tabla describe las acciones de cumplimiento tomadas en función de las denuncias de los usuarios y la detección proactiva de contenidos y cuentas, tanto en la UE como en cualquier otro lugar del mundo, que infringen nuestras Pautas para la comunidad en relación con contenido de terrorismo y extremismo violento.
Artículo 7(3)(d): el número y el resultado de las quejas tramitadas por el proveedor de servicios de alojamiento de acuerdo con el artículo 10
Artículo 7(3)(g): el número de casos en los que el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo a raíz de una queja por parte del proveedor de contenidos
Como no tuvimos acciones de cumplimiento requeridas en virtud del Reglamento durante el período sobre el que se informa como se señaló anteriormente, no tramitamos quejas de conformidad con el artículo 10 del Reglamento y no tuvimos restablecimientos asociados.
La siguiente tabla contiene información relacionada con apelaciones y restablecimientos, tanto en la UE como en otras partes del mundo, relacionados con contenido terrorista y extremista violento aplicados según nuestras Pautas para la comunidad.
Artículo 7(3)(e): el número y el resultado de los procedimientos de recurso administrativo o judicial interpuestos por el proveedor de servicios de alojamiento
Artículo 7(3)(f): número de casos en los que se requirió que el proveedor de servicios de alojamiento restableciera el contenido o el acceso al mismo como resultado de un procedimiento de recurso administrativo o judicial
Dado que no tuvimos acciones de cumplimiento requeridas en virtud del Reglamento durante el período sobre el que se informa, como se señaló anteriormente, no tuvimos procedimientos de recurso administrativo o judicial asociados, y no se nos exigió restablecer el contenido como resultado de dicho procedimiento.
Este informe se ha elaborado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y ofrece los resultados de nuestra evaluación de los riesgos del sistema derivados del diseño, la función y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación establecidas para abordar dichos riesgos.
Informe de evaluación de mitigación y riesgos de la DSA | Snapchat | Agosto de 2023 (PDF)
Estos informes se han elaborado para cumplir con las obligaciones de Snap en virtud del artículo 37 del Reglamento (UE) 2022/2065 y ofrecen: (i) los resultados de la auditoría independiente del cumplimiento de las obligaciones establecidas por parte de Snap en el capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas adoptadas para implementar las recomendaciones operativas de esa auditoría independiente.
Informe de auditoría independiente de la DSA | Snapchat | Agosto de 2024 (PDF)
Informe de implementación de auditoría de la DSA | Snapchat | Septiembre de 2024 (PDF)
Código de prácticas VSP de la UE
Snap es un proveedor de «servicios de intercambio de vídeos a través de plataforma» («VSP» por sus siglas en inglés) en virtud de lo dispuesto en el artículo 1(1)(aa) de la DSCAV. Este Código de conducta («Código») se ha preparado para describir cómo Snap cumple con sus obligaciones como servicio de intercambio de vídeos a través de plataforma en virtud de la Ley de medios holandeses («DMA») y la Directiva (UE) 2010/13 (en su versión modificada por la Directiva (UE) 2018/1808 (la «Directiva de servicios de comunicación audiovisual» o «DSCAV»)). El Código es aplicable en toda la Unión Europea, así como en el Espacio Económico Europeo.
Búlgaro | Croata | Checo | Danés | Holandés | Estonio | Finlandés | Francés | Alemán | Griego | Húngaro | Irlandés | Italiano | Letón | Lituano | Maltés | Polaco | Portugués | Rumano | Eslovaco | Esloveno | Español | Sueco