25 de octubre de 2024
17 de diciembre de 2024
Bienvenido a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales (DSA, por sus siglas en inglés) la Directiva de Servicios de Medios Audiovisuales (AVMSD, por sus siglas en inglés), la Ley de Medios Holandeses (DMA, por sus siglas en inglés) y el Reglamento en línea de contenido terrorista (TCO, por sus siglas en inglés). Ten en cuenta que la versión más actualizada de estos Informes de transparencia se puede encontrar en la configuración regional en-US.
Snap Group Limited ha designado a Snap B.V. como su representante legal a efectos de la DSA. Puedes ponerte en contacto con el representante en dsa-enquiries [at] snapchat.com para la DSA, en vsp-enquiries [at] snapchat.com para la AVMSD y la DMA, en tco-enquiries [at] snapchat.com for TCO, a través de nuestro sitio web de ayuda [aquí], o en:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos
Si eres una fuerza de seguridad local, sigue los pasos que se indican aquí.
Cuando te pongas en contacto con nosotros, comunícate en inglés u holandés.
En materia de la DSA, estamos sometidos a la regulación de la Comisión Europea y de la Autoridad Neerlandesa para Consumidores y mercados (ACM, por sus siglas en inglés). En el caso de AVMSD y DMA, nos regimos por la Autoridad Holandesa de Medios de Comunicación (CvdM). En el caso de TCO, estamos regulados por la Autoridad Neerlandesa para la prevención del contenido terrorista en línea y el material de abuso sexual infantil (ATKM).
Última actualización: 25 de octubre de 2024
Publicamos este informe sobre nuestros esfuerzos de moderación de contenidos en Snapchat de acuerdo con los requisitos de informes de transparencia previstos en los artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento (UE) 2022/2065) («DSA»). Salvo que se indique lo contrario, la información contenida en este informe corresponde al período de informe comprendido entre el 1 de enero de 2024 y el 30 de junio de 2024 (primer semestre de 2024) y cubre la moderación de contenidos sobre las funciones de Snapchat que están reguladas por la DSA.
Nos esforzamos continuamente por mejorar nuestros informes. Para este período de informe (1er semestre de 2024), hemos realizado cambios en la estructura de nuestro informe con tablas nuevas y más diferenciadas para proporcionar una mejor visión de nuestros esfuerzos de moderación de contenidos.
Desde el 1 de octubre de 2024, contamos con un promedio de 92,9 millones de destinatarios activos mensuales ("AMAR") de nuestra aplicación Snapchat en la UE. Esto significa que, en el último período de 6 meses terminado el 30 de septiembre de 2024, 92,9 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.
Esta cifra se desglosa por estado miembro de la siguiente manera:
Estas cifras se calcularon para cumplir con los requisitos actuales de la Ley de Servicios Digitales (LSD) y solo se deben utilizar con esta finalidad. Hemos cambiado la forma en la que calculamos esta cifra con el transcurso del tiempo, incluso en respuesta a cambios en la política interna, las orientaciones de los reguladores y la tecnología, y no se pretende que las cifras entre períodos se comparen. También puede que sea diferente de los cálculos utilizados para obtener otras cifras relativas a usuarios activos que publicamos con otras finalidades.
Durante este período de informe (1er semestre de 2024), recibimos cero (0) órdenes de actuar contra contenidos ilegales específicamente identificados por parte de las autoridades de los Estados miembros de la UE, incluidas las emitidas de acuerdo con el artículo 9 de la DSA.
Dado que este número es cero (0), no podemos proporcionar un desglose por tipo de contenido ilegal en cuestión o Estado miembro que emite la orden, ni por el tiempo medio para acusar recibo o dar efecto a las órdenes.
Durante este período de informe (1er semestre de 2024), recibimos las siguientes órdenes de divulgar datos de usuarios por parte de autoridades de los Estados miembros de la UE, incluidas las emitidas de acuerdo con el artículo 10 de la DSA:
El tiempo medio para informar a las autoridades pertinentes de la recepción de estos pedidos para proporcionar información fue de 0 minutos: proporcionamos una respuesta automatizada confirmando la recepción.
El tiempo medio para dar efecto a estos pedidos de proporcionar información fue de ~7 días. Esta métrica refleja el período de tiempo desde que Snap recibió un pedido hasta cuando Snap consideró que el asunto se resolvió completamente, lo que en casos individuales puede depender en parte de la velocidad con la que la autoridad del Estado miembro pertinente responda a cualquier solicitud de aclaración de Snap necesaria para procesar el pedido.
Nota: No proporcionamos un desglose de los pedidos anteriores para proporcionar información categorizada por tipo de contenido ilegal en cuestión porque esta información no está generalmente disponible para nosotros.
Todo el contenido que se encuentra en Snapchat debe cumplir con nuestras Pautas para la comunidad y Términos del servicio. Determinados contenidos también deben cumplir con pautas y políticas adicionales. Por ejemplo, el contenido enviado para recomendación algorítmica a un público más amplio en nuestras superficies de difusión públicas debe cumplir los estándares adicionales y más altos proporcionados en nuestras Pautas para el contenido sobre los requisitos de las recomendaciones, mientras que los anuncios deben cumplir nuestras Políticas de publicidad.
Aplicamos estas políticas utilizando revisión automática y humana. También proporcionamos mecanismos para que los Snapfans denuncien infracciones, incluidos contenidos y actividades ilegales, directamente en la aplicación o a través de nuestro sitio web. Los mecanismos de detección proactivos e informes motivan una revisión, que luego aprovecha una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas adecuadas de acuerdo con nuestras políticas.
A continuación proporcionamos más información sobre nuestra moderación de contenidos en nuestras superficies públicas en el primer semestre de 2024.
De acuerdo con el artículo 16 de la DSA, Snap ha establecido mecanismos que permiten a usuarios y no usuarios notificar a Snap sobre la presencia en Snapchat de elementos específicos de información que consideren contenido ilegal. Pueden hacerlo denunciando contenidos o cuentas específicas, ya sea directamente en la aplicación Snapchat o en nuestro sitio web.
Durante el período del informe (primer semestre de 2024), recibimos los siguientes avisos presentados de conformidad con el artículo 16 de la DSA en la UE:
A continuación, proporcionamos un desglose que refleja cómo se procesaron estos avisos, es decir, a través de un proceso que incluye revisión humana o únicamente por medios automatizados:
Al enviar avisos en la aplicación o a través de nuestro sitio web, los denunciantes pueden seleccionar un motivo de denuncia específico de un menú de opciones que refleje las categorías de infracciones enumeradas en nuestras Pautas para la comunidad (por ejemplo, discurso de odio, consumo o ventas de drogas). Nuestras Pautas para la comunidad prohíben los contenidos y actividades que sean ilegales en la UE, por lo que nuestras razones de denuncia reflejan en gran medida categorías específicas de contenidos ilegales en la UE. Sin embargo, en la medida en que un denunciante de la UE crea que el contenido o la cuenta que denuncia es ilegal por razones no mencionadas específicamente en nuestro menú de denuncias, podrá denunciarlo por «otro contenido ilegal» y se le dará la oportunidad de explicar por qué cree que lo que denuncia es ilegal.
Si, tras su revisión, determinamos que el contenido o la cuenta denunciados infringen nuestras Pautas para la comunidad (incluso por razones de ilegalidad), podemos (i) eliminar el contenido infractor, (ii) advertir al titular de la cuenta correspondiente y aplicar una sanción contra la cuenta, y/o (iii) bloquear la cuenta correspondiente, como se explica con más detalle en nuestra Explicación de moderación, aplicación de la ley y apelaciones de Snapchat.
En el primer semestre de 2024, tomamos las siguientes acciones de cumplimiento al recibir avisos enviados de acuerdo con el artículo 16 de la DSA en la UE:
En el primer semestre de 2024, todas las denuncias por «otro contenido ilegal» que gestionamos se hicieron cumplir en virtud de nuestras Pautas para la comunidad porque nuestras Pautas para la comunidad prohibían el contenido o la actividad correspondiente. En consecuencia, categorizamos estas medidas de aplicación en la categoría correspondiente de infracción de las Pautas para la comunidad en la tabla anterior.
Además de las medidas de cumplimiento anteriores, podemos tomar medidas sobre el contenido que se nos notifique de acuerdo con otras políticas y pautas de Snap aplicables:
Con respecto al contenido en nuestras superficies de difusión públicas, si determinamos que el contenido denunciado no cumple los estándares más altos de nuestras Pautas para el contenido sobre los requisitos de las recomendaciones, podemos rechazar el contenido para la recomendación algorítmica (si el contenido no cumple con nuestros criterios de elegibilidad) o podemos limitar la distribución del contenido para excluir a audiencias sensibles (si el contenido cumple nuestros criterios de elegibilidad para la recomendación, pero por otra parte es sensible o trata ciertos temas).
En el primer semestre de 2024, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión públicas de Snapchat denunciadas ante nosotros en la UE, de acuerdo con nuestras Pautas para el contenido sobre los requisitos de las recomendaciones:
Si determinamos que un anuncio denunciado infringe nuestras Políticas de publicidad, podemos eliminarlo una vez que se revise.
En el primer semestre de 2024, tomamos las siguientes acciones con respecto a los anuncios sobre los cuales se nos informó en la UE:
Además de revisar los avisos enviados de acuerdo con el artículo 16 de la DSA, Snap modera, por iniciativa propia, el contenido en las superficies públicas de Snapchat (por ejemplo, Spotlight, Descubre). A continuación proporcionamos información sobre la moderación de contenidos realizada por iniciativa propia de Snap, incluido el uso de herramientas automatizadas, las medidas adoptadas para proporcionar formación y asistencia a las personas a cargo de la moderación de contenidos, y el número y tipos de restricciones impuestas como resultado de esos esfuerzos proactivos de moderación de contenidos.
Uso de herramientas automatizadas en la moderación por iniciativa propia de Snap
Implementamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, hacer cumplir infracciones de nuestras condiciones y políticas en nuestras superficies de contenido público. Esto incluye herramientas de coincidencia de hash (como PhotoDNA y Google CSAI Match), modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), e inteligencia artificial / tecnología de aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben los contenidos ilegales) y, cuando corresponda, nuestras Pautas para el contenido sobre los requisitos de las recomendaciones y Políticas de publicidad.
En el primer semestre de 2024, toda nuestra detección proactiva se llevó a cabo utilizando herramientas automatizadas. Cuando nuestras herramientas automatizadas detectan un posible incumplimiento de nuestras políticas, o bien toman medidas automáticamente de acuerdo con nuestras políticas, o crean una tarea para revisión humana. A continuación se describe el número y los tipos de restricciones impuestas como resultado de este proceso.
Número y tipos de restricciones impuestas por iniciativa propia de Snap
En el primer semestre de 2024, Snap tomó las siguientes acciones de cumplimiento después de detectar de forma proactiva, mediante el uso de herramientas automatizadas, infracciones de nuestras Pautas para la comunidad (incluidas infracciones que constituyen contenido y actividades ilegales en virtud de las leyes de la UE y de los Estados miembros):
Además, en el primer semestre de 2024, con respecto al contenido en nuestras superficies de difusión públicas, tomamos las siguientes acciones después de detectar de forma proactiva en Snapchat, mediante el uso de herramientas automatizadas, infracciones de nuestras Pautas para el contenido sobre los requisitos de las recomendaciones:
* Como se indica en nuestras Pautas para el contenido sobre los requisitos de las recomendaciones, las cuentas que infrinjan repetida o gravemente nuestras Pautas para el contenido sobre los requisitos de las recomendaciones pueden ser descalificadas temporal o permanentemente de las recomendaciones en nuestras superficies de difusión públicas. Llevamos a cabo esta acción en el contexto de nuestros esfuerzos de moderación proactiva.
Además, en el primer semestre de 2024, tomamos las siguientes acciones después de detectar de forma proactiva en Snapchat, mediante el uso de herramientas automatizadas, infracciones de nuestras Políticas de publicidad:
Medidas adoptadas para proporcionar formación y asistencia a las personas a cargo de la moderación de contenidos
Nuestros equipos de moderación de contenidos aplican nuestras políticas de moderación de contenidos para ayudar a proteger a nuestra comunidad de Snapchat. Se forman a lo largo de varias semanas, en las que los nuevos miembros del equipo reciben instrucción sobre las políticas, herramientas y procesos de escalado de Snap. Nuestros equipos de moderación participan regularmente en cursos de actualización relevantes para sus flujos de trabajo, en particular cuando nos encontramos con casos en los que las políticas transcienden y dependen del contexto. También llevamos a cabo programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén al día y cumplan todas las políticas actualizadas. Por último, cuando surgen tendencias de contenido urgentes basadas en acontecimientos actuales, proporcionamos rápidamente aclaraciones sobre las políticas para que los equipos puedan tomar medidas de acuerdo con las políticas de Snap.
Proporcionamos a nuestros equipos de moderación de contenidos un apoyo y recursos significativos, incluido apoyo al bienestar en el trabajo y un fácil acceso a servicios de salud mental.
Los usuarios cuyas cuentas estén bloqueadas por nuestros equipos de seguridad debido a infracciones de las Pautas para la comunidad (incluido por contenido y actividades ilegales) pueden presentar un recurso por cuenta bloqueada. Los usuarios también pueden apelar contra ciertas decisiones de moderación de contenidos.
Durante el período de informe (1er semestre de 2024), Snap procesó las siguientes apelaciones (incluidos recursos contra bloqueos de cuentas y decisiones de moderación a nivel de contenidos) presentadas a través de sus sistemas internos de gestión de quejas en la UE:
Descripción cualitativa y propósitos
Como se explicó anteriormente en la Sección 3(b), implementamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, hacer cumplir infracciones de nuestras condiciones y políticas en nuestras superficies de contenido público. Esto incluye herramientas de coincidencia de hash (como PhotoDNA y Google CSAI Match), modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), e inteligencia artificial / tecnología de aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben los contenidos ilegales) y, cuando corresponda, nuestras Pautas para el contenido sobre los requisitos de las recomendaciones y Políticas de publicidad.
Cuando nuestras herramientas automatizadas detectan una posible infracción de nuestras políticas, o bien toman medidas automáticamente de acuerdo con nuestras políticas, o crean una tarea para revisión humana.
Indicadores de precisión y posible tasa de error, desglosados por Estado miembro
Supervisamos la precisión de nuestras herramientas de moderación automatizada seleccionando muestras aleatorias de tareas procesadas por nuestras herramientas automatizadas en nuestras superficies públicas y enviándolas para su revisión por parte de nuestros equipos de moderación humana. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias que fueron confirmadas por nuestros moderadores humanos tras una nueva revisión. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada como se describió anteriormente.
Según el muestreo, en el primer semestre de 2024, los indicadores de precisión y la posible tasa de error de los medios automatizados utilizados en todas las categorías de infracciones fueron de aproximadamente el 93 % y la tasa de error fue de aproximadamente el 7 %.
Por lo general, no rastreamos el idioma del contenido que moderamos en Snapchat y, por lo tanto, no podemos proporcionar un desglose de la precisión y las tasas de error de nuestras herramientas de moderación automatizada para cada idioma oficial de los Estados miembros. Como referencia a esta información, a continuación proporcionamos un desglose de nuestras tasas de precisión y error para el contenido moderado automáticamente procedente de cada Estado miembro.
Salvaguardias
Somos conscientes del impacto potencial de las herramientas de moderación automatizada sobre los derechos fundamentales, e implementamos medidas de protección para minimizar este impacto.
Nuestras herramientas de moderación de contenidos automatizada se prueban antes de implementarse en Snapchat. El rendimiento de los modelos se prueba sin conexión y se implementan mediante pruebas A/B para garantizar su funcionamiento adecuado antes de entrar completamente en producción. Realizamos revisiones de control de calidad (CC) previas al lanzamiento, revisiones de lanzamiento y comprobaciones de calidad de precisión regulares durante implementaciones parciales (escalonadas).
Tras el lanzamiento de nuestras herramientas automatizadas, evaluamos su rendimiento y precisión de forma continua, y realizamos los ajustes necesarios Este proceso implica la revisión de muestras de tareas automatizadas por parte de nuestros moderadores humanos para identificar modelos que requieren ajustes para mejorar la precisión. También supervisamos la prevalencia de daños específicos en Snapchat a través de muestreos diarios al azar de historias públicas y aprovechamos esta información para identificar áreas que aún deben mejorarse.
Nuestras políticas y sistemas fomentan la aplicación justa y uniforme, incluidas nuestras herramientas de automatización, y ofrecen a los Snapchatters la oportunidad de apelar de manera significativa las decisiones a través de procesos de notificación y apelación que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapfans.
Nos esforzamos por mejorar continuamente nuestras herramientas de moderación de contenidos automatizada para mejorar su precisión y apoyar una aplicación coherente y justa de nuestras políticas.
Para el período de informe (1er semestre de 2024), el número de litigios presentados a organismos de resolución extrajudicial de disputas certificados formalmente de acuerdo con el artículo 21 de la DSA fue cero (0) y no podemos proporcionar un desglose que refleje los resultados, el promedio de tiempos de finalización o la proporción de disputas en las que Snap implementó las decisiones de un organismo extrajudicial de resolución de disputas.
Ten en cuenta que, en el primer semestre de 2024, recibimos dos (2) notificaciones de disputas presentadas a un organismo que estaba tramitando su certificación como organismo extrajudicial de resolución de disputas en virtud del artículo 21 de la DSA. No incluimos estas disputas en el recuento anterior, dado que el organismo que transmitió estas notificaciones de disputas no pudo verificar su estado de certificación a petición nuestra.
Suspensiones de conformidad con el artículo 23.1: suspensión de cuentas que proporcionan frecuentemente contenido manifiestamente ilegal
Como se explica en nuestro Explicador de moderación, cumplimiento y recursos de Snapchat, las cuentas que determinemos que se utilizan principalmente para infringir nuestras Pautas para la comunidad (por ejemplo, mediante la provisión de contenido manifiestamente ilegal) y las cuentas que causan daños graves se desactivan inmediatamente. Para otras infracciones de nuestras Pautas para la comunidad, Snap generalmente aplica un proceso de aplicación en tres partes:
Primer paso: se elimina el contenido infractor.
Segundo paso: el Snapfan recibe una notificación en la que se le indica que ha infringido nuestras Pautas para la comunidad, que su contenido ha sido eliminado y que la repetición de infracciones dará lugar a otras medidas coercitivas, incluida la desactivación de su cuenta.
Tercer paso: nuestro equipo registra una llamada de atención contra la cuenta del Snapfan.
La información sobre el número de llamadas de atención (p. ej., advertencias) y bloqueos impuestos en el primer semestre de 2024 a cuentas en la UE en relación con contenido o actividades en las superficies públicas de Snapchat se puede encontrar más arriba, en las secciones 3(a) y 3(b).
Suspensiones de conformidad con el artículo 23.2: suspensión en el procesamiento de denuncias y quejas de personas, entidades y denunciantes que presentan frecuentemente denuncias o quejas que son manifiestamente infundadas
La aplicación de nuestra definición interna de denuncias y quejas «manifiestamente infundadas», y nuestros umbrales internos para lo que consideramos la frecuente presentación de dichas denuncias y quejas, el número de suspensiones en el procesamiento de denuncias y quejas impuestas en el primer semestre de 2024 de conformidad con el artículo 23.2 de la DSA es la siguiente:
Nuestros equipos de moderación de contenidos operan en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapfans las 24 horas del día, los 7 días de la semana. A continuación se puede encontrar el desglose de nuestros recursos de moderación humana por especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en varios idiomas) a partir del 30 de junio de 2024:
La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenidos en las lenguas oficiales de los Estados miembros de la UE a partir del 30 de junio de 2024. Cuando requerimos apoyo lingüístico adicional, recurrimos a servicios de traducción.
(Artículo 42.2(b))
Los moderadores son contratados siguiendo una descripción de trabajo estándar que incluye un requisito lingüístico (en función de las necesidades). El requisito lingüístico especifica que los candidatos deben demostrar fluidez tanto en la comunicación escrita como en la oral en el idioma correspondiente y tener al menos un año de experiencia laboral para los puestos de nivel inicial. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser tomados en consideración. Los candidatos también deben demostrar conocimiento actualizado sobre el país o región en los que van a realizar la tarea de moderación de contenidos.
Véase más arriba para obtener información sobre la formación y el respaldo que Snap proporciona a los moderadores de contenidos, lo que se exige por separado en virtud del artículo 15(1)(c) de la DSA y, por lo tanto, se incluye en la Sección 3(b), en la subsección final titulada: "Medidas adoptadas para proporcionar formación y asistencia a las personas a cargo de la moderación de contenidos"
Antecedentes
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la Explotación y Abuso Sexual Infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.
Utilizamos la rigurosa búsqueda de correspondencia de PhotoDNA y la correspondencia de Imágenes de abuso sexual infantil (CSAI, según sus siglas en inglés) de Google para identificar imágenes ilegales y vídeos de abuso sexual infantil, respectivamente, y denunciarlos ante el Centro Nacional para Menores Desaparecidos o Explotados (NCMEC), según lo exija la legislación. Luego, el NCMEC, por su parte, coordina con el cumplimiento de la legislación nacional o internacional, según se requiera.
Informe
Los datos a continuación se basan en el resultado de un análisis proactivo utilizando PhotoDNA y/o CSAI Match de los medios subidos por el rollo de cámara de un usuario a Snapchat.
Poner fin a la explotación sexual infantil es de máxima prioridad. Snap dedica recursos considerables a ello y mantiene una tolerancia cero con tal conducta. Se requiere una formación especial para revisar las apelaciones en casos de abuso sexual infantil, y hay un equipo restringido de agentes que se ocupa de tales revisiones debido a la naturaleza explícita de los contenidos. Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la uniformidad de determinadas medidas coercitivas contra el abuso sexual infantil, y ya hemos tratado esas incoherencias volviendo a formar a los agentes y aplicando rigurosas medidas de control de calidad. Esperamos que el próximo informe de transparencia revele los progresos realizados para mejorar los tiempos de respuesta a las apelaciones en casos de abuso sexual infantil y la precisión de las medidas coercitivas iniciales.
Medidas de seguridad para la moderación de contenido
Las medidas de protección aplicadas para el análisis de medios CSEA se indican en la sección anterior "Medidas de protección para la moderación de contenidos" en nuestro informe de la RSD.
Publicado: 17 de junio de 2024
Última actualización: 17 de junio de 2024
Este Informe de transparencia se publica de acuerdo con los artículos 7, apartado 2, y 7, apartado 3, del Reglamento 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenidos terroristas en línea (el Reglamento). Abarca el período sobre el que se informa del 1 de enero al 31 de diciembre de 2023.
Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de alojamiento en relación con la identificación y eliminación o inhabilitación del acceso a contenidos terroristas
Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de alojamiento para hacer frente a la reaparición en línea de material que ha sido eliminado previamente o al que se ha desactivado el acceso por considerarse contenido terrorista, en particular, cuando se hayan utilizado herramientas automatizadas
Los terroristas, organizaciones terroristas y extremistas violentos tienen prohibido utilizar Snapchat. El contenido que abogue, promueva, glorifique o impulse el terrorismo u otros actos delictivos violentos está prohibido por nuestras Pautas para la comunidad. Los usuarios pueden denunciar contenido que infrinja nuestras Pautas para la comunidad a través de nuestro menú de denuncias en la aplicación y nuestro sitio de ayuda. También utilizamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubre.
Independientemente de cómo podamos tener conocimiento de una infracción de contenidos, nuestros equipos de Confianza y Seguridad, a través de una combinación de automatización y moderación humana, revisan rápidamente el contenido identificado y toman decisiones de cumplimiento. Las medidas coercitivas pueden incluir eliminar el contenido, advertir o bloquear la cuenta infractora y, si se justifica, denunciar la cuenta a las fuerzas del orden. Para prevenir la reaparición de contenido terrorista o extremista violento en Snapchat, además de trabajar con las fuerzas del orden, tomamos medidas para bloquear el dispositivo asociado a la cuenta infractora e impedir que el usuario cree otra cuenta de Snapchat.
Puedes encontrar más detalles sobre nuestras medidas para identificar y eliminar contenido terrorista en nuestra Explicación sobre contenido de odio, terrorismo y extremismo violento y nuestra Explicación sobre moderación, aplicación de la ley y apelaciones.
Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o cuyo acceso se ha bloqueado a raíz de órdenes de eliminación o medidas específicas, y el número de órdenes de eliminación donde el contenido no se ha eliminado o cuyo acceso no se ha bloqueado en conformidad con el artículo 3, apartado 7, y el párrafo primero del artículo 3, apartado 8, junto con los motivos correspondientes
Durante el período sobre el que se informa, Snap no recibió ninguna orden de eliminación, ni se nos exigió que implementáramos ninguna medida específica de conformidad con el artículo 5 del Reglamento. En consecuencia, no se nos exigió que tomáramos medidas de cumplimiento en virtud del Reglamento.
La siguiente tabla describe las acciones de cumplimiento tomadas en función de las denuncias de los usuarios y la detección proactiva de contenidos y cuentas, tanto en la UE como en cualquier otro lugar del mundo, que infringen nuestras Pautas para la comunidad en relación con contenido de terrorismo y extremismo violento
Artículo 7(3)(d): el número y el resultado de las quejas tramitadas por el proveedor de servicios de alojamiento de acuerdo con el artículo 10
Artículo 7(3)(g): el número de casos en los que el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo a raíz de una queja por parte del proveedor de contenidos
Como no tuvimos acciones de cumplimiento requeridas en virtud del Reglamento durante el período sobre el que se informa como se señaló anteriormente, no tramitamos quejas de conformidad con el artículo 10 del Reglamento y no tuvimos restablecimientos asociados.
La siguiente tabla contiene información relacionada con apelaciones y restablecimientos, tanto en la UE como en otras partes del mundo, relacionados con contenido terrorista y extremista violento aplicados según nuestras Pautas para la comunidad.
Artículo 7(3)(e): el número y el resultado de los procedimientos de recurso administrativo o judicial interpuestos por el proveedor de servicios de alojamiento
Artículo 7(3)(f): número de casos en los que se requirió que el proveedor de servicios de alojamiento restableciera el contenido o el acceso al mismo como resultado de un procedimiento de recurso administrativo o judicial
Como no tuvimos acciones de cumplimiento requeridas en virtud del Reglamento durante el período sobre el que se informa, como se señaló anteriormente, no tuvimos procedimientos de recurso administrativo o judicial asociados, y no se nos exigió restablecer el contenido como resultado de dicho procedimiento.
Este informe se ha elaborado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y ofrece los resultados de nuestra evaluación de los riesgos del sistema derivados del diseño, la función y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación establecidas para abordar dichos riesgos.
Informe de evaluación de mitigación y riesgos de la DSA | Snapchat | Agosto de 2023 (PDF)
Estos informes se han elaborado para cumplir con las obligaciones de Snap en virtud del artículo 37 del Reglamento (UE) 2022/2065 y ofrecen: (i) los resultados de la auditoría independiente del cumplimiento de las obligaciones establecidas por parte de Snap en el capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas adoptadas para implementar las recomendaciones operativas de esa auditoría independiente.
Informe de auditoría independiente de la DSA | Snapchat | Agosto de 2024 (PDF)
Informe de implementación de auditoría de la DSA | Snapchat | Septiembre de 2024 (PDF)
Código de prácticas VSP de la UE
Snap es un proveedor de "servicio de plataforma de intercambio de videos" ("VSP") de conformidad con el artículo 1(1)(aa) de la AVMSD. Este Código de conducta («Código») se elaboró para describir cómo Snap cumple con sus obligaciones como VSP en virtud de la Ley de Medios Neerlandeses ("DMA") y la Directiva (UE) 2010/13 (modificada por la Directiva (UE) 2018/1808 (la "Directiva de servicios de medios audiovisuales" o "AVMSD")). El Código es aplicable en toda la Unión Europea, así como en el Espacio Económico Europeo.
Código de conducta VSP de la UE | Snapchat | Diciembre de 2024 (PDF)