25 de octubre de 2024
17 de diciembre de 2024
Te damos la bienvenida a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE exigida por la Ley de Servicios Digitales (DSA), la Directiva de Servicios de Comunicación Audiovisual (AVMSD), la Ley de Medios de los Países Bajos (DMA) y el Reglamento de Contenido Terrorista en Línea (TCO). Nota: La versión más actualizada de estos Informes de transparencia se encuentra en la localización en-US.
Snap Group Limited ha designado a Snap B.V. como su Representante legal para lo relativo a la DSA. Puedes comunicarte con el representante en dsa-enquiries [@] snapchat.com para DSA, en vsp-enquiries [@] snapchat.com para AVMSD y DMA, a tco-enquiries [@] snapchat.com para TCO, a través de nuestro Sitio de soporte [aquí], o en:
Snap B.V.
Keizersgracht 165, 1016 DP
Ámsterdam, Países Bajos
Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí.
Comunícate en inglés u holandés cuando te pongas en contacto con nosotros.
En el caso de la DSA, nos rige la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). En el caso de la AVMSD y la DMA, nos rige la Autoridad de Medios de Comunicación de los Países Bajos (CvdM). En el caso del TCO, nos rige la Autoridad de los Países Bajos para la prevención de contenido terrorista en línea y material de abuso sexual infantil (ATKM).
Última actualización: 25 de octubre de 2024
Publicamos este informe sobre nuestros esfuerzos de moderación de contenido en Snapchat de acuerdo con los requisitos de notificación de transparencia previstos en los Artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento (UE) 2022/2065) ("DSA"). Salvo que se indique lo contrario, la información contenida en este informe es para el período de informe comprendido entre el 1 de enero de 2024 y el 30 de junio de 2024 (primer semestre de 2024) y cubre la moderación de contenido en las funciones de Snapchat que están reguladas por la DSA.
Nos esforzamos continuamente por mejorar nuestros informes. Para este período de informes (primer semestre de 2024), hemos realizado cambios en la estructura de nuestro informe con tablas nuevas y más diferenciadas para proporcionar una mejor información sobre nuestros esfuerzos de moderación de contenido.
Al 1 de octubre de 2024, tenemos un promedio de 92.9 millones de destinatarios activos mensuales ("AMAR") de nuestra app de Snapchat en la UE. Esto significa que, en el período de los últimos 6 meses finalizado el 30 de septiembre de 2024, un promedio de 92.9 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez al mes.
Esta cifra se desglosa por Estado miembro del siguiente modo:
Estas cifras se calcularon para cumplir los requisitos actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, hemos ajustado la forma en que calculamos esta cifra debido a cambios en la política interna, las orientaciones de los reguladores y la tecnología, y las cifras no deben compararse entre periodos. También es posible que difiera de los cálculos empleados para otras cifras de usuarios activos que compartimos con diferentes propósitos.
Durante este período de informe (primer semestre de 2024), recibimos cero (0) órdenes de actuar contra contenido ilegal identificado específicamente por parte de las autoridades de los Estados miembros de la UE, incluidas las emitidas de acuerdo con el Artículo 9 de la DSA.
Como este número es cero (0), no podemos proporcionar un desglose por el tipo de contenido ilegal en cuestión o por el Estado miembro que emite la orden, ni por el tiempo promedio para cumplir con las órdenes.
Durante este período de informe (primer semestre de 2024), recibimos las siguientes órdenes de divulgar datos de los usuarios por parte de autoridades de los Estados miembro de la UE, incluidas las emitidas de acuerdo con el Artículo 10 de la DSA:
El tiempo promedio para informar a las autoridades pertinentes sobre la recepción de estas órdenes de proporcionar información fue de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción.
El tiempo promedio para cumplir con estas órdenes de proporcionar información fue de ~7 días. Esta métrica refleja el período de tiempo desde que Snap recibió una orden hasta que Snap consideró que el asunto se había resuelto completamente, lo que en casos individuales puede depender en parte de la velocidad con la cual la autoridad del Estado miembro correspondiente responda a cualquier solicitud de aclaración de Snap necesaria para procesar la orden.
Ten en cuenta que no proporcionamos un desglose de las órdenes anteriores de proporcionar información categorizadas por el tipo de contenido ilegal en cuestión porque generalmente no disponemos de esta información.
Todo el contenido de Snapchat debe cumplir con nuestros Lineamientos de la comunidad y los Términos y condiciones de servicio. Cierto contenido también debe cumplir con lineamientos y políticas adicionales. Por ejemplo, el contenido enviado para recomendación algorítmica a un público más amplio en nuestras superficies de transmisión pública debe cumplir con los estándares adicionales y más altos estipulados en nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, mientras que los anuncios deben cumplir con nuestras Políticas publicitarias.
Hacemos cumplir estas políticas usando tecnología y revisión humana. También proporcionamos mecanismos para que los Snapchatters denuncien infracciones, incluido el contenido y las actividades ilegales, directamente en la aplicación o a través de nuestro sitio web. Las denuncias y los mecanismos de detección proactivos activan una revisión, que luego aprovecha una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas adecuadas de acuerdo con nuestras políticas.
Proporcionamos más información sobre nuestra moderación de contenido en nuestras superficies públicas en el primer semestre de 2024 a continuación.
De acuerdo con el Artículo 16 de la DSA, Snap ha instituido mecanismos que permiten a los usuarios y no usuarios notificar a Snap sobre la presencia en Snapchat de elementos específicos de información que consideran contenido ilegal. Pueden hacerlo denunciando cuentas o contenidos específicos, ya sea directamente en la aplicación de Snapchat o en nuestro sitio web.
Durante el período de informes (primer semestre de 2024), recibimos las siguientes notificaciones enviadas de acuerdo con el Artículo 16 de la DSA en la UE:
A continuación, proporcionamos un desglose que refleja cómo se procesaron estas notificaciones, es decir, a través de un proceso que incluye revisión humana o únicamente a través de medios automatizados:
Al enviar notificaciones desde la aplicación o a través de nuestro sitio web, los denunciantes pueden seleccionar un motivo de denuncia específico en un menú de opciones que refleje las categorías de infracciones enumeradas en nuestros Lineamientos de la comunidad (por ejemplo, discurso de odio, venta o consumo de drogas). Nuestros Lineamientos de la comunidad prohíben el contenido y las actividades que son ilegales en la UE, por lo tanto, nuestras razones para denunciar reflejan en gran medida categorías específicas de contenido ilegal en la UE. Sin embargo, en la medida en que un denunciante en la UE crea que la cuenta o el contenido que denuncia son ilegales por razones no mencionadas específicamente en nuestro menú de denuncias, puede denunciarlo como "otro contenido ilegal" y tendrá la oportunidad de explicar por qué cree que lo que denuncia es ilegal.
Si, tras la revisión, determinamos que la cuenta o el contenido denunciados infringen nuestros Lineamientos de la comunidad (incluso por razones de ilegalidad), podemos (i) eliminar el contenido objetable, (ii) advertir al titular de la cuenta correspondiente y aplicar una falta a la cuenta, y/o (iii) bloquear la cuenta correspondiente, como se explica con más detalle en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat.
En el primer semestre de 2024, aplicamos las siguientes penalizaciones al recibir notificaciones enviadas en conformidad con el artículo 16 de la DSA en la UE:
En el primer semestre de 2024, todas las denuncias por "otro contenido ilegal" que accionamos recibieron finalmente medidas de cumplimiento en virtud de nuestros Lineamientos de la comunidad, porque nuestros Lineamientos de la comunidad prohibían el contenido o la actividad relevante. Por lo tanto, categorizamos estas medidas de cumplimiento en la categoría correspondiente de infracción a los Lineamientos de la comunidad en la tabla anterior.
Además de las medidas de cumplimiento anteriores, podemos tomar medidas sobre el contenido que se nos notifica en conformidad con otras políticas y lineamientos de Snap aplicables:
En lo que respecta a los contenidos en nuestras superficies de difusión pública, si determinamos que el contenido denunciado no cumple con los estándares más altos de nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, podemos rechazar el contenido para la recomendación algorítmica (si el contenido no cumple con nuestros criterios de elegibilidad), o podemos limitar la distribución del contenido para excluir a audiencias sensibles (si el contenido cumple con nuestros criterios de elegibilidad para las recomendaciones, pero por lo demás es sensible o sugerente).
En el primer semestre de 2024, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión pública de Snapchat que se nos reportó en la UE, de acuerdo con nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones
Si determinamos que una publicidad denunciada infringe nuestras Políticas publicitarias, podemos eliminarla tras la revisión.
En el primer semestre de 2024, tomamos las siguientes medidas con respecto a los anuncios que nos fueron denunciados en la UE:
Además de revisar las notificaciones enviadas de acuerdo con el Artículo 16 de la DSA, Snap modera, por propia iniciativa, el contenido en las superficies públicas de Snapchat (por ejemplo, Spotlight, Descubre). A continuación proporcionamos información sobre la moderación de contenido realizada por iniciativa propia de Snap, incluido el uso de herramientas automatizadas, las medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido y el número y los tipos de restricciones impuestas como resultado de esos esfuerzos proactivos de moderación de contenido.
Uso de herramientas automatizadas en la moderación por propia iniciativa de Snap
Implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, aplicar medidas de cumplimiento a las infracciones a nuestros términos y políticas en nuestras superficies de contenido público. Esto incluye herramientas de coincidencia de hash (como PhotoDNA y Google CSAI Match), modelos de Detección de lenguaje abusivo (que detectan y rechazan el contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), e inteligencia artificial / tecnología de aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones a nuestros Lineamientos de la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones y las Políticas publicitarias.
En el primer semestre de 2024, toda nuestra detección proactiva se llevó a cabo usando herramientas automatizadas. Cuando nuestras herramientas automatizadas detectan un posible incumplimiento a nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana. A continuación se describen el número y los tipos de restricciones impuestas como resultado de este proceso.
Número y tipos de restricciones impuestas por iniciativa propia de Snap
En el primer semestre de 2024, Snap tomó las siguientes medidas de cumplimiento después de detectar proactivamente, a través del uso de herramientas automatizadas, infracciones a nuestros Lineamientos de la comunidad (incluidas infracciones que equivalen a contenido y actividades ilegales en virtud de las leyes de la UE y de los Estados miembro):
Además, en el primer semestre de 2024, en lo que respecta al contenido en nuestras superficies de difusión pública, tomamos las siguientes medidas después de haber detectado proactivamente en Snapchat a través del uso de herramientas automatizadas infracciones a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones:
* Como se estableció en nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones, las cuentas que infrinjan reiteradamente o de forma notoria nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones podrían ser descalificadas de forma temporal o permanente para las recomendaciones en nuestras superficies de difusión pública. Aplicamos esta medida en el contexto de nuestros esfuerzos de moderación proactivos.
Además, en el primer semestre de 2024, tomamos las siguientes medidas después de detectar proactivamente en Snapchat, a través del uso de herramientas automatizadas, infracciones a nuestras Políticas publicitarias:
Medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido
Nuestros equipos de moderación de contenido aplican nuestras políticas de moderación de contenido para ayudar a proteger a la comunidad de Snapchat. La capacitación se lleva a cabo durante un periodo de varias semanas, en el cual los nuevos miembros del equipo reciben formación sobre las políticas, herramientas y procedimientos de escalamiento de Snap. Nuestros equipos de moderación participan regularmente en cursos de actualización relevantes para sus flujos de trabajo, particularmente cuando nos encontramos con casos límite en relación con las políticas y dependientes del contexto. También ejecutamos programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén actualizados y cumplan con todas las políticas vigentes. Por último, cuando surgen tendencias de contenido urgentes en función de la actualidad, difundimos rápidamente aclaraciones de políticas para que los equipos puedan responder de acuerdo con las políticas de Snap.
Proporcionamos a nuestros equipos de moderación de contenido un apoyo y recursos significativos, incluido apoyo para el bienestar en el trabajo y un fácil acceso a servicios de salud mental.
Los usuarios cuyas cuentas hayan sido bloqueadas por nuestros equipos de seguridad por infracciones a los Lineamientos de la comunidad (incluido el contenido y las actividades ilegales) pueden presentar una apelación por cuenta bloqueada. Los usuarios también pueden apelar ciertas decisiones de moderación de contenido.
Durante el período de informes (primer semestre de 2024), Snap procesó las siguientes apelaciones (incluidas apelaciones por bloqueo de cuenta y por decisiones de moderación a nivel de contenido) presentadas a través de sus sistemas internos de gestión de quejas en la UE:
Descripción cualitativa y propósitos
Como se explicó anteriormente en la Sección 3(b), implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, aplicar medidas de cumplimiento a las infracciones de nuestros términos y políticas en nuestras superficies de Contenido público. Esto incluye herramientas de coincidencia de hash (como PhotoDNA y Google CSAI Match), modelos de Detección de lenguaje abusivo (que detectan y rechazan el contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos), e inteligencia artificial / tecnología de aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones a nuestros Lineamientos de la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, a nuestros Lineamientos del contenido sobre los requisitos para las recomendaciones y las Políticas publicitarias.
Cuando nuestras herramientas automatizadas detectan un posible incumplimiento a nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana.
Indicadores de precisión y posible tasa de error, desglosados por Estado miembro
Monitoreamos la precisión de nuestras herramientas de moderación automatizadas seleccionando muestras aleatorias de tareas procesadas por nuestras herramientas automatizadas en nuestras superficies públicas y enviándolas para que sean revisadas nuevamente por nuestros equipos de moderación humana. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias que fueron confirmadas por nuestros moderadores humanos tras la nueva revisión. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada como se describió anteriormente.
Basándose en el muestreo, en el primer semestre de 2024, los indicadores de precisión y la posible tasa de error de los medios automatizados usados en todas las categorías de infracciones fueron de aproximadamente el 93 % y la tasa de error fue de aproximadamente el 7 %.
Por lo general, no hacemos un seguimiento del idioma del contenido que moderamos en Snapchat, por lo tanto, no podemos proporcionar un desglose de las tasas de precisión y de error para nuestras herramientas de moderación automatizadas para cada idioma oficial de los Estados miembro. Como representación de esta información, proporcionamos a continuación un desglose de nuestras tasas de precisión y de error para el contenido moderado automáticamente que se origina en cada Estado miembro.
Protecciones
Somos conscientes del posible impacto de las herramientas de moderación automatizada en los derechos fundamentales, e implementamos protecciones para minimizar ese impacto.
Nuestras herramientas automatizadas de moderación de contenido se prueban antes de implementarlas en Snapchat. Los modelos se prueban fuera de línea para determinar su desempeño y se implementan a través de pruebas A/B para garantizar su funcionamiento adecuado antes de que entren completamente en producción. Realizamos revisiones de Control de calidad (QA) previas al lanzamiento, revisiones de lanzamiento y revisiones de control de calidad de precisión continuas durante los lanzamientos parciales (graduales).
Después del lanzamiento de nuestras herramientas automatizadas, evaluamos su desempeño y precisión de forma continua, y hacemos los ajustes necesarios. Este proceso implica una nueva revisión de muestras de tareas automatizadas por parte de nuestros moderadores humanos para identificar modelos que requieren ajustes con el fin de mejorar la precisión. También monitoreamos la prevalencia de daños específicos en Snapchat a través de un muestreo diario aleatorio de Historias públicas, y aprovechamos esta información para identificar áreas en las que se puede seguir mejorando.
Nuestras políticas y sistemas promueven una aplicación coherente y justa de las regulaciones, inclusive por parte de nuestras herramientas automatizadas, y ofrecemos a los Snapchatters la oportunidad de disputar de manera significativa los resultados de la aplicación de las regulaciones a través de procesos de notificación y apelación que tienen como objetivo proteger los intereses de nuestra comunidad y a la vez proteger los derechos individuales de cada Snapchatter.
Nos esforzamos por mejorar continuamente nuestras herramientas automatizadas de moderación de contenido para mejorar su precisión y respaldar la aplicación constante y justa de nuestras políticas.
Para el período de informes (primer semestre de 2024), el número de controversias presentadas a órganos extrajudiciales certificados formalmente de acuerdo con el Artículo 21 de la DSA fue cero (0), y no podemos proporcionar un desglose que refleje los resultados, el tiempo promedio de finalización o la proporción de controversias en las que Snap implementó las decisiones de un órgano extrajudicial de resolución de controversias.
Ten en cuenta que, en el primer semestre de 2024, recibimos dos (2) notificaciones de controversias enviadas a un organismo que buscaba la certificación como organismo extrajudicial de resolución de controversias en virtud del Artículo 21 de la DSA. No incluimos estas controversias en el recuento anterior, ya que el organismo que transmitió estas notificaciones de controversias no pudo verificar su estado de certificación cuando lo solicitamos.
Suspensiones de conformidad con el Artículo 23.1: suspensión de cuentas que con frecuencia proporcionan contenido manifiestamente ilegal
Como se explicó en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat, las cuentas que determinamos que se usan principalmente para infringir nuestros Lineamientos de la comunidad (incluso a través de la disposición de contenido manifiestamente ilegal) y las cuentas que causan daños graves se desactivan inmediatamente. Para otras infracciones de nuestros lineamientos de la comunidad, Snap generalmente tiene un proceso de aplicación de las normas que consta de tres pasos:
Paso uno: se elimina el contenido infractor.
Paso dos: el Snapchatter recibe una notificación en la que se indica que infringió nuestros lineamientos de la comunidad, que se eliminó su contenido y que, si continúa cometiendo infracciones, se tomarán medidas adicionales, como la desactivación de su cuenta.
Paso tres: nuestro equipo registra una falta en la cuenta del Snapchatter.
Encontrarás más arriba, en las Secciones 3(a) y 3(b), información sobre el número de faltas (es decir, advertencias) y bloqueos impuestos en el primer semestre de 2024 en cuentas en la UE en relación con el contenido o las actividades en las superficies públicas de Snapchat.
Suspensiones de conformidad con el Artículo 23.2: suspensión sobre el procesamiento de notificaciones y quejas de personas, entidades y denunciantes que con frecuencia presentan notificaciones o quejas que son manifiestamente infundadas
Aplicando nuestra definición interna de notificaciones y quejas "manifiestamente infundadas" y nuestros umbrales internos para lo que consideramos la presentación frecuente de dichas notificaciones y quejas, el número de suspensiones en el procesamiento de notificaciones y quejas impuestas en el primer semestre de 2024 de conformidad con el Artículo 23.2 de la DSA es el siguiente:
Dado que nuestros equipos de moderación de contenido operan en todo el mundo, esto nos permite ayudar a mantener a los Snapchatters a salvo las 24 horas del día, los 7 días de la semana. A continuación encontrarás un desglose de nuestros recursos de moderación humana según las especialidades de idioma de los moderadores (ten en cuenta que algunos moderadores se especializan en varios idiomas) al 30 de junio de 2024:
La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenido que admiten los idiomas oficiales de los Estados miembros de la UE al 30 de junio de 2024. En situaciones en las que necesitamos soporte lingüístico adicional, utilizamos servicios de traducción.
Los moderadores se contratan utilizando una descripción de trabajo estándar que incluye un requisito de idioma (según la necesidad). El requisito de idioma establece que el candidato debe ser capaz de demostrar fluidez escrita y hablada en el idioma y tener al menos un año de experiencia laboral para puestos de nivel inicial. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o la región en la que van a moderar los contenidos.
Consulta la información anterior sobre la capacitación y el apoyo que Snap proporciona a los moderadores de contenido, lo que se requiere por separado en virtud del Artículo 15(1)(c) de la DSA y, por lo tanto, se incluye en la Sección 3(b), en la subsección final titulada: "Medidas adoptadas para proporcionar capacitación y asistencia a las personas a cargo de la moderación de contenido"
Antecedentes
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.
Usamos la sólida coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de los Estados Unidos, según lo exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.
Informe
Los datos que se indican a continuación se basan en el resultado del escaneo proactivo mediante PhotoDNA o la coincidencia de CSAI de los medios cargados por la cámara de un usuario a Snapchat.
Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica importantes recursos a este tema y tiene tolerancia cero con este tipo de conducta. Se requiere capacitación especial para revisar las apelaciones de CSE, y hay un equipo limitado de representantes que se ocupan de estas revisiones debido a la naturaleza gráfica del contenido. Durante el otoño de 2023, Snap implementó cambios de política que afectaron la coherencia de ciertas aplicaciones de CSE, y hemos abordado estas inconsistencias mediante la recapacitación de nuestros representantes y un riguroso control de calidad. Esperamos que el próximo informe de transparencia revele avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y de la precisión de las ejecuciones iniciales.
Salvaguardas de moderación de contenido
Las salvaguardas aplicadas para el escaneo de medios de CSEA se establecen en la sección anterior "Salvaguardas de moderación de contenido" incluida en nuestro informe de la DSA.
Publicado: 17 de junio de 2024
Última actualización: 17 de junio de 2024
Este Informe de transparencia se publica de conformidad con los Artículos 7(2) y 7(3) del Reglamento 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenido terrorista en línea (el Reglamento). Cubre el período de informes entre el 1 de enero y el 31 de diciembre de 2023.
Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de alojamiento en relación con la identificación y la eliminación o la desactivación del acceso al contenido terrorista
Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de alojamiento para abordar la reaparición en línea de material que se haya eliminado o cuyo acceso se haya desactivado previamente por haber sido considerado contenido terrorista, en particular cuando se hayan usado herramientas automatizadas
Se prohíbe a los terroristas, las organizaciones terroristas y los extremistas violentos usar Snapchat. El contenido que propugne, promueva, glorifique o fomente el terrorismo u otros actos violentos y delictivos está prohibido por nuestros Lineamientos de la comunidad. Los usuarios pueden denunciar el contenido que infringe nuestros Lineamientos de la comunidad a través de nuestro menú de denuncias en la aplicación y en nuestro Sitio de soporte. También usamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubre.
Independientemente de cómo podamos darnos cuenta de que existe contenido en infracción, nuestros equipos de Confianza y seguridad, a través de una combinación de automatización y moderación humana, revisan rápidamente el contenido identificado y toman decisiones relacionadas con el cumplimiento. Las medidas de cumplimiento pueden incluir eliminar el contenido, enviar una advertencia o bloquear la cuenta en infracción y, si se justifica, denunciar la cuenta a las autoridades. Para prevenir la reaparición de contenido terrorista o de otro tipo de contenido extremista violento en Snapchat, además de trabajar con las autoridades, tomamos medidas para bloquear el dispositivo asociado con la cuenta infractora y evitar que el usuario cree otra cuenta de Snapchat.
Puedes encontrar más detalles sobre nuestras medidas para identificar y eliminar contenido terrorista en nuestro Explicativo sobre contenido de odio, terrorismo y extremismo violento y en nuestro Explicativo sobre moderación, cumplimiento y apelaciones.
Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o cuyo acceso se haya desactivado después de órdenes de eliminación o de medidas específicas, y el número de órdenes de eliminación en las cuales el contenido no se haya eliminado o cuyo acceso no se haya desactivado de conformidad con el primer párrafo del Artículo 3(7) y el primer párrafo del Artículo 3(8), junto con los fundamentos
Durante el período de informes, Snap no recibió ninguna orden de eliminación, ni se nos exigió que implementáramos ninguna medida específica de conformidad con el Artículo 5 del Reglamento. En consecuencia, no se nos exigió que tomáramos medidas de cumplimiento en virtud del Reglamento.
La siguiente tabla describe las medidas de cumplimiento adoptadas en función de las denuncias de los usuarios y la detección proactiva contra el contenido y las cuentas que infringieron nuestros Lineamientos de la comunidad relacionados con el contenido de terrorismo y extremismo violento, tanto en la UE como en otras partes del mundo
Artículo 7(3)(d): el número y el resultado de las quejas manejadas por el proveedor de servicios de alojamiento de acuerdo con el Artículo 10
Artículo 7(3)(g): el número de casos en los cuales el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo después de una queja del proveedor de contenidos
Como no se nos requirieron medidas de cumplimiento en virtud del Reglamento durante el período de informe, como se señaló anteriormente, no manejamos quejas de conformidad con el Artículo 10 del Reglamento y no tuvimos restablecimientos asociados.
La siguiente tabla contiene información relacionada con apelaciones y restablecimientos, tanto en la UE como en otros lugares del mundo, que involucran contenido de terrorismo y extremismo violento, y que hemos aplicado en virtud de nuestros Lineamientos de la comunidad.
Artículo 7(3)(e): el número y el resultado de los procedimientos de revisión administrativa o judicial interpuestos por el proveedor de servicios de alojamiento
Artículo 7(3)(f): el número de casos en los cuales se requirió al proveedor de servicios de alojamiento que restableciera el contenido o el acceso al mismo como consecuencia de procedimientos de revisión administrativa o judicial
Como no se nos requirieron medidas de cumplimiento en virtud del Reglamento durante el período de informe, como se señaló anteriormente, no tuvimos procedimientos de revisión administrativa o judicial asociados, y no se nos exigió restablecer el contenido como resultado de dichos procedimientos.
Este informe se ha preparado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y proporciona los resultados de nuestra evaluación de los riesgos del sistema derivados del diseño, la función y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación establecidas para abordar esos riesgos.
Informe de evaluación de riesgos y mitigación de DSA | Snapchat | Agosto de 2023 (PDF)
Estos informes se han preparado para cumplir con las obligaciones de Snap en virtud del artículo 37 del Reglamento (UE) 2022/2065 y proporcionar: (i) los resultados de la auditoría independiente del cumplimiento de Snap con las obligaciones establecidas en el capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas adoptadas para implementar las recomendaciones operativas de esa auditoría independiente.
Informe de auditoría independiente de DSA | Snapchat | Agosto de 2024 (PDF)
Informe de implementación de auditoría de DSA | Snapchat | Septiembre de 2024 (PDF)
Código de prácticas VSP de la UE
Snap es un proveedor de "servicio de plataforma para compartir videos" ("VSP") de conformidad con el artículo 1(1)(aa) AVMSD. Este Código de conducta ("Código") se ha preparado para describir cómo Snap cumple con sus obligaciones como VSP en virtud de la Ley de medios holandeses ("DMA") y la Directiva (UE) 2010/13 (modificada por la Directiva (UE) 2018/1808 (la "Directiva de servicios de medios audiovisuales" o "AVMSD")). El Código es aplicable en toda la Unión Europea, así como en el Espacio Económico Europeo.
Código de conducta VSP de la UE | Snapchat | Diciembre de 2024 (PDF)