Privacy, Safety, and Policy Hub
Unión Europea
1 de enero de 2024 - 30 de junio de 2024

Publicado:

25 de octubre de 2024

Actualizado:

17 de diciembre de 2024

Te damos la bienvenida a nuestra página de transparencia para la Unión Europea (UE), donde publicamos información específica para la UE requerida por la Reglamento de servicios digitales (DSA, según sus siglas en inglés), la Directiva de servicios de comunicación audiovisual (AVMSD, según sus siglas en inglés), la Ley de medios de comunicación de los Países Bajos (DMA, según sus siglas en inglés) y el Reglamento sobre contenidos terroristas en línea (TCO, según sus siglas en inglés). Recuerda que la versión más actualizada de este informe de transparencia está disponible en la versión en-US (inglés de Estados Unidos).

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal a efectos de la DSA. Puedes ponerte en contacto con el representante en dsa-enquiries [arroba] snapchat.com respecto al DSA, en vsp-enquiries [arroba] snapchat.com respecto a la AVMSD y la DMA, en tco-enquiries [arroba] snapchat.com respecto al TCO, a través de nuestro sitio web de Ayuda [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí.

Cuando te pongas en contacto con nosotros, comunícate en inglés o neerlandés.

Autoridades reguladoras

En el caso de DSA, estamos regulados por la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). En el caso de la AVMSD y la DMA, estamos regulados por la Autoridad Neerlandesa de Medios de Comunicación (CvdM, según sus siglas en neerlandés). En el caso del TCO, estamos regulados por la Autoridad de los Países Bajos para la prevención del contenido terrorista en línea y el material de abuso sexual infantil (ATKM).

Informe de transparencia de la DSA

Última actualización: 25 de octubre de 2024

Publicamos este informe sobre nuestros esfuerzos de moderación de contenido en Snapchat de acuerdo con los requisitos de informes de transparencia recogidos en los artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento (UE) 2022/2065) ("DSA"). Salvo que se indique lo contrario, la información contenida en este informe corresponde al período de informe comprendido entre el 1 de enero de 2024 y el 30 de junio de 2024 (primer semestre de 2024) y cubre la moderación de contenido sobre las funciones de Snapchat que están reguladas por la DSA. 

Nos esforzamos continuamente por mejorar nuestros informes. Para este período de informe (primer semestre de 2024), hemos realizado cambios en la estructura de nuestro informe con tablas nuevas y más diferenciadas para proporcionar una mejor información sobre nuestros esfuerzos de moderación de contenido. 

1. Promedio mensual de destinatarios activos
(Artículos 24.2 y 42.3 del DSA)


Al 1 de octubre de 2024, contamos con un promedio de 92,9 millones de destinatarios activos mensuales (AMAR, por sus siglas en inglés) de nuestra aplicación Snapchat en la UE. Esto significa que, en el periodo de 6 meses terminado el 30 de septiembre de 2024, un promedio de 92,9 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro de la siguiente manera:

Estas cifras se calcularon para cumplir los requisitos actuales de la DSA y solo deben tenerse en cuenta a efectos de la DSA. Con el tiempo, hemos ajustado la metodología para calcular esta cifra en función de cambios en la política interna, las pautas de los reguladores y la tecnología, y no pretendemos que las cifras puedan compararse entre periodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.

2. Requerimientos por parte de la autoridad de Estados miembros
(Artículo 15.1(a) del DSA)
a) Órdenes de actuación contra contenido ilegal


Durante este período de informe (1er semestre de 2024), recibimos cero (0) órdenes de actuación contra piezas de contenido ilegal específicamente identificadas por parte de las autoridades de los Estados miembros de la UE, incluidas las emitidas de conformidad con el artículo 9 de la DSA. 

Debido a que este número es cero (0), no podemos proporcionar un desglose por tipo de contenido ilegal en cuestión o por Estado miembro que emitió la orden, ni el promedio de tiempo en el que se acusó recibo o se dio efecto a las órdenes.

b) Órdenes para proporcionar información 


Durante este período de informe (1er semestre de 2024), recibimos las siguientes órdenes de divulgación de datos de usuario de las autoridades de los Estados miembros de la UE, incluidas las emitidas de conformidad con el artículo 10 de la DSA:


El tiempo medio para informar a las autoridades pertinentes de la recepción de estas órdenes para proporcionar información fue de 0 minutos; proporcionamos una respuesta automatizada que confirma la recepción.

El tiempo medio para dar efecto a estas órdenes para proporcionar información fue de aproximadamente 7 días. Esta métrica refleja el período de tiempo desde que Snap recibió una orden hasta cuando Snap consideró que el asunto se había resuelto completamente, lo que en casos concretos puede depender en parte de la velocidad con la que la autoridad del Estado miembro correspondiente responda a cualquier solicitud de aclaración de Snap necesaria para procesar la orden.

Nota: No proporcionamos un desglose de las órdenes anteriores para proporcionar información categorizada por tipo de contenido ilegal en cuestión porque esta información no está generalmente disponible para nosotros.

3. Moderación de contenido 


Todo el contenido publicado en Snapchat debe cumplir con nuestras Pautas para la comunidad y las Condiciones de servicio. Determinado contenido también debe cumplir con pautas y normas adicionales. Por ejemplo, el contenido enviado para recomendación algorítmica a una audiencia más amplia en nuestras superficies de difusión pública debe cumplir con las normas adicionales y más estrictas proporcionadas en nuestras Pautas para el contenido sobre los requisitos de las recomendaciones, mientras que los anuncios deben cumplir con nuestras Normas de publicidad.

Aplicamos estas normas utilizando tecnología y revisión humana. También proporcionamos mecanismos para que los Snapchatters denuncien infracciones, incluido el contenido y las actividades ilegales, directamente en la aplicación o a través de nuestro sitio web. Los mecanismos e informes de detección proactiva dan lugar a una revisión, que posteriormente implica una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas adecuadas de acuerdo con nuestras políticas. 

A continuación, proporcionamos más información sobre nuestra moderación de contenido en nuestras superficies públicas en el primer semestre de 2024.

a) Notificaciones enviadas de conformidad con el artículo 16 de la DSA 
(DSA, artículo 15.1(b))

De conformidad con el artículo 16 de la DSA, Snap ha implementado mecanismos que permiten a usuarios y no usuarios alertar a Snap de la presencia en Snapchat de elementos específicos de información que consideran contenido ilegal. Pueden hacerlo denunciando piezas de contenido específicas o cuentas, tanto directamente en la aplicación Snapchat como en nuestro sitio web. 

Durante el período de informe (1.er semestre de 2024), hemos recibido las siguientes notificaciones, enviadas de conformidad con el artículo 16 de la DSA en la UE:


A continuación, ofrecemos un desglose que refleja cómo se procesaron estas notificaciones, es decir, a través de un proceso que incluye una revisión humana o únicamente a través de medios automatizados: 

Al enviar avisos en la aplicación o a través de nuestro sitio web, los denunciantes pueden seleccionar un motivo de denuncia específico de un menú de opciones que refleja las categorías de infracciones enumeradas en nuestras Pautas para la comunidad (p. ej., discurso de odio, uso de drogas o ventas). Nuestras Pautas para la comunidad prohíben el contenido y las actividades que sean ilegales en la UE, por lo que nuestras razones de denuncia reflejan en gran medida categorías específicas de contenido ilegal en la UE. Sin embargo, en la medida en que un denunciante en la UE crea que el contenido o la cuenta que está denunciando es ilegal por razones no mencionadas específicamente en nuestro menú de denuncia, puede denunciarlo por "otro contenido ilegal" y se le da la oportunidad de explicar por qué cree que lo que está denunciando es ilegal.

Si, tras la revisión, determinamos que el contenido o la cuenta denunciados infringen nuestras Pautas para la comunidad (incluidas las razones de ilegalidad), podemos (i) eliminar el contenido ofensivo, (ii) advertir al titular de la cuenta correspondiente y aplicar una interrupción contra la cuenta, y/o (iii) bloquear la cuenta correspondiente, tal y como se explica con más detalle en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat

En el primer semestre de 2024, tomamos las siguientes medidas de cumplimiento al recibir las notificaciones enviadas de acuerdo con el artículo 16 de la DSA en la UE:

En el primer semestre de 2024, todas las denuncias por "otro contenido ilegal" que se produjeron se aplicaron en última instancia en virtud de nuestras Pautas para la comunidad porque estas prohibían el contenido o la actividad correspondiente. Por lo tanto, clasificamos estas medidas en la categoría correspondiente de incumplimiento de las Pautas para la comunidad en la tabla anterior.

Además de las medidas mencionadas arriba, podemos tomar medidas sobre el contenido que se nos notifique de acuerdo con otras normas y pautas de Snap aplicables: 

  • Con respecto al contenido en nuestras superficies de difusión pública, si determinamos que el contenido denunciado no cumple con los estándares más estrictos de nuestras Pautas de contenido sobre los requisitos para la recomendación, podemos rechazar el contenido para la recomendación algorítmica (si el contenido no cumple con nuestros criterios de elegibilidad) o podemos limitar la distribución del contenido para excluir a un público sensible (si el contenido cumple con nuestros criterios de elegibilidad para la recomendación, pero es sensible o trata ciertos temas).  

En el primer semestre de 2024, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión pública de Snapchat denunciado ante nosotros en la UE, de acuerdo con nuestras Pautas de contenido sobre los requisitos para la recomendación:

  • Si determinamos que un anuncio denunciado infringe nuestras Normas de publicidad, podemos eliminarlo tras la revisión. 


En el primer semestre de 2024, tomamos las siguientes medidas con respecto a los anuncios de los que recibimos denuncias en la UE:


b) Moderación de contenido realizada por iniciativa propia de Snap 
(Artículo 15.1(c))


Además de revisar las notificaciones enviadas de conformidad con el artículo 16 de la DSA, Snap modera, por su propia iniciativa, el contenido en las superficies públicas de Snapchat (p. ej., Spotlight, Descubre). A continuación, ofrecemos información sobre la moderación de contenido realizada por iniciativa propia de Snap, incluido el uso de herramientas automatizadas, las medidas adoptadas para proporcionar formación y asistencia a las personas a cargo de la moderación de contenido y el número y tipos de restricciones impuestas como resultado de esos esfuerzos de moderación de contenido proactiva.


  • Uso de herramientas automatizadas en la moderación por propia iniciativa de Snap


Implementamos herramientas automatizadas para detectar y, en algunos casos, hacer cumplir de forma proactiva las infracciones de nuestras condiciones y políticas en nuestras superficies de contenido público. Esto incluye herramientas de coincidencia de hash (incluidos PhotoDNA y Google CSAI Match), modelos de detección de lenguaje abusivo (que detectan y rechazan el contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos) y tecnología de inteligencia artificial/aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, nuestras Pautas de contenido sobre los requisitos para la recomendación y las Normas de publicidad. 


En el primer semestre de 2024, toda nuestra detección proactiva se llevó a cabo utilizando herramientas automatizadas. Cuando nuestras herramientas automatizadas detectan una posible infracción de nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana. A continuación, se describen el número y los tipos de restricciones impuestas como resultado de este proceso. 


  • Número y tipos de restricciones impuestas por iniciativa propia de Snap


En el primer semestre de 2024, Snap tomó las siguientes medidas de cumplimiento después de detectar proactivamente, a través del uso de herramientas automatizadas, las infracciones de nuestras Pautas para la comunidad (incluidas las infracciones correspondientes a contenido y actividades ilegales en virtud de las leyes de la UE y de los Estados miembros):

Además, en el primer semestre de 2024, con respecto al contenido en nuestras superficies de difusión pública, tomamos las siguientes medidas después de detectar proactivamente en Snapchat, mediante el uso de herramientas automatizadas, infracciones de nuestras Pautas de contenido sobre los requisitos para la recomendación:

* Tal y como se establece en nuestras Pautas de contenido sobre los requisitos para la recomendación, las cuentas que infrinjan de forma repetida o grave nuestras Pautas de contenido sobre los requisitos para la recomendación pueden ser descalificadas temporal o permanentemente de las recomendaciones en nuestras superficies de difusión pública. Aplicamos esta acción en el contexto de nuestros esfuerzos de moderación proactiva.

Además, en el primer semestre de 2024 tomamos las siguientes medidas después de detectar proactivamente en Snapchat, a través del uso de herramientas automatizadas, las infracciones de nuestras Normas de publicidad:

  • Medidas adoptadas para proporcionar formación y asistencia a las personas encargadas de la moderación de contenidos


Nuestros equipos de moderación de contenido aplican nuestras políticas de moderación de contenido para ayudar a proteger a nuestra comunidad de Snapchat. Se forman durante un período de varias semanas en el que se informa a los nuevos miembros del equipo sobre las políticas, herramientas y procesos de escalado de Snap. Nuestros equipos de moderación participan regularmente en cursos de actualización relevantes para sus flujos de trabajo, en particular cuando nos encontramos con casos en el límite de las políticas y dependientes del contexto. También llevamos a cabo programas de mejora de capacidades, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén al día y en cumplimiento de todas las versiones más recientes de las políticas. Por último, cuando surgen tendencias de contenido urgentes basadas en acontecimientos de actualidad, difundimos rápidamente aclaraciones de las políticas para que los equipos puedan reaccionar de acuerdo con las políticas de Snap.


Proporcionamos a nuestros equipos de moderación de contenido un respaldo y recursos significativos, incluido el apoyo al bienestar en el trabajo y un fácil acceso a servicios de salud mental. 

c) Quejas recibidas a través de los sistemas internos de gestión de quejas (es decir, recursos) de Snap 
(Artículo 15.1(d))


Los usuarios cuyas cuentas estén bloqueadas por nuestros equipos de seguridad por infracciones de las Pautas para la comunidad (incluido el contenido y las actividades ilegales) pueden presentar un recurso al bloqueo de su cuenta. Los usuarios también pueden apelar ciertas decisiones de moderación de contenido.

Durante el período de informe (1er semestre de 2024), Snap tramitó las siguientes apelaciones (incluidos los recursos contra bloqueos de cuentas y decisiones de moderación a nivel de contenido) presentadas a través de sus sistemas internos de gestión de quejas en la UE:

d) Uso de medios automatizados para la moderación de contenido 
(Artículos 15.1(e) y 42.2(c))

  • Descripción cualitativa y finalidades


Tal y como se explica arriba en la sección 3(b), implementamos herramientas automatizadas para detectar de manera proactiva y, en algunos casos, aplicar medidas contra las infracciones de nuestras condiciones y políticas en nuestras superficies de contenido público. Esto incluye herramientas de coincidencia de hash (incluidos PhotoDNA y Google CSAI Match), modelos de detección de lenguaje abusivo (que detectan y rechazan el contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos) y tecnología de inteligencia artificial/aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, nuestras Pautas de contenido sobre los requisitos para la recomendación y las Normas de publicidad. 

Cuando nuestras herramientas automatizadas detectan una posible infracción de nuestras políticas, toman medidas automáticamente de acuerdo con nuestras políticas o crean una tarea para la revisión humana. 

  • Indicadores de precisión y posible tasa de error, desglosados por Estado miembro


Supervisamos la precisión de nuestras herramientas de moderación automatizada seleccionando muestras aleatorias de las tareas procesadas por nuestras herramientas automatizadas en nuestras superficies públicas y enviándolas para su nueva revisión por parte de nuestros equipos de moderación humana. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias que fueron confirmadas por nuestros moderadores humanos después de la nueva revisión. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada según se describe arriba. 

A partir del muestreo, en el primer semestre de 2024 los indicadores de la precisión y la posible tasa de error de los medios automatizados utilizados en todas las categorías de infracciones fueron de aproximadamente el 93 % y la tasa de error fue de aproximadamente el 7 %. 

Por lo general, no hacemos un seguimiento del idioma del contenido que moderamos en Snapchat y, por lo tanto, no podemos proporcionar un desglose de la precisión y las tasas de error de nuestras herramientas de moderación automatizada para cada idioma oficial de los Estados miembros.  Como indicador de esta información, a continuación proporcionamos un desglose de nuestras tasas de precisión y error para el contenido moderado automáticamente que se origina en cada Estado miembro. 

  • Salvaguardias


Somos conscientes del impacto potencial de las herramientas de moderación automatizada sobre los derechos fundamentales, por lo que implementamos medidas de seguridad para minimizar ese impacto.

Nuestras herramientas automatizadas de moderación de contenido se prueban antes de su implementación en Snapchat. Los modelos se prueban en modo sin conexión para determinar el rendimiento y se implementan mediante pruebas A/B para garantizar su correcto funcionamiento antes de su puesta en producción. Realizamos revisiones de control de calidad (CC) antes del lanzamiento, revisiones en el lanzamiento y comprobaciones regulares de CC de precisión durante los despliegues parciales (escalonados). 

Tras el lanzamiento de nuestras herramientas automatizadas, evaluamos su rendimiento y precisión de forma regular y hacemos los ajustes necesarios. Este proceso implica la nueva revisión de muestras de tareas automatizadas por parte de nuestros moderadores humanos para identificar modelos que requieren ajustes para mejorar la precisión. También supervisamos la prevalencia de daños específicos en Snapchat a través del muestreo diario aleatorio de Historias públicas y aplicamos esta información para identificar áreas donde realizar mejoras adicionales. 

Nuestras políticas y sistemas promueven una aplicación coherente y justa, incluidas nuestras herramientas automatizadas, y ofrecen a los Snapchatters una verdadera oportunidad para resolver realmente las disputas que surjan, mediante procesos de Notificación y Apelación, cuyo objetivo es salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.

Nos esforzamos por mejorar continuamente nuestras herramientas automatizadas de moderación de contenido para mejorar su precisión y apoyar la aplicación coherente y justa de nuestras políticas.

e) Disputas presentadas ante los organismos de resolución extrajudicial de disputas de acuerdo con el artículo 21
(Artículo 24.1(a))

Para el período de informe (1er semestre de 2024), el número de disputas presentadas ante organismos de resolución extrajudicial de disputas formalmente certificados de conformidad con el artículo 21 de la DSA fue cero (0), y no podemos proporcionar un desglose que refleje los resultados, el promedio de tiempo para su conclusión o la proporción de disputas en las que Snap implementó las decisiones de un organismo de resolución extrajudicial de disputas.

Cabe tener en cuenta que, en el primer semestre de 2024, recibimos dos (2) notificaciones de disputas presentadas ante un organismo cuya certificación como organismo extrajudicial de resolución de disputas en virtud del artículo 21 de la DSA estaba en trámite. No incluimos estas disputas en el recuento anterior porque el organismo que transmitió estas notificaciones de disputas no pudo verificar el estado de su certificación en el momento de nuestra solicitud.

f) Suspensiones impuestas de conformidad con el artículo 23 
(Artículo 24.1(b))
  • Suspensiones de conformidad con el artículo 23.1: suspensión de cuentas que proporcionan frecuentemente contenido manifiestamente ilegal 

Tal y como se explica en nuestro Explicador de moderación, aplicación y recursos de apelación de Snapchat, las cuentas que determinemos que se utilizan principalmente para infringir nuestras Pautas para la comunidad (incluido el suministro de contenido manifiestamente ilegal) y las cuentas que causan daños graves se deshabilitan inmediatamente. Para todas las demás infracciones de nuestras Pautas para la comunidad, Snap suele aplicar un proceso de ejecución en tres partes:

  • Primer paso: se retira el contenido que infringe las normas.

  • Segundo paso: el Snapchatter recibe una notificación en la que se le indica que ha infringido nuestras Pautas para la comunidad, que su contenido ha sido eliminado y que, en caso de reiterarse la infracción, se tomarán medidas adicionales, incluida la desactivación de la cuenta.


  • Tercer paso: nuestro equipo procede a suspender la cuenta del Snapchatter.

La información sobre el número de medidas (p. ej., advertencias) y bloqueos impuestos en el primer semestre de 2024 en cuentas en la UE en relación con el contenido o las actividades en las superficies públicas de Snapchat se encuentra arriba, en las secciones 3(a) y 3(b).

  • Suspensiones de conformidad con el artículo 23.2: suspensión en la tramitación de notificaciones y quejas de personas, entidades y denunciantes que presentan frecuentemente notificaciones o quejas que son manifiestamente infundadas

Aplicando nuestra definición interna de denuncias y quejas "manifiestamente infundadas", y nuestros umbrales internos para lo que consideramos la frecuente presentación de dichas denuncias y quejas, el número de suspensiones en la tramitación de avisos y quejas impuestas en el primer semestre de 2024 de conformidad con el artículo 23.2 de la DSA es el siguiente:

4. Información sobre nuestros equipos de moderación de contenido 
a) Recursos humanos dedicados a la moderación de contenidos, incluido el cumplimiento de los artículos 16, 20 y 22 de la DSA, desglosados por idiomas oficiales de los Estados miembros
(Artículo 42.2(a))


Nuestros equipos de moderación de contenido operan en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapchatters las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana según las especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en múltiples idiomas) al 30 de junio de 2023:

La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenido que apoyan las lenguas oficiales de los Estados miembros de la UE al 30 de junio de 2024. En situaciones en las que necesitemos ayuda lingüística adicional, utilizamos servicios de traducción.

b) Cualificaciones y experiencia lingüística de los moderadores de contenido; formación y apoyo proporcionado
(Artículo 42.2(b))


Los moderadores se contratan utilizando una descripción estándar del puesto de trabajo que incluye un requisito de idioma (según se necesite). El requisito de idioma establece que el candidato debe ser capaz de demostrar fluidez escrita y oral en el idioma y tener al menos un año de experiencia laboral para puestos de nivel principiante. Los candidatos deben cumplir los requisitos de educación y formación para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o región en cuya moderación de contenido colaborarán. 

Consulta más arriba la información sobre la formación y el apoyo que Snap proporciona a los moderadores de contenido, lo que se requiere por separado en virtud del artículo 15(1)(c) de la DSA y se incluye en la sección 3(b), en la subsección final titulada: "Medidas adoptadas para proporcionar formación y asistencia a las personas encargadas de la moderación de contenido"

Informe de escaneo de medios de comunicación de explotación y abuso sexual de menores (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.


Hacemos uso de la sólida comparación de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.


Informe

Los siguientes datos se basan en el resultado del escaneo proactivo mediante PhotoDNA y/o CSAI Match de medios subidos a Snapchat por el rollo de la cámara de un usuario.

Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica recursos importantes a este fin y tiene tolerancia cero para este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE (del inglés, Explotación Sexual Infantil), y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la coherencia de ciertas medidas de CSE, y hemos abordado estas incoherencias a través de formaciones de refuerzo para los agentes y un riguroso control de calidad.  Esperamos que el próximo informe de transparencia detalle de los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de seguridad.  

Medidas de seguridad para la moderación de contenidos

Las medidas de seguridad aplicadas para el escaneo de medios CSEA se establecen en la sección anterior "Medidas de seguridad para la moderación de contenidos" bajo nuestro Informe de la DSA.


Informe de transparencia en línea sobre contenido terrorista en la Unión Europea

Publicado: 17 de junio de 2024

Última actualización: 17 de junio de 2024

Este informe de transparencia se publica de conformidad con los artículos 7(2) y 7(3) del Reglamento 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenido terrorista en línea (el Reglamento). Abarca el período de informe del 1 de enero al 31 de diciembre de 2023


Información general
  • Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de alojamiento en relación con la identificación y eliminación o la desactivación del acceso a contenido terrorista

  • Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de alojamiento para abordar la reaparición en línea de material que ha sido eliminado previamente o al que se ha deshabilitado el acceso porque se consideró contenido terrorista, en particular cuando se han utilizado herramientas automatizadas


Los terroristas, organizaciones terroristas y extremistas violentos tienen prohibido utilizar Snapchat. El contenido que promueva, propague, glorifique o fomente el terrorismo u otros actos violentos y criminales está prohibido por nuestras Pautas para la comunidad. Los usuarios pueden denunciar contenido que infrinja nuestras Pautas para la comunidad a través de nuestro menú de denuncias en la aplicación o de nuestro sitio de soporte. También utilizamos la detección proactiva para tratar de identificar el contenido infractor en superficies públicas como ​​Spotlight y Descubre. 


Independientemente de cómo descubramos una infracción de contenido, nuestros equipos de Confianza y seguridad, a través de una combinación de automatización y moderación humana, revisan de inmediato el contenido identificado y toman decisiones de cumplimiento. Las medidas aplicadas pueden incluir eliminar el contenido, advertir o bloquear la cuenta infractora y, cuando esté justificado, denunciar la cuenta a las fuerzas de seguridad. Para prevenir la reaparición de contenido terrorista u otro contenido extremista violento en Snapchat, además de trabajar con las fuerzas de seguridad, tomamos medidas para bloquear el dispositivo asociado con la cuenta infractora y evitar que el usuario cree otra cuenta de Snapchat. 


Encontrarás más detalles sobre nuestras medidas para identificar y eliminar contenido terrorista en nuestro Explicador sobre contenido de incitación al odio, terrorismo y extremismo violento y en nuestro Explicador sobre moderación, medidas y recursos



Informes y medidas 
  • Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o a los que se ha deshabilitado el acceso tras órdenes de eliminación o medidas específicas, y el número de órdenes de eliminación en las que el contenido no se ha eliminado o cuyo acceso no se ha deshabilitado de conformidad con el primer subapartado del artículo 3(7) y el primer subapartado del artículo 3(8), junto con los motivos


Durante el período de informe, Snap no recibió ninguna orden de eliminación ni se nos obligó a implementar ninguna medida específica de conformidad con el artículo 5 del Reglamento. En consecuencia, no se nos requirió que tomáramos medidas de cumplimiento en virtud del Reglamento.


La siguiente tabla describe las medidas de cumplimiento adoptadas en función de las denuncias de usuarios y la detección proactiva contra el contenido y las cuentas, tanto en la UE como en cualquier otro lugar del mundo, que infringió nuestras Pautas para la comunidad en relación con el contenido de terrorismo y extremismo violento

Recursos al cumplimiento
  • Artículo 7(3)(d): el número y el resultado de las quejas tramitadas por el proveedor de servicios de alojamiento de conformidad con el artículo 10

  • Artículo 7(3)(g): el número de casos en los que el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo a raíz de una queja del proveedor de contenido


Debido a que no se requirieron acciones de cumplimiento en virtud del Reglamento durante el período de informe según se indica arriba, no se tramitaron quejas de conformidad con el artículo 10 del Reglamento y no se realizaron restablecimientos asociados.


La siguiente tabla contiene información relacionada con recursos y restablecimientos, tanto en la UE como en cualquier otro lugar del mundo, en relación con contenido terrorista y extremista violento aplicados de conformidad con nuestras Pautas para la comunidad.

Procedimientos judiciales y apelaciones
  • Artículo 7(3)(e): el número y el resultado de los procedimientos de recurso administrativo o judicial interpuestos por el proveedor de servicios de alojamiento

  • Artículo 7(3)(f): el número de casos en los que se requirió al proveedor de servicios de alojamiento que restableciera contenido o el acceso al mismo como resultado de procedimientos de recurso administrativo o judicial


Dado que no se requirieron acciones de cumplimiento en virtud del Reglamento durante el período de informe, tal y como se indica arriba, no se realizaron procedimientos de recurso administrativo o judicial asociados y no se nos obligó a restablecer el contenido como resultado de dichos procedimientos.

Evaluación de Riesgos de DSA

Este informe se ha elaborado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y proporciona los resultados de nuestra evaluación de los riesgos sistémicos derivados del diseño, el funcionamiento y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación establecidas para abordarlos.


Informe de Evaluación de Riesgos y Mitigación de DSA | Snapchat | Agosto de 2023 (PDF)


Auditoría de DSA e Implementación de la Auditoría

Estos informes se han elaborado para cumplir con las obligaciones de Snap en virtud del artículo 37 del  Reglamento (UE) 2022/2065 y ofrecen: (i) los resultados de la auditoría independiente del cumplimiento por parte de Snap de las obligaciones establecidas en el capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas adoptadas para aplicar las recomendaciones operativas de esa auditoría independiente.

Informe de Auditoría Independiente de DSA | Snapchat | Agosto de 2024 (PDF)

Informe de Implementación de la Auditoría de DSA | Snapchat | Septiembre de 2024 (PDF)



Código de Prácticas VSP de la UE

Snap es un proveedor de «servicio de plataforma para compartir videos» («VSP») de conformidad con el artículo 1(1)(aa) de la AVMSD. Este Código de Conducta («Código») ha sido preparado para describir cómo Snap cumple sus obligaciones como VSP en virtud de la Ley de Medios de Comunicación Neerlandesa («DMA») y la Directiva (UE) 2010/13 (modificada por la Directiva (UE) 2018/1808 (la «Directiva de Servicios de Medios Audiovisuales» o «AVMSD»)). El Código es aplicable en toda la Unión Europea y en el Espacio Económico Europeo.

Código de Conducta VSP de la UE | Snapchat | Diciembre de 2024 (PDF)