Privacy, Safety, and Policy Hub
Unión Europea
1 de enero de 2024 – 30 de junio de 2024

Publicado:

25 de octubre de 2024

Actualizado:

29 de noviembre de 2024

Te damos la bienvenida a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales (DSA), la Directiva de Servicios de Comunicación Audiovisual (AVMSD), la Ley de Medios de Holanda (DMA) y el Reglamento sobre Contenidos Terroristas en Línea (TCO). Se debe considerar que la versión más actualizada de estos Informes de transparencia se puede encontrar en la configuración regional en-US (inglés de EE. UU.).

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal a los efectos de la DSA. Podés comunicarte con el representante en dsa-enquiries [arroba] snapchat.com para la DSA, en vsp-enquiries [arroba] snapchat.com para AVMSD y DMA, a tco-enquiries [arroba] snapchat.com para TCO, a través de nuestro Sitio de ayuda [acá], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si representás a una agencia encargada de hacer cumplir la ley, seguí los pasos que se indican acá.

Cuando te comuniques con nosotros, por favor, hacelo en idioma holandés o inglés.

Autoridades reguladoras

Para la DSA, estamos regulados por la Comisión europea y la Autoridad para consumidores y mercados de los Países Bajos (ACM). Para AVMSD y el DMA, estamos regulados por la Autoridad de Medios de Comunicación Holandesa (CvdM). Para TCO, estamos regulados por la Autoridad de los Países Bajos para la prevención de Contenido Terrorista en Línea y Material de Abuso Sexual Infantil (ATKM).

Informe de transparencia de la DSA

Última actualización: 25 de octubre de 2024

Publicamos este informe con respecto a nuestros esfuerzos de moderación de contenido en Snapchat de acuerdo con los requisitos de información de transparencia proporcionados en los artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento (UE) 2022/2065) (“DSA”). Salvo que se indique lo contrario, la información contenida en este informe corresponde al período que se informa comprendido entre el 1 de enero de 2024 y el 30 de junio de 2024 (primer semestre de 2024) y cubre la moderación de contenido en las funciones de Snapchat que están reguladas por la DSA. 

Nos esforzamos continuamente para mejorar nuestro informe. Para este período de informe (primer semestre de 2024), hemos realizado cambios en la estructura de nuestro informe con tablas nuevas y más diferenciadas, para proporcionar una mejor visión de nuestros esfuerzos de moderación de contenido. 

1. Promedio mensual de destinatarios activos 
(Artículos 24.2 y 42.3 de la DSA)


El 1 de octubre de 2024, contábamos con un promedio de 92,9 millones de destinatarios activos mensuales (“AMAR”, por sus siglas en inglés) en nuestra aplicación de Snapchat en la UE. Esto significa que, en el último periodo de 6 meses que finalizó el 30 de septiembre de 2024, un promedio de 92,9 millones de usuarios registrados en la UE abrieron la aplicación de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado Miembro de la siguiente manera:

Estas cifras se calcularon para cumplir con los requisitos de la DSA actuales y solo deben aplicarse para los fines de la DSA. Hemos cambiado la forma de calcular esta cifra a lo largo del tiempo, incluso en respuesta a los cambios de la política interna, la orientación de los reguladores y la tecnología, y las cifras no están destinadas a ser comparadas entre períodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.

2. Solicitudes de la autoridad del Estado miembro
(Artículo 15.1(a) de la DSA)
a) Órdenes de actuar contra contenido ilegal


Durante este período de informe (primer semestre de 2024), recibimos cero (0) órdenes de actuar contra piezas de contenido ilegal específicamente identificadas por las autoridades de los Estados Miembros de la UE, incluidas las emitidas de acuerdo con el artículo 9 de la DSA. 

Debido a que este número es cero (0), no podemos proporcionar un desglose por tipo de contenido ilegal en cuestión ni por Estado Miembro que emite la orden, ni por el tiempo promedio de acusar recibo o de hacer efectivas las órdenes.

b) Órdenes de proporcionar información 


Durante este período de informe (primer semestre de 2024), recibimos las siguientes órdenes de revelar datos de usuarios por las autoridades de los Estados Miembros de la UE, incluidas las emitidas de acuerdo con el artículo 10 de la DSA:


El tiempo medio para informar a las autoridades relevantes de la recepción de estas órdenes para proporcionar información fue de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción.

El tiempo promedio para hacer efectivas estas órdenes de proporcionar información fue de ~ 7 días. Esta métrica refleja el período de tiempo desde que Snap recibió una orden hasta cuando Snap consideró el asunto totalmente resuelto, que en casos individuales puede depender en parte de la velocidad con la que la autoridad del Estado Miembro relevante responda a las solicitudes de esclarecimiento de Snap necesarias para procesar la orden.

Se debe tener en cuenta que no proporcionamos un desglose de las órdenes anteriores, para proporcionar información categorizada por el tipo de contenido ilegal en cuestión, porque esta información no está generalmente disponible para nosotros.

3. Moderación de contenido 


Todo el contenido que aparece en Snapchat debe cumplir con nuestras Pautas para la comunidad y con nuestras Condiciones de servicio. Cierto contenido también debe adherirse a pautas y políticas adicionales. Por ejemplo, el contenido enviado para recomendación algorítmica a un público más amplio en nuestras superficies de difusión pública, debe cumplir con los estándares adicionales y más altos, proporcionados en nuestras Pautas de contenido sobre los requisitos para la recomendación, mientras que los anuncios deben cumplir con nuestras Normas de publicidad.

Hacemos cumplir estas políticas usando tecnología y revisión humana. También proporcionamos mecanismos para que los Snapchatters denuncien infracciones, incluido el contenido y actividades ilegales, directamente dentro de la aplicación o a través de nuestro sitio web. Los mecanismos de detección proactiva y los informes generan una revisión, que luego aprovecha una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas apropiadas de acuerdo con nuestras políticas. 

Proporcionamos más información sobre nuestra moderación de contenido en nuestras superficies públicas en el primer semestre de 2024 a continuación.

a) Avisos presentados de acuerdo con el artículo 16 de la DSA 
(Artículo 15.1(b) de la DSA)

De acuerdo con el artículo 16 de la DSA, Snap han puesto en marcha mecanismos que permiten a usuarios y no usuarios notificar a Snap, de la presencia en Snapchat, de elementos específicos de información que ellos consideran contenido ilegal. Pueden hacerlo denunciando piezas de contenido o cuentas específicas, ya sea directamente en la aplicación de Snapchat o en nuestro sitio web. 

Durante el período de informe (primer semestre de 2024), recibimos los siguientes avisos enviados de acuerdo con el artículo 16 de la DSA en la UE:


A continuación, proporcionamos un desglose que refleja cómo se procesaron estos avisos, es decir, si a través de un proceso que incluye la revisión humana o únicamente a través de medios automatizados: 

Al enviar avisos dentro de la aplicación o a través de nuestro sitio web, los denunciantes pueden seleccionar una razón de denuncia específica, en un menú de opciones que refleja las categorías de violaciones que se enumeran en nuestras Pautas para la Comunidad (por ejemplo, discurso de odio y uso o venta de drogas). Nuestras Pautas para la Comunidad prohíben contenido y actividades que son ilegales en la UE, por lo que nuestras razones de denuncia reflejan en gran medida categorías específicas de contenido ilegal en la UE. Sin embargo, en la medida en que un denunciante en la UE crea que el contenido o la cuenta que está denunciando es ilegal por razones a las que no se hace referencia específicamente en nuestro menú de denuncias, puede denunciarlo por “otro contenido ilegal” y se le da la oportunidad de explicar por qué cree que lo que está denunciando es ilegal.

Si, tras la revisión, determinamos que el contenido o la cuenta denunciados infringen nuestras Pautas para la Comunidad (incluso por razones de ilegalidad), podemos (i) eliminar el contenido infractor, (ii) advertir al titular de la cuenta correspondiente y aplicar un golpe contra la cuenta o (iii) bloquear la cuenta correspondiente, como se explica en mayor detalle en nuestra Explicación de Moderación, Aplicación y Apelaciones de Snapchat.

En el primer semestre de 2024, tomamos las siguientes medidas de cumplimiento al recibir las notificaciones presentadas de acuerdo con el artículo 16 de la DSA de la UE:

En el primer semestre de 2024, todas las denuncias de “otro contenido ilegal” en las que accionamos, se hicieron cumplir en virtud de nuestras Pautas para la comunidad porque nuestras Pautas para la comunidad prohibían el contenido o la actividad relevante. Por lo tanto, clasificamos estas infracciones en la categoría correspondiente de infracción de las Pautas para la Comunidad en la tabla de arriba.

Además de las medidas de cumplimiento anteriores, podríamos tomar medidas sobre el contenido que se nos notifica de acuerdo con otras políticas y pautas de Snap aplicables: 

  • Con respecto al contenido en nuestras superficies de difusión pública, si determinamos que el contenido denunciado no cumple con los estándares más altos de nuestras Pautas de Contenido sobre los requisitos para la recomendación, podemos rechazar el contenido para la recomendación algorítmica (si el contenido no cumple con nuestros criterios de elegibilidad) o podemos limitar la distribución del contenido para excluir a públicos sensibles (si el contenido cumple con nuestros criterios de elegibilidad para la recomendación, pero de todas formas es sensible o sugerente).

En el primer semestre de 2024, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión pública de Snapchat que se nos informó en la UE, de acuerdo con nuestras Pautas de contenido sobre los requisitos para la recomendación:

  • Si determinamos que un anuncio denunciado infringe nuestras Normas de publicidad, puede que lo eliminemos tras la revisión. 


En el primer semestre de 2024, tomamos las siguientes medidas con respecto a los anuncios que se nos informaron en la UE:


b) Moderación de contenido realizada por iniciativa propia de Snap 
(Artículo 15.1(c))


Además de revisar los avisos enviados de acuerdo con el artículo 16 de la DSA, Snap modera, por iniciativa propia, el contenido en las superficies públicas de Snapchat (por ejemplo, Spotlight, Descubre). A continuación proporcionamos información sobre la moderación de contenido realizada por iniciativa propia de Snap, incluido el uso de herramientas automatizadas, las medidas tomadas para proporcionar capacitación y asistencia a las personas encargadas de la moderación de contenido y el número y los tipos de restricciones impuestas como resultado de esos esfuerzos de moderación de contenido proactiva.


  • Uso de herramientas automatizadas en la moderación de iniciativa propia de Snap


Implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las infracciones de nuestras condiciones y políticas en nuestras superficies de contenido público. Esto incluye herramientas de coincidencia de hash (incluido PhotoDNA y coincidencias de CSAI de Google), los modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos) e inteligencia artificial/tecnología de aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, nuestras Pautas de contenido sobre los requisitos para la recomendación y las Normas de publicidad.


En el primer semestre de 2024, toda nuestra detección proactiva se realizó usando herramientas automatizadas. Cuando nuestras herramientas automatizadas detectan una posible infracción de nuestras políticas, automáticamente toman medidas de acuerdo con nuestras políticas o crean una tarea para la revisión humana. A continuación se describe el número y los tipos de restricciones impuestas como resultado de este proceso.


  • Número y tipos de restricciones impuestas por iniciativa propia de Snap


En el primer semestre de 2024, Snap tomó las siguientes medidas de cumplimiento después de detectar proactivamente, a través del uso de herramientas automatizadas, infracciones de nuestras Pautas para la Comunidad (incluidas infracciones que equivalen a contenido y actividades ilegales en virtud de las leyes de la UE y de los Estados Miembros):

Además, en el primer semestre de 2024, con respecto al contenido en nuestras superficies de difusión pública, tomamos las siguientes medidas después de detectar proactivamente en Snapchat, a través del uso de herramientas automatizadas, infracciones de nuestras Pautas de contenido sobre los requisitos para la recomendación:

* Como se establece en nuestras Pautas de contenido sobre los requisitos para la recomendación, las cuentas que infringen repetida o de manera flagrante nuestras Pautas de contenido sobre los requisitos para la recomendación, pueden ser descalificadas temporal o permanentemente de las recomendaciones en nuestras superficies de difusión pública. Aplicamos esta acción en el contexto de nuestros esfuerzos de moderación proactiva.

Además, en el primer semestre de 2024, tomamos las siguientes medidas después de detectar proactivamente en Snapchat, a través del uso de herramientas automatizadas, infracciones de nuestras Normas de publicidad:

  • Medidas tomadas para proporcionar capacitación y asistencia a las personas encargadas de la moderación de contenido


Nuestros equipos de moderación de contenido aplican nuestras políticas de moderación de contenido, para ayudar a proteger a nuestra comunidad de Snapchat. Se capacitan durante un período de varias semanas, en el que los nuevos miembros del equipo reciben información sobre las políticas, las herramientas y los procedimientos de escalada de Snap. Nuestros equipos de moderación participan regularmente en actualizaciones en su capacitación, lo que relevante para su flujo de trabajo, particularmente cuando nos encontramos con casos al borde de infringir las políticas y casos dependientes del contexto. También ejecutamos programas de mejora de habilidades, sesiones de certificación y pruebas para garantizar que todos los moderadores estén actualizados y en cumplimiento de todas las políticas actualizadas. Finalmente, cuando aparecen tendencias de contenido urgentes en función de eventos actuales, diseminamos rápidamente aclaraciones de las políticas, para que los equipos puedan responder de acuerdo con las políticas de Snap.


Proporcionamos a nuestros equipos de moderación de contenido, apoyo y recursos significativos, incluido el apoyo de bienestar en el trabajo y el fácil acceso a los servicios de salud mental.

c) Quejas recibidas a través de los sistemas internos de gestión de quejas de Snap (es decir, las apelaciones) 
(Artículo 15.1(d))


Los usuarios cuyas cuentas están bloqueadas por nuestros equipos de seguridad por infracciones de las Pautas para la comunidad (incluido el contenido y las actividades ilegales) pueden enviar una apelación de cuenta bloqueada. Los usuarios también pueden apelar ciertas decisiones de moderación de contenido.

Durante el período de informe (primer semestre de 2024), Snap procesó las siguientes apelaciones (incluidas las apelaciones contra los bloqueos de cuentas y las decisiones de moderación a nivel de contenido) enviadas a través de sus sistemas internos de gestión de quejas en la UE:

d) Uso de medios automatizados para el propósito de la moderación de contenido 
(Artículos 15.1(e) y 42.2(c))

  • Descripción cualitativa y propósitos


Como se explicó anteriormente en la Sección 3(b), implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las infracciones de nuestras condiciones y políticas en nuestras superficies de contenido público. Esto incluye herramientas de coincidencia de hash (incluido PhotoDNA y coincidencias de CSAI de Google), los modelos de detección de abuso del lenguaje (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente, de palabras clave y emojis abusivos) e inteligencia artificial/tecnología de aprendizaje automático. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, nuestras Pautas de contenido sobre los requisitos para la recomendación y las Normas de publicidad. 

Cuando nuestras herramientas automatizadas detectan una posible infracción de nuestras políticas, automáticamente toman medidas de acuerdo con nuestras políticas o crean una tarea para la revisión humana. 

  • Indicadores de precisión y posible tasa de error, desglosados por Estado Miembro


Monitoreamos la precisión de nuestras herramientas de moderación automatizada seleccionando muestras aleatorias de las tareas procesadas por nuestras herramientas automatizadas en nuestras superficies públicas y las enviamos para que nuestros equipos de moderación humana vuelvan a revisarlas. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias, que fueron confirmadas por nuestros moderadores humanos tras la nueva revisión. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada, como se describió anteriormente. 

Basado en el muestreo, en el primer semestre de 2024, los indicadores de la precisión y la posible tasa de error de los medios automatizados usados en todas las categorías de infracciones, fueron de aproximadamente el 93 % y la tasa de error fue de aproximadamente el 7 %.

En general, no rastreamos el idioma del contenido que moderamos en Snapchat y, por lo tanto, no podemos proporcionar un desglose de las tasas de precisión y de error, de nuestras herramientas de moderación automatizada, por cada idioma oficial de los Estados Miembros.  Como indicador proxy de esta información, proporcionamos a continuación un desglose de nuestras tasas de precisión y de error para el contenido moderado automáticamente que se origina en cada Estado Miembro. 

  • Salvaguardas


Somos conscientes del impacto potencial de las herramientas de moderación automatizada en los derechos fundamentales e implementamos salvaguardas para minimizar ese impacto.

Nuestras herramientas automatizadas de moderación de contenido se prueban antes de implementarse en Snapchat. Los modelos se prueban sin conexión para determinar el rendimiento y se implementan a través de las pruebas A/B para garantizar su funcionamiento adecuado antes de incorporarse completamente en producción. Realizamos revisiones de Control de Calidad (QA) previas al lanzamiento, revisiones en el lanzamiento y verificaciones de control de precisión continuas durante las implementaciones parciales (graduales).

Después del lanzamiento de nuestras herramientas automatizadas, evaluamos su rendimiento y precisión de forma continua y hacemos los ajustes según sea necesario. Este proceso implica una nueva revisión de muestras de las tareas automatizadas por parte de nuestros moderadores humanos, para identificar los modelos que requieren ajustes y mejorar la precisión. También monitoreamos la prevalencia de daños específicos en Snapchat a través de un muestreo diario aleatorio de Historias Públicas y aprovechamos esta información para identificar áreas para mejorar más. 

Nuestras políticas y sistemas promueven el cumplimiento consistente y justo de las normas y, junto a nuestras herramientas automatizadas, proporcionan a los Snapchatters la oportunidad de disputar de forma significativa los resultados del cumplimiento de las normas a través de los procesos de notificaciones y apelaciones que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.

Nos esforzamos por mejorar continuamente nuestras herramientas automatizadas de moderación de contenido, para mejorar su precisión y apoyar la aplicación consistente y justa de nuestras políticas.

e) Disputas enviadas al artículo 21, órganos de solución de controversias extrajudiciales
(Artículo 24.1(a))

Para el período del informe (primer semestre de 2024), el número de disputas presentadas a los órganos de solución de controversias extrajudiciales certificados formalmente de acuerdo con el artículo 21 de la DSA fue cero (0), y no podemos proporcionar un desglose que refleje los resultados, los tiempos medios de finalización o la parte de disputas en las que Snap implementó las decisiones de un órgano de solución de controversias extrajudicial.

Se debe tener en cuenta que, en el primer semestre de 2024, recibimos dos (2) avisos de controversias enviadas a un organismo que busca la certificación como organismo de solución de controversias extrajudicial en virtud del artículo 21 de la DSA. No incluimos estas controversias en el recuento anterior, ya que el organismo que transmitió estos avisos de controversias no pudo verificar su estado de certificación tras nuestra solicitud.

f) Suspensiones impuestas en conformidad con el artículo 23 
(Artículo 24.1(b))
  • Suspensiones en conformidad con el artículo 23.1: suspensión de cuentas que con frecuencia proporcionan contenido manifiestamente ilegal 

Como se explica en nuestra Explicación de la moderación, la aplicación y de las apelaciones de Snapchat, las cuentas que determinamos que se usan principalmente para infringir nuestras Pautas para la comunidad (incluso a través de la provisión de contenido manifiestamente ilegal) y las cuentas que perpetran daños graves se desactivan inmediatamente. Para todas las demás violaciones de nuestras Pautas para la comunidad, Snap generalmente usa un proceso de aplicación de las normas en tres partes:

  • Paso uno: se elimina el contenido que viola las normas.

  • Paso dos: el Snapchatter recibe una notificación que indica que ha violado nuestras Pautas para la comunidad, que su contenido ha sido eliminado y que las violaciones repetidas darán lugar a sanciones adicionales, incluida la desactivación de su cuenta.

  • Paso tres: nuestro equipo registra una advertencia hacia la cuenta del Snapchatter.

La información sobre el número de advertencias y los bloqueos impuestos en el primer semestre de 2024 en las cuentas de la UE en relación con el contenido o las actividades en las superficies públicas de Snapchat se puede encontrar arriba, en las Secciones 3(a) y 3(b).

  • Suspensiones en conformidad con el artículo 23.2: suspensión en el procesamiento de avisos y quejas de individuos, entidades y denunciantes que con frecuencia presentan avisos o quejas que son manifiestamente infundadas

Aplicando nuestra definición interna de avisos y quejas “manifiestamente infundadas” y nuestros umbrales internos para lo que consideramos la presentación frecuente de dichos avisos y quejas, el número de suspensiones en el procesamiento de los avisos y quejas impuesto en el primer semestre de 2024 en conformidad con el artículo 23.2 de la DSA es el siguiente:

4. Información sobre nuestros equipos de moderación de contenido
a) Recursos humanos dedicados a la moderación de contenido, incluido el cumplimiento de los artículos 16, 20 y 22 de la DSA, desglosados por los idiomas oficiales de los Estados Miembros
(Artículo 42.2(a))


Nuestros equipos de moderación de contenido operan en todo el mundo, lo que nos permite ayudar a mantener a los Snapchatters seguros las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana acorde a las especialidades de idiomas de los moderadores (tené en cuenta que algunos moderadores se especializan en múltiples idiomas) a partir del 30 de junio de 2024:

La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenido que admiten las lenguas oficiales de los Estados Miembros de la UE a partir del 30 de junio de 2024. En situaciones en las que necesitamos ayuda lingüística adicional, usamos servicios de traducción.

b) Calificaciones y experiencia lingüística de los moderadores de contenido; capacitación y apoyo proporcionado
(Artículo 42.2(b))


Los moderadores se reclutan usando una descripción de trabajo estándar que incluye un requisito de idioma (dependiendo de la necesidad). El requisito de idioma establece que el candidato debería poder demostrar fluidez escrita y hablada en el idioma y tener al menos un año de experiencia laboral para puestos de nivel inicial. Los candidatos deben cumplir con los requisitos educativos y de antecedentes para ser considerados. Los candidatos también deben demostrar una comprensión de los eventos actuales del país o la región de la moderación de contenido a la que le brindarán soporte.

Ver arriba, para obtener información sobre la capacitación y la ayuda que Snap proporciona a los moderadores de contenido, lo que se requiere por separado en el artículo 15(1)(c) de la DSA y, por lo tanto, se incluye en la Sección 3(b), en la subsección final denominada: “Medidas tomadas para proporcionar capacitación y asistencia a las personas encargadas de la moderación de contenido

Informe de exploración de medios de explotación y abuso sexual infantil (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras pautas para la comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA) en nuestra plataforma es una prioridad importante para Snap y evolucionamos continuamente nuestras capacidades para combatir estos y otros delitos.


Usamos la coincidencia de hash sólida de PhotoDNA y la Coincidencia de Imágenes de Abuso Sexual Infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados de los EE. UU. (NCMEC), como lo exige la ley. Por ello, el NCMEC, a su vez, coordina con las autoridades de orden público nacional o internacional, según sea necesario.


Informe

Los siguientes datos se basan en el resultado del escaneo proactivo usando PhotoDNA o coincidencias de CSAI de los medios cargados por el carrete de la cámara de un usuario a Snapchat.

Detener la explotación sexual infantil es prioridad absoluta. Snap dedica recursos significativos a esto y tiene tolerancia cero para dicha conducta. Se requiere capacitación especial para revisar las apelaciones de CSE y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en la política que afectaron la consistencia de ciertas medidas de cumplimiento contra la CSE y hemos abordado estas inconsistencias a través del reentrenamiento de los agentes y un riguroso control de calidad. Esperamos que el próximo informe de transparencia revele los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de cumplimiento.

Salvaguardas de la moderación de contenido

Las salvaguardas aplicadas para el Escaneo de Medios CSEA se establecen en la sección anterior “Salvaguardas de la Moderación de Contenido” en nuestro Informe de la DSA.


Informe de transparencia de contenido terrorista en línea en la Unión Europea

Publicado: 17 de junio de 2024

Última actualización: 17 de junio de 2024

Este informe de transparencia se publica de acuerdo con los artículos 7(2) y 7(3) de la Regulación 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenido terrorista en línea (la Regulación). Cubre el período de informe del 1 de enero - 31 de diciembre de 2023


Información general
  • Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de hosting en relación con la identificación y la eliminación o la desactivación del acceso al contenido terrorista

  • Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de hosting para abordar la reaparición en línea de material que se ha eliminado previamente o al que se ha desactivado el acceso porque se consideró contenido terrorista, en particular cuando se han usado herramientas automatizadas


Los terroristas, las organizaciones terroristas y los extremistas violentos tienen prohibido usar Snapchat. El contenido que defienda, promueva, glorifique el avance del terrorismo u otros actos criminales violentos está prohibido en nuestras Pautas para la Comunidad. Los usuarios pueden denunciar contenido que infringe nuestras Pautas para la comunidad a través de nuestro menú de denuncias dentro de la aplicación y nuestro Sitio de ayuda. También usamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubrí. 


Independientemente de cómo podemos saber de la existencia de contenido infractor, nuestros equipos de Confianza y Seguridad, a través de una combinación de automatización y moderación humana, revisan rápidamente el contenido identificado y toman decisiones de cumplimiento. Las medidas de cumplimiento pueden incluir eliminar el contenido, advertir o bloquear la cuenta que infractora y, si se justifica, denunciar la cuenta a las fuerzas de seguridad. Para evitar la reaparición de contenido terrorista u otro contenido extremista violento en Snapchat, además de trabajar con las fuerzas de seguridad, tomamos medidas para bloquear el dispositivo asociado con la cuenta que lo infringe y evitar que el usuario cree otra cuenta de Snapchat.


Se pueden encontrar detalles adicionales sobre nuestras medidas para identificar y eliminar el contenido terrorista en nuestra Explicación sobre contenido de odio, terrorismo y extremismo violento y nuestra Explicación sobre la moderación, la aplicación y las apelaciones



Denuncias y medidas de cumplimiento 
  • Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o a los que se ha desactivado el acceso después de las órdenes de eliminación o medidas específicas, y el número de órdenes de eliminación donde el contenido no se ha eliminado o el acceso no se ha desactivado en conformidad con el primer subpárrafo del artículo 3(7) y el primer subpárrafo del artículo 3(8), junto con los motivos


Durante el período de informe, Snap no recibió ninguna orden de eliminación, ni nos requirieron implementar ninguna medida específica de conformidad con el artículo 5 de la Regulación. En consecuencia, no nos requirieron tomar medidas de cumplimiento en virtud de la Regulación.


La siguiente tabla describe las medidas de cumplimiento tomadas en función de las denuncias de los usuarios y la detección proactiva contra el contenido y las cuentas, tanto en la UE como en otras partes del mundo, que infringió nuestras Pautas para la comunidad, relacionadas con el contenido de terrorismo y extremismo violento

Apelaciones de cumplimiento
  • Artículo 7(3)(d): el número y el resultado de las quejas manejadas por el proveedor de servicios de alojamiento de acuerdo con el artículo 10

  • Artículo 7(3)(g): el número de casos en los que el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo después de una queja del proveedor de contenido


Debido a que no tuvimos ninguna acción de cumplimiento requerida en virtud del Reglamento durante el período de informe como se señaló anteriormente, no manejamos ninguna queja en conformidad con el artículo 10 del Reglamento y no tuvimos restablecimientos asociados.


La siguiente tabla contiene información relacionada con las apelaciones y restablecimientos, tanto en la UE como en otras partes del mundo, que involucra contenido extremista violento y terrorista aplicado en virtud de nuestras Pautas para la comunidad.

Procedimientos judiciales y apelaciones
  • Artículo 7(3)(e): el número y el resultado de los procedimientos de revisión administrativa o judicial presentados por el proveedor de servicios de alojamiento

  • Artículo 7(3)(f): el número de casos en los que el proveedor de servicios de alojamiento tuvo que restablecer contenido o acceder al mismo como resultado de procedimientos de revisión administrativa o judicial


Como no tuvimos ninguna acción de cumplimiento requerida en virtud del Reglamento durante el período de informe, como se señaló anteriormente, no tuvimos ningún procedimiento de revisión administrativa o judicial asociado y no nos requirieron restablecer el contenido como resultado de dicho procedimiento.

Evaluación de Riesgos de DSA

Este informe se ha preparado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y proporciona los resultados de nuestra evaluación de riesgos del sistema derivados del diseño, la función y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación implementadas para abordar esos riesgos.


Informe de evaluación de riesgos y mitigación de DSA | Snapchat | Agosto de 2023 (PDF)


Auditoría de DSA e implementación de la auditoría

Estos informes se han preparado para cumplir con las obligaciones de Snap en virtud del artículo 37 del Reglamento (UE) 2022/2065 y proporcionan: (i) los resultados de la auditoría independiente del cumplimiento de Snap con las obligaciones establecidas en el Capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas tomadas para implementar las recomendaciones operativas de esa auditoría independiente.

Informe de auditoría independiente de DSA | Snapchat | Agosto de 2024 (PDF)

Informe de implementación de auditoría de DSA | Snapchat | Septiembre de 2024 (PDF)



Código de prácticas VSP de la UE

Snap es un proveedor de “servicio de plataforma para compartir videos” (”VSP”) de conformidad con el artículo 1(1)(aa) AVMSD. Este Código de Conducta (“Código”) se ha preparado para describir cómo Snap cumple con sus obligaciones como VSP en virtud de la Ley de Medios de los Países Bajos (“DMA”) y la Directiva (UE) 2010/13 (modificada por la Directiva (UE) 2018/1808 (la “Directiva de Servicios de Medios Audiovisuales” o “AVMSD”)). El Código es aplicable en toda la Unión Europea, así como en el Espacio Económico Europeo.

Código de conducta VSP de la UE | Snapchat | Diciembre de 2024 (PDF)