Unión Europea
1 de julio de 2023 – 31 de diciembre de 2023

Publicado:

25 de abril de 2024

Actualizado:

25 de abril de 2024

Bienvenido a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de Holanda (DMA). Recuerda que la versión más actualizada de este informe de transparencia está disponible en la versión en-US.

Representante Legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal a efectos de la DSA. Puedes ponerte en contacto con el representante en dsa-enquiries [arroba] snapchat.com respecto a la DSA, en vsp-enquiries [arroba] snapchat.com respecto a la AVMSD y la DMA, a través de nuestro sitio web de Ayuda [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí. Cuando te pongas en contacto con nosotros, comunícate en neerlandés o inglés.

Autoridades reguladoras

En el caso de DSA, estamos regulados por la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). En el caso de AVMSD y la DMA, estamos regulados por la Autoridad Holandesa de Medios de Comunicación (CvdM).

Informe de transparencia de la DSA

Los artículos 15, 24 y 42 de la DSA requieren que Snap publique informes que contengan información prescrita sobre la moderación de contenidos de Snap para los servicios de Snapchat que se consideran "plataformas en línea", es decir, Spotlight, For You, perfiles públicos, Mapas, Lentes y Publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen del contenido denunciado en nuestra plataforma. Nuestro último informe del segundo semestre de 2023 (del 1 de julio al 31 de diciembre) se puede encontrar aquí. Las estadísticas específicas de la Ley de Servicios Digitales se pueden encontrar en esta página.

Promedio mensual de destinatarios activos
(Artículos 24.2 y 42.3 del DSA)

A 1 de agosto de 2023, contábamos con un promedio de 90,9 millones de destinatarios activos mensuales ("PDAM") de nuestra aplicación Snapchat en la UE. Esto significa que, en los últimos 6 meses, un promedio de 90,9 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro de la siguiente manera:

Estas cifras se calcularon para cumplir las normas actuales de la DSA y solo deben tenerse en cuenta a efectos de la DSA. Con el tiempo, hemos ajustado la metodología para calcular esta cifra en función de cambios en la política interna, las pautas de los reguladores y la tecnología, y no pretendemos que las cifras puedan compararse entre periodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.


Solicitudes de las autoridades de los Estados miembros
(Artículo 15.1(a) del RSD)

Solicitudes de retirada 

Durante este período, hemos recibido 0 solicitudes de retirada de Estados miembros de la UE de conformidad con el artículo 9 del RSD. 

Solicitudes de información 

Durante este período, hemos recibido las siguientes solicitudes de información de Estados miembros de la UE de conformidad con el artículo 10 del RDS:

El tiempo medio de respuesta para informar a las autoridades de la recepción de Solicitudes de información es de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción. El tiempo promedio de respuesta para dar efecto a las solicitudes de información es de ~10 días. Este indicador refleja el período de tiempo desde que Snap recibe una Solicitud de información hasta que Snap considera que la solicitud se ha resuelto por completo. En algunos casos, la duración de este proceso depende en parte de la velocidad con que las fuerzas de seguridad respondan a cualquier solicitud de aclaración de Snap necesaria para procesar su solicitud.

Moderación de contenidos 


Todo el contenido de Snapchat debe cumplir con nuestras Pautas para la comunidad y Condiciones de servicio, así como con los términos, pautas y documentos explicativos. Los mecanismos de detección proactiva y los informes de contenido o cuentas ilegales o infractores provocan una revisión, momento en el que nuestros sistemas de herramientas procesan la solicitud, recopilan los metadatos pertinentes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada que está diseñada para facilitar operaciones de revisión efectivas y eficientes. Cuando nuestros equipos de moderación determinen, ya sea a través de revisión humana o por medios automatizados, que un usuario ha infringido nuestros Términos, podemos eliminar la cuenta o el contenido infractor, dar por terminado o limitar la visibilidad de la cuenta en cuestión y/o notificar a las fuerzas de la ley, tal y como se explica en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat.  Los usuarios cuyas cuentas estén bloqueadas por nuestro equipo de seguridad por infringir las Pautas para la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra ciertas medidas de aplicación de contenido.

Notificaciones sobre contenidos y cuentas (artículo 15.1(b) del RSD)

Snap ha puesto en marcha mecanismos para permitir a usuarios y no usuarios hacer notificaciones a Snap sobre contenidos y cuentas que infrinjan nuestras Pautas para la comunidad y Condiciones de servicio en la plataforma, incluidos aquellos que consideren ilegales de conformidad con el artículo 16 del RSD.  Estos mecanismos de denuncia están disponibles en la propia aplicación (es decir, directamente desde el contenido en sí) y en nuestro sitio web.

Durante el período en cuestión, recibimos los siguientes avisos de contenido y cuentas en la UE:

En el segundo semestre de 2023, gestionamos 664 896 notificaciones únicamente a través de medios automatizados. Todas estas medidas se aplicaron en cumplimiento de nuestras Pautas para la comunidad porque nuestras Pautas para la comunidad encapsulan contenidos ilegales. 

Además de los contenidos y cuentas generados por los usuarios, moderamos los anuncios si infringen las políticas de nuestra plataforma. A continuación se muestran el total de anuncios que se denunciaron y eliminaron en la UE. 

Avisos de marcadores de confianza (artículo 15.1(b))

Durante el período de nuestro último Informe de transparencia (segundo semestre de 2023), no hubo marcadores de confianza designados formalmente en virtud del RSD. Como resultado, el número de notificaciones presentadas por dichos marcadores de confianza fue cero (0) en este período.

Moderación proactiva de contenidos (artículo 15.1(c))

Durante el período en cuestión, Snap aplicó medidas correctivas sobre los siguientes contenidos y cuentas en la UE después de iniciar la moderación de contenidos por su propia iniciativa:

Todos los esfuerzos de moderación a iniciativa de Snap sirvieron de palanca para la humana y la automatizada. En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de ser elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor utilizando el aprendizaje automático;

  • Herramientas de coincidencia de valores hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos los emojis


Apelaciones (artículo 15.1(d))

Durante el período en cuestión, Snap tramitó las siguientes apelaciones sobre contenidos y cuentas en la UE a través de sus sistemas internos de gestión de quejas:


* Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica recursos importantes a este fin y tiene tolerancia cero para este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE (del inglés, Explotación Sexual Infantil), y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la coherencia de ciertas medidas de CSE, y hemos abordado estas incoherencias a través de formaciones de refuerzo para los agentes y un riguroso control de calidad.  Esperamos que el próximo Informe de transparencia detalle de los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de seguridad. 

Medios automatizados para la moderación de contenidos (artículo 15.1(e))

En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de ser elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor utilizando el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos los emojis.


La precisión de las tecnologías de moderación automatizada para todos los daños fue de aproximadamente el 96,61 % y la tasa de error fue de aproximadamente el 3,39 %.


Medidas de seguridad para la moderación de contenidos (artículo 15.1(e))

Reconocemos que existen riesgos asociados a la moderación de contenidos, incluyendo riesgos para la libertad de expresión y asociación, que pueden ser causados por sesgos de moderadores automatizados y humanos y por denuncias abusivas, incluso por parte de gobiernos, formaciones políticas o personas bien organizadas. Por lo general, Snapchat no es lugar para contenido político o activista, especialmente en nuestros espacios públicos. 


Sin embargo, para protegerse contra estos riesgos, Snap tiene establecidas pruebas y formación, y cuenta con procedimientos sólidos y coherentes para tratar denuncias sobre contenido ilegal o infractor, incluso de las autoridades policiales y gubernamentales. Evaluamos y evolucionamos continuamente nuestros algoritmos de moderación de contenido. Si bien es difícil detectar posibles daños a la libertad de expresión, no nos consta que haya ningún problema significativo y ofrecemos vías para que nuestros usuarios informen de errores si se producen. 


Nuestras políticas y sistemas promueven una aplicación coherente y justa y, tal y como se ha descrito anteriormente, ofrecen a los Snapchatters una verdadera oportunidad para resolver realmente las disputas que surjan, mediante procesos de Notificación y Apelación, cuyo objetivo es salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.

Nos esforzamos continuamente por mejorar nuestras políticas y procesos de cumplimiento y hemos logrado grandes avances en la lucha contra el contenido y las actividades potencialmente nocivos e ilegales en Snapchat. Prueba de ello es la tendencia al alza en nuestras cifras de denuncias y cumplimiento, como se aprecia en nuestro último informe de transparencia, así como la disminución de la tasa de predominio de infracciones en Snapchat en general.


Acuerdos extrajudiciales (artículo 24.1(a))

Durante el período de nuestro último informe de transparencia (segundo semestre de 2023), no se designaron formalmente organismos de resolución de disputas extrajudiciales bajo la Ley de Servicios Digitales (DSA). Como resultado, el número de disputas presentadas a dichos órganos fue cero (0) en este período, y no podemos proporcionar resultados, la mediana de tiempos de respuesta para los acuerdos ni la proporción de disputas en los que implementamos las decisiones del órgano. 



Suspensiones de cuentas (artículo 24.1(b))

Durante el segundo semestre de 2023,  no se nos impuso ninguna suspensión de cuentas de conformidad con el artículo 23. El equipo de confianza y seguridad de Snap tiene procedimientos establecidos para limitar la posibilidad de que las cuentas de usuario presenten frecuentemente notificaciones o quejas que sean manifiestamente infundadas. Estos procedimientos incluyen la restricción de la creación de informes duplicados y el uso de filtros de correo electrónico para evitar que los usuarios que han presentado frecuentemente denuncias manifiestamente infundadas continúen haciéndolo. Snap ejecuta medidas adecuadas de cumplimiento frente a las cuentas, tal y como se explica en nuestro Explicador de moderación, aplicación y apelaciones de Snapchat, y se puede encontrar información sobre el nivel de cumplimiento a que Snap somete a las cuentas en nuestro informe de transparencia (segundo trimestre de 2023). Dichas medidas seguirán siendo revisadas e iteradas.


Recursos, experiencia y ayuda para el moderador (artículo 42.2)

Nuestro equipo de moderación de contenido opera en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapchatters las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana según las especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en múltiples idiomas) a partir del 31 diciembre de 2023:

La tabla anterior incluye todos los moderadores que apoyan las lenguas de los estados miembros de la UE a partir del 31 de diciembre de 2023. En situaciones en las que necesitemos ayuda lingüística adicional, utilizamos servicios de traducción.

Los moderadores se contratan utilizando una descripción estándar del puesto de trabajo, que incluye un requisito de idioma (según se necesite). El requisito de idioma establece que el candidato debe ser capaz de demostrar fluidez escrita y oral en el idioma y tener al menos un año de experiencia laboral para puestos de nivel principiante. Los candidatos deben cumplir los requisitos de educación y formación para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o región en cuya moderación de contenido colaborarán.

Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para ayudar a proteger a nuestra comunidad Snapchat. La capacitación se lleva a cabo durante un período de varias semanas, en el que se informa a los nuevos miembros del equipo sobre las políticas, herramientas y procesos de escalado de Snap. Después de la capacitación, cada moderador debe superar un examen de certificación antes de poder revisar contenido. Nuestro equipo de moderación participa regularmente en cursos de actualización que tienen que ver con sus flujos de trabajo, especialmente cuando nos encontramos con casos al límite de nuestras políticas y casos relativos a cierto contexto. También llevamos a cabo programas de mejora de capacidades, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén al día y en cumplimiento de todas las versiones más recientes de las políticas. Por último, cuando surgen tendencias de contenido urgentes basadas en acontecimientos de actualidad, difundimos rápidamente aclaraciones de las políticas para que los equipos puedan reaccionar de acuerdo con las políticas de Snap.

Proporcionamos a nuestro equipo de moderación de contenido, los "primeros en responder digitalmente" en Snap, apoyo y recursos significativos, incluyendo asistencia para el bienestar en el trabajo y fácil acceso a servicios de salud mental. 

Informe de escaneo de medios de comunicación de explotación y abuso sexual de menores (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.


Hacemos uso de la sólida comparación de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.


Informe

Los siguientes datos se basan en el resultado del escaneo proactivo mediante PhotoDNA y/o CSAI Match de medios subidos a Snapchat por el rollo de la cámara de un usuario.

Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica recursos importantes a este fin y tiene tolerancia cero para este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE (del inglés, Explotación Sexual Infantil), y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la coherencia de ciertas medidas de CSE, y hemos abordado estas incoherencias a través de formaciones de refuerzo para los agentes y un riguroso control de calidad.  Esperamos que el próximo Informe de transparencia detalle de los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de seguridad.  

Medidas de seguridad para la moderación de contenidos

Las medidas de seguridad aplicadas para el escaneo de medios CSEA se establecen en la sección anterior "Medidas de seguridad para la moderación de contenidos" bajo nuestro Informe de la DSA.


Informe de escaneo de medios de comunicación de explotación y abuso sexual de menores (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.


Hacemos uso de la sólida comparación de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.


Informe

Los siguientes datos se basan en el resultado del escaneo proactivo mediante PhotoDNA y/o CSAI Match de medios subidos a Snapchat por el rollo de la cámara de un usuario.

Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica recursos importantes a este fin y tiene tolerancia cero para este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE (del inglés, Explotación Sexual Infantil), y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la coherencia de ciertas medidas de CSE, y hemos abordado estas incoherencias a través de formaciones de refuerzo para los agentes y un riguroso control de calidad.  Esperamos que el próximo Informe de transparencia detalle de los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de seguridad.  

Medidas de seguridad para la moderación de contenidos

Las medidas de seguridad aplicadas para el escaneo de medios CSEA se establecen en la sección anterior "Medidas de seguridad para la moderación de contenidos" bajo nuestro Informe de la DSA.


Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica recursos importantes a este fin y tiene tolerancia cero para este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE (del inglés, Explotación Sexual Infantil), y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la coherencia de ciertas medidas de CSE, y hemos abordado estas incoherencias a través de formaciones de refuerzo para los agentes y un riguroso control de calidad.  Esperamos que el próximo Informe de transparencia detalle de los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de seguridad.  

Medidas de seguridad para la moderación de contenidos

Las medidas de seguridad aplicadas para el escaneo de medios CSEA se establecen en la sección anterior "Medidas de seguridad para la moderación de contenidos" bajo nuestro Informe de la DSA.


Esta cifra se desglosa por Estado miembro de la siguiente manera:

Esta cifra se desglosa por Estado miembro de la siguiente manera: