Unión Europea
1 de julio de 2023 – 31 de diciembre de 2023

Publicado:

25 de abril de 2024

Actualizado:

25 de abril de 2024

Te damos la bienvenida a nuestra página de Transparencia de la Unión Europea (UE), donde publicamos información específica de la UE exigida por la Ley de Servicios Digitales (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios de los Países Bajos (DMA). Nota: la versión más actualizada de estos Informes de Transparencia se encuentra en la localización en-US.

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su Representante legal para lo relativo a la DSA. Puedes comunicarte con el representante en dsa-enquiries [@] snapchat.com para la DSA, en vsp-enquiries [@] snapchat.com para AVMSD y DMA, a través de nuestro sitio de soporte [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Ámsterdam, Países Bajos

Si eres una agencia encargada de hacer cumplir la ley, sigue los pasos que se indican aquí. Comunícate en holandés o inglés cuando te pongas en contacto con nosotros.

Autoridades reguladoras

En el caso de la DSA, nos rige la Comisión Europea y la Autoridad de Consumidores y Mercados de los Países Bajos (ACM). Para el caso de la AVMSD y la DMA, nos rige la Autoridad de Medios de Comunicación de los Países Bajos (CvdM)

Informe de transparencia de la DSA

Según los artículos 15, 24 y 42 de la DSA, Snap debe publicar informes que contengan información reglamentaria sobre la moderación de contenido de Snap para los servicios de Snapchat que se consideren “plataformas en línea”, es decir, Spotlight, For You, perfiles públicos, mapas, Lentes y publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para informar de los esfuerzos de seguridad de Snap, y la naturaleza y el volumen del contenido documentado en nuestra plataforma. Nuestro último informe correspondiente al segundo semestre de 2023 (1 de julio a 31 de diciembre) puede consultarse aquí. Las métricas específicas de la Ley de Servicios Digitales pueden consultarse en esta página.

Promedio de destinatarios activos mensuales 
(Artículos 24.2 y 42.3 de la DSA)

El 31 de diciembre de 2023, contábamos con un promedio de 90.9 millones de destinatarios activos mensuales ("AMAR") en nuestra app Snapchat en la UE. Esto significa que, en los últimos 6 meses, un promedio de 90.9 millones de usuarios registrados en la UE abrieron la app de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado miembro del siguiente modo:

Estas cifras se calcularon para cumplir las reglas actuales de la DSA y solo deben tenerse en cuenta para lo relativo a la DSA. Con el tiempo, hemos ajustado la forma en que calculamos esta cifra debido a cambios en la política interna, las orientaciones de los reguladores y la tecnología, y las cifras no deben compararse entre periodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarie activos que compartimos con diferentes propósitos.


Solicitudes de las autoridades de los Estados miembros
(Artículo 15.1(a) de la DSA)

Solicitudes de retirada

Durante este periodo, hemos recibido 0 solicitudes de retirada de fondos de Estados miembros de la UE en cumplimiento con el artículo 9 de la Ley de Servicios Digitales (DSA).

Solicitudes de información

Durante este período, hemos recibido las siguientes solicitudes de información de Estados miembros de la Unión Europea en cumplimiento con el artículo 10 de la Ley de Servicios Digitales (DSA):

El tiempo promedio de respuesta para informar a las autoridades sobre la recepción de solicitudes de información es de 0 minutos: proporcionamos una respuesta automática confirmando la recepción. El tiempo promedio para procesar las solicitudes de información es de aproximadamente 10 días. Este parámetro refleja el periodo de tiempo que transcurre desde que Snap recibe una solicitud de información hasta que considera que la solicitud está totalmente resuelta. En algunos casos, la duración de este proceso depende en parte de la rapidez con la que las fuerzas de seguridad respondan a las solicitudes de aclaración de Snap necesarias para procesar su solicitud.

Moderación de contenido


Todo el contenido en Snapchat debe adherirse a nuestros lineamientos de la comunidad y a nuestros Términos y condiciones de servicio, así como los términos, lineamientos y las explicaciones de respaldo. A raíz de los mecanismos proactivos de detección y los informes de contenido o cuentas ilegales o infractores, se inicia una revisión; a partir de ese momento, nuestras herramientas procesan la solicitud, recopilan metadatos pertinentes y envían el contenido correspondiente a nuestro equipo de moderación a través de una interfaz de usuario estructurada que facilita las operaciones de revisión eficientes. Cuando nuestros equipos de moderación decidan, a través de revisones a cargo de personas o por medios automatizados, que un usuario infringió nuestros términos y condiciones, podremos eliminar el contenido o la cuenta infractores, cancelar o limitar la visibilidad de la cuenta en cuestión o notificar a las autoridades como se explica en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat.  Los usuarios cuyas cuentas sean bloqueadas por nuestro equipo de seguridad a causa de incumplimientos de los lineamientos de la comunidad pueden presentar una apelación de cuenta bloqueada, y los usuarios pueden apelar contra determinadas medidas de cumplimiento de los contenidos.

Notificaciones sobre contenidos y cuentas (DSA Artículo 15.1(b))

Snap ha puesto en marcha mecanismos que permiten a usuarios y no usuarios notificar a Snap sobre contenidos y cuentas que incumplen nuestros lineamientos de la comunidad y Términos y condiciones de servicio en la plataforma, incluidos aquellos que se consideran ilegales según lo establecido en el artículo 16 de la Ley de Servicios Digitales (DSA). Estos mecanismos de notificación están disponibles en la propia app (es decir, directamente desde el contenido) y también en nuestro sitio web.

Durante el período mencionado, hemos recibido las siguientes notificaciones sobre contenidos y cuentas en la UE:

Durante el segundo semestre de 2003, procesamos 664,896 notificaciones exclusivamente mediante medios automatizados. Todas ellas se aplicaron en contra de nuestros lineamientos de la comunidad, las cuales abarcan los contenidos ilegales.

Además de los contenidos generados por los usuarios y las cuentas, moderamos los anuncios si incumplen las políticas de nuestra plataforma. A continuación se presenta el número total de anuncios denunciados y retirados en la Unión Europea.

Avisos de informantes de confianza (Artículo 15.1(b))

Durante el período cubierto por nuestro último Informe de Transparencia (segundo semestre de 2023), no se designaron formalmente informantes de confianza, según lo dispuesto en la DSA. Como resultado, el número de notificaciones enviados por dichos informantes de confianza fue cero (0) en este periodo.

Moderación proactiva de contenidos (artículo 15.1(c))

Durante el período mencionado, Snap llevó a cabo la moderación de contenidos por iniciativa propia a los siguientes contenidos y cuentas en la UE:

Todos los esfuerzos de moderación por iniciativa propia de Snap se llevaron a cabo mediante intervenciones humanas o automatizadas. En nuestras superficies de contenido público, el contenido generalmente se somete a moderación automática y la revisión a cargo de personas antes de que se pueda distribuir a un público amplio. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor mediante el aprendizaje automático;

  • Herramientas de comparación de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada periódicamente de palabras clave abusivas, incluidos emojis.


Apelaciones (artículo 15.1(d))

Durante el período mencionado, Snap gestionó los siguientes contenidos y apelaciones de cuentas en la UE a través de sus sistemas internos de gestión de reclamaciones:


* Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica importantes recursos a este tema y tiene tolerancia cero con este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE, y hay un equipo limitado de representantes que se ocupan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios de política que afectaron la coherencia de ciertas aplicaciones de CSE, y hemos abordado estas inconsistencias mediante la recapacitación de nuestros representantes y un riguroso control de calidad.  Esperamos que el próximo informe de transparencia revele avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la precisión de las ejecuciones iniciales. 

Medios automatizados para la moderación de contenido (artículo 15.1(e))

En nuestras superficies de contenido público, el contenido generalmente se somete a moderación automática y la revisión a cargo de personas antes de que se pueda distribuir a un público amplio. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal e infractor mediante el aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de idioma abusivo para rechazar contenido en función de una lista identificada y actualizada periódicamente de palabras clave abusivas, incluidos emojis.


La precisión de las tecnologías de moderación automatizada para todos los daños fue de aproximadamente el 96.61 % y la tasa de error fue del 3.39 % aproximadamente.


Salvaguardas de moderación de contenido (artículos 15.1(e))

Reconocemos que la moderación de contenidos entraña riesgos asociados, incluidos los riesgos para las libertades de expresión y reunión que pueden estar causados por la parcialidad de moderadores automatizados y humanos y por informes abusivos, incluso de gobiernos, formaciones políticas o personas bien organizadas. Por lo general, Snapchat no es un lugar para contenido político o de activismo, particularmente en nuestros espacios públicos. 


Sin embargo, para protegerse contra estos riesgos, Snap ha puesto en marcha comprobaciones y capacitación, y cuenta con procedimientos sólidos y coherentes para gestionar las denuncias de contenidos ilegales o infractores, incluidas las procedentes de las autoridades policiales y gubernamentales. Evaluamos y evolucionamos continuamente nuestros algoritmos de moderación de contenido. Aunque los posibles daños a la libertad de expresión son difíciles de detectar, no tenemos conocimiento de ningún problema significativo y ofrecemos vías para que nuestros usuarios denuncien los errores si se producen. 


Nuestras políticas y sistemas promueven una aplicación coherente y justa de la ley y, como se ha descrito anteriormente, ofrecen a los Snapchatters la oportunidad de impugnar de manera significativa los resultados de la aplicación de la ley a través de procesos de notificación y apelación que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de cada Snapchatter.

Nos esforzamos continuamente por mejorar nuestras políticas y procesos de aplicación de la normativa y hemos logrado grandes avances en la lucha contra los contenidos y actividades potencialmente dañinos e ilegales en Snapchat. Esto se refleja en una tendencia al alza en nuestras cifras de presentación de informes y aplicación de la ley que se muestran en nuestro último Informe de transparencia y en la disminución de las tasas de prevalencia de infracciones en Snapchat en general.


Acuerdos extrajudiciales (artículo 24.1(a))

Para el período cubierto por nuestro último Informe de Transparencia (segundo semestre de 2023), no se designaron formalmente órganos de resolución extrajudicial de controversias según lo dispuesto en la DSA. Como resultado, el número de controversias presentadas ante dichos órganos fue cero (0) durante este período, y no podemos proporcionar resultados, tiempos medios de respuesta para los acuerdos y el número de controversias en las que implementamos las decisiones del organismo. 



Suspensión de cuentas (artículo 24.1(b))

Durante el segundo semestre de 2023, no se nos impuso ninguna suspensión de cuentas de conformidad con el artículo 23. El equipo de Confianza y Seguridad de Snap cuenta con procedimientos para limitar la posibilidad de que las cuentas de usuario envíen con frecuencia avisos o quejas que sean manifiestamente infundadas. Estos procedimientos incluyen restringir la creación de informes duplicados y el uso de filtros de correo electrónico para evitar que los usuarios que con frecuencia han presentado informes manifiestamente infundados sigan haciéndolo. Snap toma las medidas de cumplimiento adecuadas contra las cuentas, como se explica en nuestro Explicativo de moderación, cumplimiento y apelaciones de Snapchat, y la información sobre el nivel de cumplimiento de la ley de cuentas de Snap se puede encontrar en nuestro Informe de transparencia (segundo semestre de 2023). Dichas medidas continuarán siendo revisadas e iteradas.


Recursos, experiencia y soporte de moderadores (artículo 42.2)

Dado que nuestro equipo de moderación de contenido opera en todo el mundo, esto nos permite ayudar a mantener a los Snapchatters a salvo las 24 horas del día, los 7 días de la semana. A continuación encontrarás un desglose de nuestros recursos de moderación humana según las especialidades de idioma de los moderadores (ten en cuenta que algunos moderadores se especializan en varios idiomas) al 31 de diciembre de 2023:

La tabla anterior incluye a todos los moderadores que brindan apoyo en los idiomas de los estados miembros de la UE al 31 de diciembre de 2023. En situaciones en las que necesitamos soporte lingüístico adicional, utilizamos servicios de traducción.

Los moderadores se contratan utilizando una descripción de trabajo estándar que incluye un requisito de idioma (según la necesidad). El requisito de idioma establece que el candidato debe ser capaz de demostrar fluidez escrita y hablada en el idioma y tener al menos un año de experiencia laboral para puestos de nivel inicial. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser considerados. Los candidatos también deben demostrar que comprenden la actualidad del país o la región en la que van a moderar los contenidos.

Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para ayudar a proteger nuestra comunidad de Snapchat. La capacitación se lleva a cabo durante un periodo de varias semanas, en el que los nuevos miembros del equipo reciben formación sobre las políticas, herramientas y procedimientos de escalamiento de Snap. Después de la capacitación, cada moderador debe pasar un examen de certificación antes de que se le permita revisar contenidos. Nuestro equipo de moderación participa regularmente en cursos de actualización relevantes para sus flujos de trabajo, particularmente cuando nos encontramos con casos delicados o que dependen del contexto. También ejecutamos programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén actualizados y cumplan con todas las políticas vigentes. Por último, cuando surgen tendencias de contenido urgentes en función de la actualidad, difundimos rápidamente aclaraciones de políticas para que los equipos puedan responder de acuerdo con las políticas de Snap.

Proporcionamos a nuestro equipo de moderación de contenido, los “primeros respondedores digitales” de Snap, con un soporte y recursos significativos, incluido el apoyo para el bienestar en el trabajo y un fácil acceso a servicios de salud mental. 

Informe de escaneo de medios de explotación y abuso sexual infantil (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.


Usamos la sólida coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de los Estados Unidos, según lo exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.


Informe

Los datos que se indican a continuación se basan en el resultado del escaneo proactivo mediante PhotoDNA o la coincidencia de CSAI de los medios cargados por la cámara de un usuario a Snapchat.

Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica importantes recursos a este tema y tiene tolerancia cero con este tipo de conducta. Se requiere capacitación especial para revisar las apelaciones de CSE, y hay un equipo limitado de representantes que se ocupan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios de política que afectaron la coherencia de ciertas aplicaciones de CSE, y hemos abordado estas inconsistencias mediante la recapacitación de nuestros representantes y un riguroso control de calidad. Esperamos que el próximo informe de transparencia revele avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y de la precisión de las ejecuciones iniciales.  

Salvaguardias de moderación de contenido

Las salvaguardas aplicadas para el escaneo de medios de CSEA se establecen en la sección anterior "Salvaguardias de moderación de contenido" incluida en nuestro informe de la DSA.


Informe de escaneo de medios de explotación y abuso sexual infantil (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.


Usamos la sólida coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de los Estados Unidos, según lo exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.


Informe

Los datos que se indican a continuación se basan en el resultado del escaneo proactivo mediante PhotoDNA o la coincidencia de CSAI de los medios cargados por la cámara de un usuario a Snapchat.

Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica importantes recursos a este tema y tiene tolerancia cero con este tipo de conducta. Se requiere capacitación especial para revisar las apelaciones de CSE, y hay un equipo limitado de representantes que se ocupan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios de política que afectaron la coherencia de ciertas aplicaciones de CSE, y hemos abordado estas inconsistencias mediante la recapacitación de nuestros representantes y un riguroso control de calidad. Esperamos que el próximo informe de transparencia revele avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y de la precisión de las ejecuciones iniciales.  

Salvaguardias de moderación de contenido

Las salvaguardas aplicadas para el escaneo de medios de CSEA se establecen en la sección anterior "Salvaguardias de moderación de contenido" incluida en nuestro informe de la DSA.


Detener la explotación sexual infantil es una prioridad absoluta. Snap dedica importantes recursos a este tema y tiene tolerancia cero con este tipo de conducta. Se requiere capacitación especial para revisar las apelaciones de CSE, y hay un equipo limitado de representantes que se ocupan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios de política que afectaron la coherencia de ciertas aplicaciones de CSE, y hemos abordado estas inconsistencias mediante la recapacitación de nuestros representantes y un riguroso control de calidad. Esperamos que el próximo informe de transparencia revele avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y de la precisión de las ejecuciones iniciales.  

Salvaguardias de moderación de contenido

Las salvaguardas aplicadas para el escaneo de medios de CSEA se establecen en la sección anterior "Salvaguardias de moderación de contenido" incluida en nuestro informe de la DSA.


Esta cifra se desglosa por Estado miembro del siguiente modo:

Esta cifra se desglosa por Estado miembro del siguiente modo: