Snap Values
Unión Europea
1 de julio de 2023 – 31 de diciembre de 2023

Publicado:

25 de abril, 2024

Actualizado:

29 de agosto de 2024

Te damos la bienvenida a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales (DSA), la Directiva de servicios de comunicación audiovisual (AVMSD), la Ley de Medios de Holanda (DMA) y el Reglamento sobre contenidos terroristas en línea (TCO). Tené en cuenta que la versión más actualizada de estos Informes de transparencia se puede encontrar en la configuración regional en-US (inglés de EE. UU.).

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal a los efectos de la DSA. Podés comunicarte con el representante a dsa-enquiries [at] snapchat.com para el DSA, a vsp-enquiries [at] snapchat.com para AVMSD y DMA, a tco-enquiries [at] snapchat.com para TCO, a través de nuestro Sitio de ayuda [acá], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si representás a una agencia encargada de hacer cumplir la ley, seguí los pasos que se indican acá.

Cuando te comuniques con nosotros, por favor, hacelo en idioma holandés o inglés.

Autoridades reguladoras

Para la DSA, estamos regulados por la Comisión europea y la Autoridad para consumidores y mercados de los Países Bajos (ACM). Para AVMSD y el DMA, estamos regulados por la Autoridad de Medios de Comunicación Holandesa (CvdM). Para TCO, estamos regulados por la Autoridad de los Países Bajos para la prevención de contenido terrorista en línea y material de abuso sexual infantil (ATKM).

Informe de transparencia de DSA

Snap está obligado por los artículos 15, 24 y 42 de la DSA a publicar informes que contienen información prescrita sobre la moderación de contenido de Snap para los servicios de Snapchat que se consideran “plataformas en línea”, es decir, Spotlight, Para Vos, Perfiles públicos, Mapas, Lentes y publicidad. Este informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen de contenido reportado en nuestra plataforma. Nuestro último informe para el segundo semestre de 2023 (1 de julio al 31 de diciembre) se puede encontrar aquí (con actualizaciones de nuestras cifras de destinatarios activos mensuales promedio a partir del 1 de agosto de 2024 -- ver la parte inferior de esta página). Las métricas específicas de la Ley de Servicios Digitales se pueden encontrar en esta página.

Promedio mensual de destinatarios activos 
(Artículos 24.2 y 42.3 de la DSA)

Al 31 de diciembre de 2023, tenemos un promedio de 90,9 millones de receptores activos mensuales (AMAR) de nuestra aplicación Snapchat en la UE. Esto significa que, en los últimos 6 meses, un promedio de 90,9 millones de usuarios registrados en la UE abrieron la aplicación de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado Miembro de la siguiente manera:

Estas cifras se calcularon para cumplir con las reglas de la DSA actuales y solo deben aplicarse para los fines de la DSA. Hemos cambiado la forma de calcular esta cifra a lo largo del tiempo, incluso en respuesta a los cambios de la política interna, la orientación de los reguladores y la tecnología, y las cifras no están destinadas a ser comparadas entre períodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.


Solicitudes de la autoridad de los Estados miembros
(Artículo 15.1(a) de la DSA)

Solicitudes de retirada 

Durante este período, hemos recibido 0 solicitudes de retirada de datos de los Estados miembros de la UE en conformidad con el Artículo 9 de la DSA. 

Solicitudes de información 

Durante este período, hemos recibido las siguientes solicitudes de información de los Estados miembros de la UE:

El tiempo promedio para informar a las autoridades de la recepción de Solicitudes de información es de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción. El tiempo promedio para dar curso a las Solicitudes de información es de aproximdamente 10 días. Esta métrica refleja el período de tiempo desde que Snap recibe una IR, hasta cuando Snap cree que la solicitud se ha resuelto completamente. En algunos casos, la duración de este proceso depende en parte de la velocidad con la que las fuerzas de seguridad respondan a las solicitudes de aclaración de Snap necesarias para procesar su solicitud.

Moderación de contenidos


Todo el contenido de Snapchat debe adherirse a nuestras Pautas para la comunidad y Condiciones de servicio, así como a condiciones, pautas y explicaciones adicionales. Los mecanismos de detección proactiva y los informes de contenido o cuentas ilegales o que violan las normas requieren una revisión, en cuyo momento, nuestros sistemas de herramientas procesan la solicitud, recopilan metadatos relevantes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada que está diseñada para facilitar operaciones de revisión efectivas y eficientes. Cuando nuestros equipos de moderación determinan que un usuario ha violado nuestras Condiciones, ya sea a través de revisión humana o por medios automatizados, podemos eliminar el contenido o la cuenta infractora y cerrar o limitar la visibilidad de la cuenta correspondiente, y/o notificar a las fuerzas de seguridad como se explica en nuestro Explicativo de moderación, aplicación de la ley y apelaciones de Snapchat.  Los usuarios cuyas cuentas están bloqueadas por nuestro equipo de seguridad por violaciones a las Pautas para la comunidad pueden enviar una apelación de cuenta bloqueada y los usuarios pueden apelar contra ciertas medidas de cumplimiento de contenido.

Avisos de contenido y cuentas (Artículo 15.1(b) de la DSA)

Snap ha implementado mecanismos para permitir a usuarios y no usuarios notificar a Snap sobre el contenido y las cuentas que infringen nuestras Pautas para la comunidad y las Condiciones de servicio en la plataforma, incluidos los que consideran ilegales en conformidad con el Artículo 16 de la DSA.  Estos mecanismos de denuncia están disponibles en la propia aplicación (es decir, directamente desde la pieza de contenido) y en nuestro sitio web.

Durante el período relevante, recibimos las siguientes notificaciones de contenido y cuentas en la UE:

In H2’23, we handled 664,896 notices solely via automated means. All of these were enforced against our Community Guidelines because our Community Guidelines encapsulate illegal content. 

In addition to user-generated content and accounts, we moderate advertisements if they violate our platform policies. Below are the total ads that were reported and removed in the EU. 

Avisos de Alertadores de confianza (Artículo 15.1(b))

Durante el período de nuestro más reciente Informe de transparencia (segundo semestre de 2023), no hubo Alertadores de confianza designados formalmente en el marco de la DSA. Como resultado, el número de avisos enviados por dichos Alertadores de Confianza fue cero (0) en este período.

Moderación proactiva de contenido (Artículo 15.1(c))

Durante el período relevante, Snap penalizó el siguiente contenido y cuentas en la UE después de realizar moderación de contenido por iniciativa propia:

Todos los esfuerzos de moderación de iniciativa propia de Snap aprovecharon la experiencia humana o la automatización. En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de que sea elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal y que viole las normas usando aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos emojis.


Apelaciones (Artículo 15.1(d))

Durante el período relevante, Snap procesó las siguientes apelaciones de contenido y cuentas en la UE a través de sus sistemas internos de gestión de quejas:


* Detener la explotación sexual infantil es prioridad absoluta. Snap dedica recursos significativos a esto y tiene tolerancia cero para dicha conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en la política que afectaron la consistencia de ciertas medidas de cumplimiento de las CSE y hemos abordado estas inconsistencias a través del reentrenamiento de los agentes y un riguroso control de calidad.  Esperamos que el próximo informe de transparencia revele los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de cumplimiento. 

Medios automatizados para la moderación de contenido (Artículo 15.1(e))

En nuestras superficies de contenido público, el contenido generalmente pasa por moderación automática y revisión humana antes de que sea elegible para su distribución a una audiencia amplia. Con respecto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenido ilegal y que viole las normas usando aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos emojis.


La precisión de las tecnologías de moderación automatizada para todos los daños fue de aproximadamente el 96,61 % y la tasa de error fue de aproximadamente el 3,39 %.


Salvaguardas de la moderación de contenido (Artículos 15.1(e))

Reconocemos que hay riesgos asociados a la moderación de contenido, incluidos los riesgos para las libertades de expresión y de reunión, que pueden estar causados por sesgos de moderadores automatizados y humanos e informes abusivos, incluso por parte de gobiernos, grupos políticos o personas bien organizadas. Snapchat generalmente no es un lugar para contenido político o activista, particularmente en nuestros espacios públicos. 


Sin embargo, para protegerse contra estos riesgos, Snap cuenta con pruebas y capacitación implementadas y cuenta con procedimientos sólidos y consistentes para manejar las denuncias de contenido ilegal o que viole la ley, incluidas las procedentes de las autoridades policiales y gubernamentales. Evaluamos y evolucionamos continuamente nuestros algoritmos de moderación de contenido. Si bien los daños potenciales a la libertad de expresión son difíciles de detectar, no somos conscientes de ningún problema significativo y proporcionamos vías para que nuestros usuarios denuncien los errores si se producen. 


Nuestras políticas y sistemas promueven el cumplimiento consistente y justo de las normas y, como se describió anteriormente, proporcionan a los Snapchatters la oportunidad de disputar de forma significativa los resultados del cumplimiento de las normas a través de los procesos de notificaciones y apelaciones que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.

Nos esforzamos continuamente para mejorar nuestras políticas y procesos de cumplimiento y hemos hecho grandes avances para combatir el contenido y las actividades potencialmente dañinos e ilegales en Snapchat. Esto se refleja en una tendencia al alza en las cifras de denuncias y cumplimiento de las normas que se muestran en nuestro más reciente informe de transparencia y las tasas de prevalencia decrecientes de las violaciones de los derechos en Snapchat en general.


Acuerdos extrajudiciales (Artículo 24.1(a))

Durante el período de nuestro más reciente informe de transparencia (segundo semestre de 2023), no hubo órganos de solución de controversias extrajudiciales designados formalmente en el marco de la DSA. Como resultado, el número de disputas enviadas a dichos órganos fue de cero (0) en este período y no podemos proporcionar resultados, los tiempos de respuesta medios para los acuerdos y el porcentaje de disputas en los que implementamos las decisiones del organismo. 



Suspensiones de cuentas (Artículo 24.1(b))

Durante el segundo semestre de 2023, no realizamos ninguna suspensión de cuentas impuesta de conformidad con el artículo 23. El equipo de Confianza y seguridad de Snap tiene procedimientos establecidos para limitar la posibilidad de que las cuentas de los usuarios envíen con frecuencia avisos o quejas que son manifiestamente infundadas. Estos procedimientos incluyen restringir la creación de denuncias duplicadas y el uso de filtros de correo electrónico para evitar que los usuarios que han enviado con frecuencia denuncias manifiestamente infundadas continúen haciéndolo. Snap toma las medidas de cumplimiento apropiadas contra las cuentas como se explica en nuestra Explicación de la moderación de Snapchat, cumplimiento de normas y apelaciones. La información sobre el nivel de cumplimiento de las normas de las cuentas de Snap se puede encontrar en nuestro informe de transparencia (segundo semestre de 2023). Dichas medidas seguirán revisándose e iterándose.


Recursos, la experiencia y el apoyo del moderador (Artículo 42.2)

Nuestro equipo de moderación de contenido opera en todo el mundo, lo que nos permite ayudar a mantener a los Snapchatters seguros las 24 horas del día, los 7 días de la semana. A continuación, encontrarás el desglose de nuestros recursos de moderación humana por las especialidades de idiomas de los moderadores (tené en cuenta que algunos moderadores se especializan en múltiples idiomas) a partir del 31 de diciembre de 2023:

La tabla anterior incluye a todos los moderadores que admiten las lenguas de los Estados miembros de la UE al 31 de diciembre de 2023. En situaciones en las que necesitamos ayuda lingüística adicional, usamos servicios de traducción.

Los moderadores se reclutan usando una descripción de trabajo estándar que incluye un requisito de idioma (dependiendo de la necesidad). El requisito de idioma establece que el candidato debería poder demostrar fluidez escrita y hablada en el idioma y tener al menos un año de experiencia laboral para puestos de nivel inicial. Los candidatos deben cumplir con los requisitos educativos y de antecedentes para ser considerados. Los candidatos también deben demostrar una comprensión de los eventos actuales del país o la región de la moderación de contenido a la que le brindarán soporte.

Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para ayudar a proteger a nuestra comunidad de Snapchat. La capacitación se dicta durante un período de varias semanas, en el que los nuevos miembros del equipo reciben información sobre las políticas, las herramientas y los procedimientos de escalada de Snap. Después de la capacitación, cada moderador debe aprobar un examen de certificación antes de que se le permita revisar el contenido. Nuestro equipo de moderación participa con regularidad en cursos de actualización relacionados con sus flujos de trabajo, especialmente cuando se dan casos que rozan los límites de las políticas y dependen del contexto. También llevamos a cabo programas de mejora de habilidades, sesiones de certificación y pruebas para garantizar que todos los moderadores estén actualizados y en cumplimiento de todas las políticas actualizadas. Finalmente, cuando aparecen tendencias de contenido urgentes en función de eventos actuales, diseminamos rápidamente aclaraciones de las políticas, para que los equipos puedan responder de acuerdo con las políticas de Snap.

Le proporcionamos a nuestro equipo de moderación de contenido, los “primeros en responder digitales” de Snap, con apoyo y recursos importantes, incluso les brindamos apoyo para su bienestar en el trabajo y el fácil acceso a los servicios de salud mental. 

Informe de exploración de medios de explotación y abuso sexual infantil (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA) en nuestra plataforma es una prioridad importante para Snap y evolucionamos continuamente nuestras capacidades para combatir estos y otros delitos.


Usamos la coincidencia de hash sólida de PhotoDNA y la Coincidencia de Imágenes de Abuso Sexual Infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados de los EE. UU. (NCMEC), como lo exige la ley. El NCMEC, a su vez, coordina con las autoridades del orden público nacional o internacional, según sea necesario.


Informe

Los siguientes datos se basan en el resultado del escaneo proactivo usando PhotoDNA o coincidencias de CSAI de los medios cargados por el carrete de la cámara de un usuario a Snapchat.

Detener la explotación sexual infantil es prioridad absoluta. Snap dedica recursos significativos a esto y tiene tolerancia cero para dicha conducta. Se requiere capacitación especial para revisar las apelaciones de CSE y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en la política que afectaron la consistencia de ciertas medidas de cumplimiento contra la CSE y hemos abordado estas inconsistencias a través del reentrenamiento de los agentes y un riguroso control de calidad. Esperamos que el próximo informe de transparencia revele los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de cumplimiento.

Salvaguardas de la moderación de contenido

Las salvaguardas aplicadas para el Escaneo de Medios CSEA se establecen en la sección anterior “Salvaguardas de la Moderación de Contenido” en nuestro Informe de la DSA.


Informe de transparencia de contenido terrorista en línea en la Unión Europea

Publicado: 17 de junio de 2024

Última actualización: 17 de junio de 2024

Este informe de transparencia se publica de acuerdo con los artículos 7(2) y 7(3) de la Regulación 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenido terrorista en línea (la Regulación). Cubre el período de informe del 1 de enero - 31 de diciembre de 2023


Información general
  • Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de hosting en relación con la identificación y la eliminación o la desactivación del acceso al contenido terrorista

  • Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de hosting para abordar la reaparición en línea de material que se ha eliminado previamente o al que se ha desactivado el acceso porque se consideró contenido terrorista, en particular cuando se han usado herramientas automatizadas


Los terroristas, las organizaciones terroristas y los extremistas violentos tienen prohibido usar Snapchat. El contenido que defienda, promueva, glorifique el avance del terrorismo u otros actos criminales violentos está prohibido en nuestras Pautas para la Comunidad. Los usuarios pueden denunciar contenido que infringe nuestras Pautas para la comunidad a través de nuestro menú de denuncias dentro de la aplicación y nuestro Sitio de ayuda. También usamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubrí. 


Independientemente de cómo podemos saber de la existencia de contenido infractor, nuestros equipos de Confianza y Seguridad, a través de una combinación de automatización y moderación humana, revisan rápidamente el contenido identificado y toman decisiones de cumplimiento. Las medidas de cumplimiento pueden incluir eliminar el contenido, advertir o bloquear la cuenta que infractora y, si se justifica, denunciar la cuenta a las fuerzas de seguridad. Para evitar la reaparición de contenido terrorista u otro contenido extremista violento en Snapchat, además de trabajar con las fuerzas de seguridad, tomamos medidas para bloquear el dispositivo asociado con la cuenta que lo infringe y evitar que el usuario cree otra cuenta de Snapchat.


Se pueden encontrar detalles adicionales sobre nuestras medidas para identificar y eliminar el contenido terrorista en nuestra Explicación sobre contenido de odio, terrorismo y extremismo violento y nuestra Explicación sobre la moderación, la aplicación y las apelaciones



Denuncias y medidas de cumplimiento 
  • Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o a los que se ha desactivado el acceso después de las órdenes de eliminación o medidas específicas, y el número de órdenes de eliminación donde el contenido no se ha eliminado o el acceso no se ha desactivado en conformidad con el primer subpárrafo del artículo 3(7) y el primer subpárrafo del artículo 3(8), junto con los motivos


Durante el período de informe, Snap no recibió ninguna orden de eliminación, ni nos requirieron implementar ninguna medida específica de conformidad con el artículo 5 de la Regulación. En consecuencia, no nos requirieron tomar medidas de cumplimiento en virtud de la Regulación.


La siguiente tabla describe las medidas de cumplimiento tomadas en función de las denuncias de los usuarios y la detección proactiva contra el contenido y las cuentas, tanto en la UE como en otras partes del mundo, que infringió nuestras Pautas para la comunidad, relacionadas con el contenido de terrorismo y extremismo violento

Apelaciones de cumplimiento
  • Artículo 7(3)(d): el número y el resultado de las quejas manejadas por el proveedor de servicios de alojamiento de acuerdo con el artículo 10

  • Artículo 7(3)(g): el número de casos en los que el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo después de una queja del proveedor de contenido


Debido a que no tuvimos ninguna acción de cumplimiento requerida en virtud del Reglamento durante el período de informe como se señaló anteriormente, no manejamos ninguna queja en conformidad con el artículo 10 del Reglamento y no tuvimos restablecimientos asociados.


La siguiente tabla contiene información relacionada con las apelaciones y restablecimientos, tanto en la UE como en otras partes del mundo, que involucra contenido extremista violento y terrorista aplicado en virtud de nuestras Pautas para la comunidad.

Judicial Proceedings & Appeals
  • Article 7(3)(e): the number and the outcome of administrative or judicial review proceedings brought by the hosting service provider

  • Article 7(3)(f): the number of cases in which the hosting service provider was required to reinstate content or access thereto as a result of administrative or judicial review proceedings


As we had no enforcement actions required under the Regulation during the reporting period, as noted above, we had no associated administrative or judicial review proceedings, and we were not required to reinstate content as a result of any such proceedings.

DSA de la UE: Destinatarios activos mensuales promedio (agosto de 2024)
(Artículos 24.2 y 42.3 de la DSA)

El 1 de agosto de 2024, contábamos con un promedio de 92,4 millones de destinatarios activos mensuales (“AMAR”, por sus siglas en inglés) de nuestra aplicación de Snapchat en la UE. Esto significa que, en los últimos 6 meses, un promedio de 92,4 millones de usuarios registrados en la UE abrieron la aplicación de Snapchat al menos una vez al mes.

Esta cifra se desglosa por Estado Miembro de la siguiente manera: