Informe de transparencia
1 de julio de 2023 – 31 de diciembre de 2023

Publicado:

25 de abril de 2024

Actualizado:

25 de abril de 2024

Para proporcionar más información útil sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen de los contenidos que se publican en nuestra plataforma, publicamos este informe de transparencia dos veces al año. Nos comprometemos a seguir haciendo que estos informes sean más completos e informativos para la seguridad y el bienestar de nuestra comunidad, y de las muchas partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenidos y de aplicación de la ley. 

Este Informe de transparencia abarca el segundo semestre de 2023 (del 1 de julio al 31 de diciembre). Al igual que en nuestros informes anteriores, compartimos datos sobre el número global de informes de contenido en la aplicación y a nivel de cuenta que recibimos y aplicamos en categorías específicas de infracciones de las políticas; cómo respondimos a las solicitudes de las fuerzas del orden y de los Gobiernos; y nuestras acciones de aplicación desglosadas por países.

Como parte de nuestro compromiso permanente de mejorar continuamente nuestros informes de transparencia, con esta versión introducimos algunos elementos nuevos. 

En primer lugar, ampliamos nuestra tabla principal para incluir las denuncias y la aplicación de la ley contra contenidos y cuentas relacionados tanto con el Terrorismo y el Extremismo Violento como con la Explotación y el Abuso Sexual Infantil (CSEA). En informes anteriores, habíamos destacado las supresiones de cuentas realizadas en respuesta a esas infracciones en secciones separadas. Seguiremos exponiendo nuestros esfuerzos proactivos y reactivos contra el CSEA, así como nuestros informes al NCMEC, en una sección aparte. 

En segundo lugar, proporcionamos información ampliada sobre los recursos, indicando el total de recursos y reincorporaciones por aplicación de los Lineamientos de la comunidad. 

Por último, ampliamos nuestra sección de la Unión Europea para proporciona más información útil sobre las actividades de Snap en la UE. En concreto, publicamos nuestro último Informe de transparencia de DSA y otras métricas relativas a nuestro análisis de contenido multimedia de CSEA.

Para más información sobre nuestras políticas para la prevención de riesgos en línea, y sobre nuestros planes para continuar evolucionando nuestras prácticas de información, consulta nuestra reciente entrada de blog sobre seguridad e impacto dedicado a este Informe de transparencia. Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat consulta nuestra pestaña sobre los Informes de transparencia en la parte inferior de la página.

Recuerda que la versión más actualizada de este Informe de transparencia está disponible en la versión en-US.

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Análisis de contenido y violaciones de cuentas

Nuestros índices generales de notificación y aplicación se mantuvieron bastante similares a los de los seis meses anteriores. En este ciclo, vimos un aumento aproximado del 10 % en el contenido total y en los informes de cuentas.

El conflicto entre Israel y Hamás comenzó durante este período, y como resultado vimos un repunte del contenido violento. El total de denuncias relacionadas con la incitación al odio aumentó un ~61 %, mientras que el total de ejecuciones de contenido de incitación al odio aumentó un ~97 % y las ejecuciones de cuentas únicas aumentaron un ~124 %. También aumentaron los informes y las sanciones por terrorismo y extremismo violento, aunque suponen <0,1% del total de sanciones por contenido en nuestra plataforma. Nuestros equipos de Confianza y Seguridad siguen atentos a los conflictos globales que surgen para ayudar a mantener la seguridad de Snapchat. También ampliamos nuestro informe de transparencia para incluir más información a nivel mundial y de país sobre el total de denuncias, contenidos ejecutados y cuentas únicas ejecutadas por infracciones de nuestra política de Terrorismo y Extremismo Violento. 

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Hacemos uso de herramientas de detección de tecnología activa, como la sólida herramienta de coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual de Google (CSAI) para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Eso refleja un descenso total del 39 % respecto al periodo anterior, debido a las mejoras en las opciones de los Snapchatters para informar, lo que aumenta nuestra visibilidad de los posibles CSEA enviados en Snapchat. 

*Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de contenido multimedia individual enviadas al NCMEC es igual a nuestro contenido total regulado. También excluimos de este número las presentaciones retractadas al NCMEC.

Contenido de autolesión y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, lo que sigue informando nuestras decisiones de construir Snapchat de forma diferente. Como plataforma diseñada para la comunicación entre amigos reales, creemos que Snapchat puede desempeñar un rol único a la hora de empoderar a los amigos para que se ayuden mutuamente en los momentos difíciles.

Cuando nuestro equipo de Confianza y Seguridad tiene conocimiento de un Snapchatter en apuros, puede enviarle recursos de apoyo y prevención de autolesiones, y avisar al personal de emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, y están a disposición pública de todos los Snapchatters.

Apelaciones

En nuestro informe anterior, introdujimos métricas sobre apelaciones, en las que destacábamos el número de veces que los usuarios nos pedían que revisáramos de nuevo nuestra decisión inicial de moderación contra su cuenta. En este informe, ampliamos nuestros llamamientos para abarcar toda la gama de categorías de nuestra política de infracciones a nivel de la cuenta.

* Detener la difusión de contenidos o actividades relacionados con la explotación sexual infantil es una prioridad absoluta. Snap dedica importantes recursos a este objetivo y tiene tolerancia cero con este tipo de conductas.  Se requiere capacitación especial para revisar las apelaciones de CSE, y hay un equipo limitado de representantes que se ocupan de estas revisiones debido a la naturaleza gráfica del contenido.  En el otoño de 2023, Snap implementó cambios de política que afectaron la coherencia de ciertas aplicaciones de CSE, y hemos abordado estas inconsistencias mediante la recapacitación de nuestros representantes y un riguroso control de calidad.  Esperamos que el próximo informe de transparencia de Snap revele avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la precisión de las ejecuciones iniciales.

Descripción regional y por país

En esta sección se proporciona un resumen de la aplicación de los Lineamientos de la comunidad en una muestra de las regiones geográficas. Aplicamos nuestros Lineamientos a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.

La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Hacemos uso de herramientas de detección de tecnología activa, como la sólida herramienta de coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual de Google (CSAI) para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Eso refleja un descenso total del 39 % respecto al periodo anterior, debido a las mejoras en las opciones de los Snapchatters para informar, lo que aumenta nuestra visibilidad de los posibles CSEA enviados en Snapchat. 

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Hacemos uso de herramientas de detección de tecnología activa, como la sólida herramienta de coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual de Google (CSAI) para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Eso refleja un descenso total del 39 % respecto al periodo anterior, debido a las mejoras en las opciones de los Snapchatters para informar, lo que aumenta nuestra visibilidad de los posibles CSEA enviados en Snapchat. 

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Hacemos uso de herramientas de detección de tecnología activa, como la sólida herramienta de coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual de Google (CSAI) para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Eso refleja un descenso total del 39 % respecto al periodo anterior, debido a las mejoras en las opciones de los Snapchatters para informar, lo que aumenta nuestra visibilidad de los posibles CSEA enviados en Snapchat. 

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable y respetuoso de la publicidad, que cree una experiencia segura y agradable para todos nuestros usuarios. A continuación, incluimos información util sobre nuestra moderación de anuncios pagados en Snapchat. Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Ahora también puedes encontrar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.