Snap Values
Informe de transparencia
1 de enero de 2024 - 30 de junio de 2024

Publicado:

5 de diciembre de 2024

Actualizado:

5 de diciembre de 2024

Publicamos este informe de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap. Estamos comprometidos con estos esfuerzos y nos esforzamos continuamente para que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestra moderación de contenido, las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.

Este informe de transparencia cubre la primera mitad de 2024 (del 1.º de enero al 30 de junio). Al igual que en nuestros informes anteriores, compartimos datos sobre el volumen global de informes de contenido en la aplicación y a nivel de cuenta que nuestros equipos de Confianza y Seguridad recibieron e hicieron cumplir en categorías específicas de infracciones de los lineamientos de la comunidad; cómo respondimos a las solicitudes de las fuerzas del orden y de los Gobiernos; y cómo respondimos a los avisos de infracción de derechos de autor y marcas comerciales. También proporcionamos perspectivas específicas por país en los archivos enlazados en lo más bajo de esta página.

Como parte de nuestro compromiso continuo de mejorar continuamente nuestros informes de transparencia, también presentamos nuevos datos que destacan nuestros esfuerzos proactivos de detectar y hacer cumplir las normas para prevenir una gama más amplia de infracciones a nuestros lineamientos de la comunidad. Incluimos en este informe estos datos tanto a nivel global como a nivel nacional y lo seguiremos haciendo en el futuro. También corregimos un error de etiquetado en nuestros informes previos: cuando antes hacíamos referencia a ”contenido total al que se aplicaron las normas”, ahora hacemos referencia a “aplicaciones totales” para reflejar el hecho de que los datos proporcionados en las columnas relevantes incluyen aplicaciones tanto a nivel de contenido como a nivel de cuenta.

Para obtener más información sobre nuestras políticas para combatir posibles riesgos en línea y los planes para seguir haciendo evolucionar nuestras prácticas de elaboración de informes, lee nuestro reciente blog de seguridad e impacto sobre este informe de transparencia. Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat, consulta nuestra pestaña sobre los Informes de transparencia en la parte inferior de la página.

Recuerda que la versión más actualizada de este Informe de transparencia está disponible en la versión EN-US.

Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad

Nuestros equipos de Confianza y Seguridad hacen cumplir nuestros lineamientos de la comunidad de manera proactiva (usando herramientas automatizadas) y reactiva (en respuesta a informes), como se dan más detalles en las siguientes secciones de este informe. En este ciclo de informes (primer semestre de 2024), nuestros equipos de Confianza y Seguridad tomaron las siguientes medidas de cumplimiento: 

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Análisis de contenido y violaciones de cuentas

Nuestros índices generales de notificación y aplicación se mantuvieron bastante similares a los de los seis meses anteriores. En este ciclo, vimos un aumento aproximado del 10 % en el contenido total y en los informes de cuentas.

El conflicto entre Israel y Hamás comenzó durante este período, y como resultado vimos un repunte del contenido violento. El total de denuncias relacionadas con la incitación al odio aumentó un ~61 %, mientras que el total de ejecuciones de contenido de incitación al odio aumentó un ~97 % y las ejecuciones de cuentas únicas aumentaron un ~124 %. También aumentaron los informes y las sanciones por terrorismo y extremismo violento, aunque suponen <0,1% del total de sanciones por contenido en nuestra plataforma. Nuestros equipos de Confianza y Seguridad siguen atentos a los conflictos globales que surgen para ayudar a mantener la seguridad de Snapchat. También ampliamos nuestro informe de transparencia para incluir más información a nivel mundial y de país sobre el total de denuncias, contenidos ejecutados y cuentas únicas ejecutadas por infracciones de nuestra política de Terrorismo y Extremismo Violento. 

Vista general de las infracciones de contenido y cuenta

Entre el 1 de julio y el 31 de diciembre de 2023, Snap aplicó medidas contra 5,376,714 contenidos en todo el mundo que nos fueron denunciados y que infringían nuestros Lineamientos de la comunidad.

Durante el período del informe, vimos una Tasa de Visualizaciones Violativas (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestras políticas. El promedio del tiempo de respuesta para ejecutar el contenido denunciado fue de ~10 minutos.

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Hacemos uso de herramientas de detección de tecnología activa, como la sólida herramienta de coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual de Google (CSAI) para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Eso refleja un descenso total del 39 % respecto al periodo anterior, debido a las mejoras en las opciones de los Snapchatters para informar, lo que aumenta nuestra visibilidad de los posibles CSEA enviados en Snapchat. 

*Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de contenido multimedia individual enviadas al NCMEC es igual a nuestro contenido total regulado. También excluimos de este número las presentaciones retractadas al NCMEC.

Contenido de autolesión y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, lo que sigue informando nuestras decisiones de construir Snapchat de forma diferente. Como plataforma diseñada para la comunicación entre amigos reales, creemos que Snapchat puede desempeñar un rol único a la hora de empoderar a los amigos para que se ayuden mutuamente en los momentos difíciles.

Cuando nuestro equipo de Confianza y Seguridad tiene conocimiento de un Snapchatter en apuros, puede enviarle recursos de apoyo y prevención de autolesiones, y avisar al personal de emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, y están a disposición pública de todos los Snapchatters.

Apelaciones

En nuestro informe anterior, introdujimos métricas sobre apelaciones, en las que destacábamos el número de veces que los usuarios nos pedían que revisáramos de nuevo nuestra decisión inicial de moderación contra su cuenta. En este informe, ampliamos nuestros llamamientos para abarcar toda la gama de categorías de nuestra política de infracciones a nivel de la cuenta.

* Detener la difusión de contenidos o actividades relacionados con la explotación sexual infantil es una prioridad absoluta. Snap dedica importantes recursos a este objetivo y tiene tolerancia cero con este tipo de conductas.  Se requiere capacitación especial para revisar las apelaciones de CSE, y hay un equipo limitado de representantes que se ocupan de estas revisiones debido a la naturaleza gráfica del contenido.  En el otoño de 2023, Snap implementó cambios de política que afectaron la coherencia de ciertas aplicaciones de CSE, y hemos abordado estas inconsistencias mediante la recapacitación de nuestros representantes y un riguroso control de calidad.  Esperamos que el próximo informe de transparencia de Snap revele avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la precisión de las ejecuciones iniciales.

Descripción regional y por país

Esta sección proporciona una descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad, tanto proactivamente como en respuesta a los informes de infracciones en la aplicación, en una muestra de regiones geográficas. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.

La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.

Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Hacemos uso de herramientas de detección de tecnología activa, como la sólida herramienta de coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual de Google (CSAI) para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Eso refleja un descenso total del 39 % respecto al periodo anterior, debido a las mejoras en las opciones de los Snapchatters para informar, lo que aumenta nuestra visibilidad de los posibles CSEA enviados en Snapchat. 

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Hacemos uso de herramientas de detección de tecnología activa, como la sólida herramienta de coincidencia de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual de Google (CSAI) para identificar imágenes y videos ilegales conocidos de abuso sexual infantil, respectivamente, y denunciarlos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Eso refleja un descenso total del 39 % respecto al periodo anterior, debido a las mejoras en las opciones de los Snapchatters para informar, lo que aumenta nuestra visibilidad de los posibles CSEA enviados en Snapchat. 

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable y respetuoso de la publicidad, que cree una experiencia segura y agradable para todos nuestros usuarios. A continuación, incluimos información util sobre nuestra moderación de anuncios pagados en Snapchat. Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Ahora también puedes encontrar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.