Snap Values
Informe de transparencia
1 de enero de 2024 - 30 de junio de 2024

Publicado:

5 de diciembre de 2024

Actualizado:

5 de diciembre de 2024

Publicamos este informe de transparencia dos veces al año para dar a conocer los esfuerzos de Snap en materia de seguridad. Estamos comprometidos con estos esfuerzos y nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que se preocupan profundamente por nuestra moderación de contenidos, las prácticas de aplicación de la ley y la seguridad y el bienestar de la comunidad de Snapchat. 

Este informe de transparencia abarca el primer semestre de 2024 (1 de enero - 30 de junio). Al igual que en nuestros informes anteriores, compartimos datos sobre el volumen global de contenido dentro de la aplicación y los informes a nivel de cuenta que nuestros equipos de confianza y seguridad recibieron y aplicaron en categorías específicas de infracciones de las Pautas para la comunidad; cómo respondimos a las solicitudes de las fuerzas del orden y los gobiernos; y cómo respondimos a las notificaciones de infracción de derechos de autor y marcas registradas. Como parte de nuestro compromiso permanente de mejorar continuamente nuestros informes de transparencia,

también estamos introduciendo nuevos datos que destacan nuestros esfuerzos proactivos para detectar y hacer cumplir una gama más amplia de infracciones de nuestras Pautas para la comunidad. Hemos incluido estos datos tanto a nivel mundial como nacional en este informe y seguiremos haciéndolo en el futuro. También hemos corregido un error de etiquetado en nuestros informes anteriores: donde antes nos referíamos a «Contenido total aplicado», ahora nos referimos a «Aplicaciones totales» para reflejar el hecho de que los datos proporcionados en las columnas pertinentes incluyen tanto las aplicaciones a nivel de contenido como a nivel de cuenta.

Para más información sobre nuestras políticas para combatir los posibles daños en línea, y los planes para seguir evolucionando nuestras prácticas de información, lea nuestro reciente blog seguridad e impacto sobre este informe de transparencia. Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los informes de transparencia al final de la página.

Tenga en cuenta que la versión más actualizada de este informe de transparencia se encuentra en la localización EN-US.

Resumen de las medidas adoptadas por nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad

Nuestros equipos de confianza y seguridad hacen cumplir nuestras Pautas para la comunidad tanto de forma proactiva (mediante el uso de herramientas automatizadas) como reactiva (en respuesta a denuncias), como se detalla en las siguientes secciones de este informe. En este ciclo de informes (primer semestre de 2024), nuestros equipos de confianza y seguridad adoptaron las siguientes medidas de ejecución: 

Resumen de las infracciones de cuentas y contenidos

Del 1 de julio al 31 de diciembre de 2023, Snap aplicó medidas contra 5 376 714 piezas de contenido en todo el mundo que nos fueron denunciadas e incumplieron nuestras Pautas para la comunidad.

Durante el período del informe, observamos una tasa de visualizaciones infractoras (VVR) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historia en Snapchat, 1 contenía contenido que infringía nuestras políticas. El tiempo medio de respuesta para hacer cumplir el contenido denunciado fue de ~10 minutos.

Resumen de las infracciones de cuentas y contenidos

Del 1 de julio al 31 de diciembre de 2023, Snap aplicó medidas contra 5 376 714 piezas de contenido en todo el mundo que nos fueron denunciadas e incumplieron nuestras Pautas para la comunidad.

Durante el período del informe, observamos una tasa de visualizaciones infractoras (VVR) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historia en Snapchat, 1 contenía contenido que infringía nuestras políticas. El tiempo medio de respuesta para hacer cumplir el contenido denunciado fue de ~10 minutos.

Resumen de las infracciones de cuentas y contenidos

Del 1 de julio al 31 de diciembre de 2023, Snap aplicó medidas contra 5 376 714 piezas de contenido en todo el mundo que nos fueron denunciadas e incumplieron nuestras Pautas para la comunidad.

Durante el período del informe, observamos una tasa de visualizaciones infractoras (VVR) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historia en Snapchat, 1 contenía contenido que infringía nuestras políticas. El tiempo medio de respuesta para hacer cumplir el contenido denunciado fue de ~10 minutos.

Análisis de contenido e infracciones de cuenta

Nuestras tasas generales de denuncias y cumplimiento de la ley se mantuvieron bastante similares a las de los seis meses anteriores. Este ciclo, observamos un aumento aproximado del 10 % en el total de informes de contenidos y cuentas.

El conflicto entre Israel y Hamas comenzó durante este período, y como resultado de ello observamos un aumento en el contenido infractor. El total de denuncias relacionadas con el discurso de odio aumentó en un ~61 %, mientras que el total de denuncias de discurso de odio en contenidos aumentó en un ~97 % y las denuncias de cuentas únicas aumentó en un ~124 %. Las denuncias y las medidas contra el terrorismo y el extremismo violento también han aumentado, aunque representan <0,1 % del total de medidas contra el terrorismo en nuestra plataforma. Nuestros equipos de confianza y seguridad siguen atentos a medida que surgen conflictos mundiales para ayudar a mantener Snapchat seguro. También hemos ampliado nuestro informe de transparencia para incluir más información a nivel mundial y nacional sobre el total de informes, contenidos aplicregulados y cuentas únicas reguladas por infracciones de nuestra política de terrorismo y extremismo violento. 

Resumen de las infracciones de cuentas y contenidos

Del 1 de julio al 31 de diciembre de 2023, Snap aplicó medidas contra 5 376 714 piezas de contenido en todo el mundo que nos fueron denunciadas e incumplieron nuestras Pautas para la comunidad.

Durante el período del informe, observamos una tasa de visualizaciones infractoras (VVR) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historia en Snapchat, 1 contenía contenido que infringía nuestras políticas. El tiempo medio de respuesta para hacer cumplir el contenido denunciado fue de ~10 minutos.

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.

Hacemos uso de herramientas tecnológicas activas de detección, como la sólida comparación de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos de forma proactiva en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Esto refleja una disminución total del 39 % con respecto al período anterior debido a las mejoras en las opciones de presentación de informes de los Snapchatters, lo que aumenta nuestra visibilidad de las posibles CSEA enviadas en Snapchat. 

*Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de contenidos particulares de medios enviados al NCMEC es igual a nuestro total de contenido regulado. También hemos excluido de este número las presentaciones retractadas al NCMEC.

Contenido sobre autolesiones y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, que continúan tomando decisiones para construir Snapchat de manera diferente. Como plataforma diseñada para la comunicación entre amigos de verdad, creemos que Snapchat puede desempeñar un papel único a la hora de empoderar a los amigos para que se ayuden mutuamente en los momentos difíciles.

Cuando nuestro equipo de confianza y seguridad se da cuenta de que un Snapchatter está en peligro, puede reenviar recursos de prevención y ayuda para autolesiones y notificar al personal de respuesta a emergencias cuando sea apropiado. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, y están disponibles públicamente para todos los Snapchatters.

Apelaciones

En nuestro informe anterior, presentamos las estadísticas sobre las apelaciones, en las que destacamos el número de veces que los usuarios nos pidieron que revisáramos nuestra decisión inicial de moderación en su cuenta. En este informe, hemos ampliado nuestras apelaciones para capturar toda la gama de nuestras categorías de políticas para infracciones a nivel de cuenta.

* Detener la difusión de contenidos o actividades relacionados con la explotación sexual infantil es una prioridad absoluta. Snap dedica recursos importantes a este fin y tiene tolerancia cero para este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE (del inglés, Explotación Sexual Infantil), y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la coherencia de ciertas medidas de CSE, y hemos abordado estas incoherencias a través de formaciones de refuerzo para los agentes y un riguroso control de calidad.  Esperamos que el próximo Informe de transparencia detalle de los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de seguridad.

Descripción general regional y por país

Esta sección ofrece una visión general de las acciones de nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias de infracciones dentro de la aplicación, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todos los contenidos de Snapchat -y a todos los Snapchatters- en todo el mundo, independientemente de su ubicación.

La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para su descarga a través del archivo CSV adjunto.

Resumen de las medidas adoptadas por nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad 

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.

Hacemos uso de herramientas tecnológicas activas de detección, como la sólida comparación de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos de forma proactiva en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Esto refleja una disminución total del 39 % con respecto al período anterior debido a las mejoras en las opciones de presentación de informes de los Snapchatters, lo que aumenta nuestra visibilidad de las posibles CSEA enviadas en Snapchat. 

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.

Hacemos uso de herramientas tecnológicas activas de detección, como la sólida comparación de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos de forma proactiva en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Esto refleja una disminución total del 39 % con respecto al período anterior debido a las mejoras en las opciones de presentación de informes de los Snapchatters, lo que aumenta nuestra visibilidad de las posibles CSEA enviadas en Snapchat. 

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente nuestras políticas publicitarias. Estamos comprometidos con un enfoque responsable y respetuoso de la publicidad, con el fin de crear una experiencia segura y placentera para todos nuestros usuarios. A continuación hemos incluido información sobre nuestra moderación de los anuncios pagados en Snapchat. Ten en cuenta que los anuncios en Snapchat pueden eliminarse por diversas razones, como se indica en las Políticas de publicidad de Snap, incluyendo contenido engañoso, contenido para adultos, contenido violento o perturbador, incitación al odio e infracción de la propiedad intelectual. Además, ya puedes consultar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.