Informe de transparencia

1 de julio de 2022 - 31 de diciembre de 2022

Publicado:

15 de junio de 2023

Actualizado:

15 de junio de 2023

A fin de aportar información sobre las iniciativas de seguridad de Snap y sobre la naturaleza y el volumen de los contenidos que se denuncian en nuestra plataforma, publicamos informes de transparencia dos veces al año. Tenemos el compromiso de seguir haciendo que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenidos y de cumplimiento de la ley, así como por el bienestar de nuestra comunidad. 

Este informe abarca el segundo semestre de 2022 (1 de julio - 31 de diciembre). Al igual que en nuestros informes anteriores, compartimos datos sobre la cantidad global de contenido en la aplicación y de denuncias en cuentas que recibimos y regulamos a través de categorías específicas de infracciones de las políticas; sobre cómo atendimos las solicitudes de las fuerzas del orden y los gobiernos; y sobre nuestras actuaciones en materia de cumplimiento desglosadas por país. También se recogen las últimas ampliaciones de este informe, como la Tasa de visualizaciones infractoras de contenido de Snapchat, las posibles infracciones de marcas registradas y las incidencias de información falsa en la plataforma.

Como parte de nuestro compromiso continuo de mejorar nuestros informes de transparencia, estamos introduciendo algunos elementos nuevos con esta versión. Hemos añadido una sección denominada "Análisis de contenido e infracciones de cuenta" en la que detectamos los principales cambios de datos en relación con nuestro período de informe anterior. 

Además, hemos actualizado la forma en que presentamos los datos en nuestras tablas de contenido y de infracciones de cuenta, tanto en la página de destino como en nuestras subpáginas de países. Anteriormente, ordenábamos las infracciones de mayor a menor contenido. Para mejorar la coherencia, nuestros pedidos ahora reflejan nuestras Pautas para la comunidad. Esto se produjo como sugerencia del Consejo asesor de seguridad de Snap, que de forma independiente educa, desafía, plantea problemas y asesora a Snap sobre cómo ayudar a mantener la comunidad de Snapchat segura.

Por último, hemos actualizado nuestro Glosario con enlaces a nuestras explicaciones de Pautas para la comunidad, que proporcionan un contexto adicional en torno a nuestra política de la plataforma y nuestros esfuerzos operativos. 

Para obtener más información sobre nuestras políticas para combatir daños en línea, y sobre los planes para seguir evolucionando nuestras prácticas de notificación, consulte nuestro reciente blog de Seguridad e impacto sobre este informe de transparencia. 

Para encontrar recursos adicionales para la seguridad y la privacidad en Snapchat, consulte nuestra pestaña de Informes de transparencia en la parte inferior de la página.

Resumen de las infracciones de cuentas y contenidos

Del 1 de julio a diciembre de 2022, Snap aplicó medidas contra 6.360.594 piezas de contenido en todo el mundo que infringían nuestras normas. 

Durante el periodo del informe, hemos observado una Tasa de visualizaciones infractoras o VVR (Violative View Rate) del 0,03 %, lo que significa que por cada 10.000 visualizaciones de snaps e historias en Snapchat, 3 contenían contenido que infringía nuestras normas.

*La aplicación correcta y sistemática contra la información falsa es un proceso dinámico que requiere un contexto y una diligencia actualizados.  Dado que nos esforzamos por mejorar continuamente la precisión de la aplicación de la legislación por parte de nuestros agentes en esta categoría, hemos optado, desde el primer semestre de 2022, por informar las cifras en las categorías de "Contenido regulado" y "Cuentas únicas reguladas" que se estiman sobre la base de una rigurosa revisión de la calidad de una parte estadísticamente significativa de las medidas de aplicación de la legislación sobre información falsa.  En concreto, se muestrea una parte estadísticamente significativa de las medidas de aplicación de información falsa en cada país y se verifica la calidad de las decisiones de aplicación.  A continuación, utilizamos esas medidas de control de calidad para obtener tasas de cumplimiento con un intervalo de confianza del 95 % (+/- 5 % de margen de error), que utilizamos para calcular las medidas de control de información falsa notificadas en el Informe de transparencia.  

Análisis de contenido e infracciones de cuenta

Observamos un aumento del 38 % en el contenido total y los informes de cuentas en este ciclo, lo que puede atribuirse a una actualización en nuestro menú de informes en la aplicación para las cuentas, que, a su vez, proporcionó a los Snapchatters más opciones para la presentación de informes. En consecuencia, observamos un aumento del 12 % en el contenido total regulado y un aumento del 40 % en el total de cuentas únicas reguladas. En particular, los Snapchatters informaron sobre más contenido y cuentas en las categorías de Acoso y acoso virtual y otras categorías de bienes regulados, que registraron aumentos de ~300 % y ~100 % en los informes, respectivamente, y aumentos de ~83 % y ~86 % en las medidas de cumplimiento de contenido, respectivamente. También reconocimos un aumento del ~68 % en los informes y un aumento del ~88 % en las medidas de cumplimiento de contenido contra el spam.

Además, el mayor número de informes sobre contenido y cuentas dio lugar a un aumento de los plazos de respuesta para la aplicación de contenido y cuentas. El tiempo medio de respuesta para todo el contenido y las cuentas sigue siendo inferior a 1 hora para todas las categorías.   

En general, aunque observamos aumentos generales en todos los ámbitos, creemos que es importante seguir mejorando las herramientas que utiliza nuestra comunidad para informar de forma activa y precisa sobre las infracciones a medida que aparecen en la plataforma

Cómo combatir la explotación y el abuso sexual de menores 

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.

Nuestro Equipo de Confianza y Seguridad utiliza herramientas de detección de tecnología activa, tales como la robusta detección de coincidencias de hash PhotoDNA, y el cotejo de imágenes de abuso sexual infantil de Google (CSAI, por sus siglas en inglés) para identificar imágenes y vídeos ilegales de abuso sexual infantil, respectivamente, y denunciarlos al Centro nacional estadounidense de menores desaparecidos y explotados (NCMEC, por sus siglas en inglés), según lo requerido por la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.

En la segunda mitad de 2022, detectamos y actuamos de manera proactiva en el 94 % del total de infracciones de explotación y abusos sexuales a menores aquí denunciadas.

**Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro total de contenido regulado.

Contenido extremista terrorista y violento

Contenido extremista terrorista y violento

Durante el período que se examina, eliminamos 132 cuentas por infringir nuestra política de prohibición de contenido terrorista y extremista violento.

En Snap, eliminamos el contenido terrorista y extremista violento, informado a través de múltiples canales. Por ejemplo, alentamos a los usuarios a denunciar el contenido terrorista y de extremismo violento mediante nuestro menú de denuncia desde la misma aplicación y colaboramos estrechamente con las fuerzas del orden para hacer frente al contenido terrorista y extremista violento que pueda aparecer en Snap.

Contenido sobre autolesiones y suicidio

Contenido sobre autolesiones y suicidio

Nos preocupa enormemente la salud mental y el bienestar de los Snapchatters y esto ha condicionado —y sigue haciéndolo— nuestras decisiones para construir Snapchat de forma diferente. Como plataforma diseñada para la comunicación entre amigos de verdad, creemos que Snapchat puede desempeñar un papel único a la hora de empoderar a los amigos para que se ayuden mutuamente en los momentos difíciles.

Cuando nuestro equipo de confianza y seguridad reconoce a un Snapchatter que se encuentra mal, puede enviar recursos de prevención y ayuda contra las autolesiones, así como notificar al personal de respuesta a emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, y están disponibles públicamente para todos los Snapchatters.

Resumen general por países

Esta sección ofrece un resumen de la aplicación de nuestras Pautas para la comunidad en una muestra de regiones geográficas. Nuestras pautas se aplican a todos los contenidos de Snapchat —y a todos los Snapchatters— en todo el mundo, independientemente de su ubicación.

La información sobre cada país está disponible para su descarga en el archivo CSV adjunto: