Informe de transparencia
1 de enero de 2022 - 30 de junio de 2022

Publicado:

29 de noviembre de 2022

Actualizado:

29 de noviembre de 2022

A fin de aportar información sobre las iniciativas de seguridad de Snap y sobre la naturaleza y el volumen de los contenidos que se denuncian en nuestra plataforma, publicamos informes de transparencia dos veces al año. Tenemos el compromiso de seguir haciendo que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenidos y de cumplimiento de la ley, así como por el bienestar de nuestra comunidad.

Este informe abarca el primer semestre de 2022 (1 de enero a 30 de junio). Al igual que en nuestros informes anteriores, compartimos datos sobre la cantidad global de contenido en la aplicación y de denuncias a nivel de cuentas que recibimos y regulamos a través de categorías específicas de infracciones; sobre cómo atendimos las solicitudes de las fuerzas del orden y los gobiernos; y sobre nuestras actuaciones en materia de cumplimiento desglosadas por país. También se recogen las últimas ampliaciones de este informe, como la Tasa de visualizaciones infractoras de contenido de Snapchat, las posibles infracciones de marcas registradas y las incidencias de información falsa en la plataforma.

Como parte de nuestro compromiso continuo de mejorar nuestros informes de transparencia, estamos introduciendo varios elementos nuevos en este informe. Para esta entrega y las siguientes, añadimos un glosario de los términos utilizados a lo largo del informe. Nuestro objetivo es proporcionar una mayor transparencia con respecto a estos términos, señalando claramente qué formas de contenido infractor se incluyen y se regulan en cada categoría. Por primera vez, también introducimos la información falsa como una categoría independiente a nivel de país, sobre la base de nuestra práctica anterior de reportar información falsa a nivel mundial.

Además, ofrecemos más información sobre nuestras medidas para combatir las imágenes de explotación y abuso sexual a menores o CSEAI (Child Sexual Exploitation and Abuse Imagery). De ahora en adelante, compartiremos información sobre el total de contenido CSEAI que hemos regulado con su eliminación, así como el número total de denuncias* CSEAI (es decir, "CyberTips") que hemos hecho llegar al Centro Nacional para Menores Desaparecidos y Explotados de los Estados Unidos (NCMEC).

Para obtener más información sobre nuestras políticas para combatir daños en línea, y sobre los planes para seguir evolucionando nuestras prácticas de notificación, consulte nuestro reciente blog de Seguridad e impacto sobre este informe de transparencia. 

Para encontrar recursos adicionales para la seguridad y la privacidad en Snapchat, consulte nuestra pestaña de Informes de transparencia en la parte inferior de la página.

Resumen de las infracciones de cuentas y contenidos

Entre el 1 de enero y el 30 de junio de 2022, hemos regulado 5 688 970 piezas de contenido en todo el mundo que infringían nuestras normas. Las acciones de aplicación incluyen eliminar el contenido ofensivo o cerrar la cuenta en cuestión.

Durante el periodo del informe, hemos observado una Tasa de visualizaciones infractoras o VVR (Violative View Rate) del 0,04 %, lo que significa que por cada 10 000 visualizaciones de snaps e historias en Snapchat, 4 contenían contenido que infringía nuestras normas.

Violaciones ampliadas

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de nuestras principales prioridades y desarrollamos continuamente nuestras capacidades para combatir este y otros tipos de delitos.

Nuestros equipos de confianza y seguridad utilizan herramientas de detección con tecnología activa, tales como la robusta detección de coincidencias de hash PhotoDNA y la coincidencia de imágenes de abuso sexual a menores o CSAI (Child Sexual Abuse Imagery) de Google, para identificar las imágenes y los videos ilegales conocidos de abusos sexuales a menores y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados de los Estados Unidos (NCMEC), tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.

En el primer semestre de 2022, detectamos y actuamos de forma proactiva en el 94 % del total de infracciones por explotación y abuso sexual a menores aquí recogidas, lo que supone un aumento del 6 % desde nuestro informe anterior.

*Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro total de contenido regulado.

Contenido extremista terrorista y violento

Durante el periodo del informe, hemos eliminado 73 cuentas por infringir nuestra política de prohibición de contenido terrorista y de extremismo violento.

En Snap eliminamos el contenido terrorista y de extremismo violento que se denuncia a través de múltiples canales. Por ejemplo, alentamos a los usuarios a denunciar el contenido terrorista y de extremismo violento mediante nuestro menú de denuncia desde la misma aplicación y colaboramos estrechamente con las fuerzas del orden para hacer frente al contenido terrorista y de extremismo violento que pueda aparecer en Snap.

Contenido sobre autolesiones y suicidio

Nos preocupa enormemente la salud mental y el bienestar de los Snapchatters y esto ha condicionado —y sigue haciéndolo— nuestras decisiones para construir Snapchat de forma diferente. Como plataforma diseñada para la comunicación entre amigos de verdad, creemos que Snapchat puede desempeñar un papel único a la hora de empoderar a los amigos para que se ayuden mutuamente en los momentos difíciles.

Cuando nuestro equipo de confianza y seguridad reconoce a un Snapchatter que se encuentra mal, puede enviar recursos de prevención y ayuda contra las autolesiones, así como notificar al personal de respuesta a emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, y están disponibles públicamente para todos los Snapchatters.

Resumen general por países

Esta sección ofrece un resumen de la aplicación de nuestras Pautas para la comunidad en una muestra de regiones geográficas. Nuestras pautas se aplican a todos los contenidos de Snapchat —y a todos los Snapchatters— en todo el mundo, independientemente de su ubicación.

La información sobre cada país está disponible para su descarga en el archivo CSV adjunto: