Informe de transparencia
1 de enero de 2023 – 30 de junio de 2023
Publicado:
25 de octubre de 2023
Actualizado:
13 de diciembre de 2023

Para brindar informaciónsobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen del contenido que se informa en nuestra plataforma, publicamos informes de transparencia dos veces al año. Estamos comprometidos a hacer estos informes más completos e informativos para las diferentes partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenido y aplicación de la ley, y el bienestar de nuestra comunidad. 
Este Informe de Transparencia abarca el primer semestre de 2023 (del 1 de enero al 30 de junio). Siguiendo la misma línea que en informes anteriores, proporcionamos datos sobre el número global de informes sobre contenidos integrados en aplicaciones y sobre cuentas que recibimos y aplicamos en relación con categorías concretas de infracciones de las políticas; sobre cómo respondimos a las solicitudes de las fuerzas de seguridad y los gobiernos; y nuestras medidas de aplicación detalladas por país.

En nuestra búsqueda constante de perfeccionar la calidad de nuestros informes de transparencia estamos incorporando algunas novedades en esta edición. Hemos ampliado la cantidad de información relacionada con nuestras prácticas publicitarias y de moderación, así como sobre las apelaciones de contenido y de cuentas. De acuerdo con la normativa establecida en la Ley de Servicios Digitales de la Unión Europea, hemos incorporado datos adicionales de contexto sobre nuestras operaciones en los Estados miembros de la UE, como el número de moderadores de contenidos y usuarios activos mensuales (MAU) en la región. Gran parte de esta información puede encontrarse en el informe y en la página dedicada a la Unión Europea de nuestro Centro de Transparencia.
Por último, hemos actualizado nuestro Glosario con enlaces a nuestros Lineamientos de la comunidad, que ofrecen un mayor contexto sobre la política de nuestra plataforma y nuestros esfuerzos operativos.
Para más información sobre nuestras políticas para la prevención de riesgos en línea, y sobre nuestros planes para continuar evolucionando nuestras prácticas de información, consulta nuestro reciente blog de Seguridad e Impacto dedicado a este Informe de Transparencia.
Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat consulta nuestra pestaña sobre los Informes de transparencia en la parte inferior de la página.
Recuerda que la versión más actualizada de este Informe de Transparencia está disponible en la versión en-US.

Vista general de las infracciones de contenido y cuenta

Entre el 1 de enero y el 30 de junio de 2023, Snap tomó medidas contra 6,216,118 piezas de contenido en todo el mundo que infringían nuestras políticas.
Durante el período del informe, se observó una tasa de visualizaciones infractoras (VVR) del 0.02 %, lo que implica que de cada 10,000 visualizaciones de Snaps e Historias en Snapchat, 2 de ellas tenían contenido que infringía nuestras políticas.

Análisis de contenido y violaciones de cuentas

El porcentaje global de denuncias y sanciones fue bastante similar al de los seis meses anteriores, con algunas excepciones en categorías fundamentales. En este ciclo, se experimentó una disminución cercana al 3 % en la cantidad total de denuncias y sanciones sobre contenidos y cuentas.
Las categorías con las variaciones más notables fueron Acoso y bullying virtual, Spam, Armas e Información falsa. Los casos de acoso y bullying aumentaron en un 56 % en el número total de denuncias, y en un 39 % en las sanciones por contenido y cuentas únicas. Estos aumentos en las sanciones se vieron acompañados por una reducción de aproximadamente el 46 % en el tiempo de respuesta, lo que demuestra la eficacia operativa de nuestro equipo en la represión de este tipo de contenido infractor. De forma similar, se registró un aumento del 65 % en el número total de denuncias de spam, con un incremento del 110 % en la aplicación de la normativa sobre contenidos y del 80 % en el número de cuentas únicas afectadas, mientras que nuestros equipos también redujeron el tiempo de respuesta en un 80 %. Nuestra categoría de armas experimentó una disminución de aproximadamente un 13 % en los informes totales, un descenso del alrededor del 51% en la aplicación de contenido y una reducción del ~53 % en las cuentas únicas aplicadas. Por último, nuestra categoría de Información Falsa experimentó un aumento del ~14 % en el total de informes, pero un descenso del ~78 % en la aplicación de contenidos y del ~74 % en las cuentas únicas aplicadas. Esto se puede atribuir al proceso continuo de Control de Calidad (QA) y a los recursos que aplicamos a los informes de información falsa, para garantizar que nuestros equipos de moderación están detectando y actuando con precisión contra la información falsa en la plataforma.
En resumen, aunque hemos observado cifras similares a las del último período, consideramos de suma importancia seguir mejorando las herramientas que nuestra comunidad utiliza para denunciar de forma activa y precisa las posibles infracciones a medida que aparecen en la plataforma.

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEAI, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.
Hacemos uso de herramientas tecnológicas activas de detección, como PhotoDNA robust hash-matching y Google's Child Sexual Abuse Imagery (CSAI) Match para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.
En el primer semestre de 2023, identificamos y tomamos medidas de forma proactiva en el 98% de la totalidad de denuncias de explotación y abuso sexual a menores registradas aquí, lo que representa un aumento del 4 % en comparación con el periodo anterior.
**Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de medios individuales enviadas al NCMEC es igual a nuestro contenido total regulado.

Contenido de autolesión y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los usuarios de Snapchat, que nos influyeron, y continúan influyéndonos, para tomar decisiones que permitan construir Snapchat de manera diferente. Como plataforma diseñada para la comunicación entre amigos reales, creemos que Snapchat puede desempeñar un papel único en el empoderamiento de los amigos para que se ayuden mutuamente en momentos difíciles.
Cuando nuestro equipo de Confianza y Seguridad identifica a un Snapchatter en dificultades, puede enviar recursos de soporte y prevención del daño autoinfligido, y para notificar al personal de respuesta a emergencias cuando corresponda. Los recursos que compartimos están disponibles en nuestra lista de recursos de seguridad globales, y estos están disponibles públicamente para todos los Snapchatters.

Apelaciones

A partir de este informe, estamos empezando a reportar sobre el número de apelaciones de usuarios cuyas cuentas fueron bloqueadas por incumplimiento de nuestras políticas. Solo restablecemos las cuentas que nuestros moderadores consideran que fueron bloqueadas incorrectamente. Durante este período, estamos informando sobre apelaciones relacionadas con contenido acerca de drogas.  En nuestro próximo informe, esperamos publicar más datos relacionados con las apelaciones derivadas de otras infracciones de nuestras políticas.
**Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de medios individuales enviadas al NCMEC es igual a nuestro contenido total regulado.

Moderación de anuncios

Snap se compromete a garantizar firmemente que todos los anuncios cumplan plenamente con las políticas de nuestra plataforma. Creemos en un enfoque responsable y respetuoso de la publicidad, que cree una experiencia segura y agradable para todos nuestros usuarios. A continuación hemos incluido información sobre nuestra moderación de publicidad. Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Ahora también puedes encontrar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia. 

Información del país

En esta sección se proporciona un resumen de la aplicación de los Lineamientos de la comunidad en una muestra de las regiones geográficas. Aplicamos nuestros Lineamientos a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.
La información para el resto de los países está disponible para descargar en el archivo CSV adjunto: