Informe de transparencia
1 de enero de 2023 – 30 de junio de 2023
Publicado:
25 de octubre de 2023
Actualizado:
13 de diciembre de 2023

A fin de aportar información sobre las iniciativas de seguridad de Snap y sobre la naturaleza y el volumen de los contenidos que se denuncian en nuestra plataforma, publicamos informes de transparencia dos veces al año. Estamos comprometidos en continuar haciendo estos informes más completos e informativos para las muchas partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenidos y aplicación de la ley, así como del bienestar de nuestra comunidad.
Este informe de transparencia abarca el primer semestre de 2023 (del 1 de enero al 30 de junio). Siguiendo la misma línea que en informes anteriores, proporcionamos datos sobre el número global de informes sobre contenidos integrados en aplicaciones y cuentas que recibimos y aplicamos en relación con categorías concretas de infracciones de las políticas, y sobre cómo respondimos a las solicitudes de las fuerzas de seguridad y los gobiernos; y nuestras medidas de aplicación detalladas por país.

En nuestra búsqueda constante de perfeccionar la calidad de nuestros informes de transparencia estamos incorporando algunas novedades en esta edición. Hemos ampliado la cantidad de información relacionada con nuestras prácticas publicitarias y de moderación, así como sobre los recursos de contenido y de cuentas. De acuerdo con la normativa establecida en la Ley de Servicios Digitales de la Unión Europea, hemos incorporado datos adicionales de contexto sobre nuestras operaciones en los Estados miembros de la UE, como el número de moderadores de contenidos y usuarios activos mensuales (MAU) en la región. Gran parte de esta información puede encontrarse en el informe y en la página dedicada a la Unión Europea de nuestro Centro de transparencia.
Por último, hemos actualizado nuestro Glosario con enlaces a nuestras Pautas para la comunidad, que ofrecen un mayor contexto sobre la política de nuestra plataforma y nuestros esfuerzos operativos.
Para más información sobre nuestras políticas para la prevención de riesgos en línea, y sobre nuestros planes para continuar evolucionando nuestras prácticas de información, consulta nuestro reciente blog de Seguridad e impacto dedicado a este informe de transparencia.
Para encontrar recursos adicionales para la seguridad y la privacidad en Snapchat, consulte nuestra pestaña de informes de transparencia en la parte inferior de la página.
Recuerde que la versión más actualizada de este informe de transparencia está disponible en la versión en-US.

Resumen de las infracciones de cuentas y contenidos

Entre el 1 de enero y el 30 de junio de 2023, Snap tomó medidas contra 6 216 118 piezas de contenido en todo el mundo que infringían con nuestras políticas.
Durante el período del informe, se observó una tasa de visualizaciones infractoras (VVR) del 0,02 %, lo que implica que de cada 10 000 visualizaciones de Snaps e Historias en Snapchat, 2 de ellas tenían contenido que infringía nuestras políticas.

Análisis de contenido e infracciones de cuenta

El porcentaje global de denuncias y sanciones fue bastante similar al de los seis meses anteriores, con algunas excepciones en categorías fundamentales. En este ciclo, se experimentó una disminución cercana al 3 % en la cantidad total de denuncias y sanciones sobre contenidos y cuentas.
Las categorías con las variaciones más notables fueron acoso y acoso virtual, spam, armas e información falsa. Los casos de acoso y acoso virtual aumentaron en un 56 % en el número total de denuncias y en un 39 % en las sanciones por contenido y cuentas únicas. Estos aumentos en las sanciones se vieron acompañados por una reducción de aproximadamente el 46 % en el tiempo de respuesta, lo que demuestra la eficacia operativa de nuestro equipo en la represión de este tipo de contenido infractor. De forma similar, se registró un aumento del 65 % en el número total de denuncias de spam, con un incremento del 110 % en la aplicación de la normativa sobre contenidos y del 80 % en el número de cuentas únicas afectadas, mientras que nuestros equipos también redujeron el tiempo de respuesta en un 80 %. Nuestra categoría de armas experimentó una disminución del aproximadamente un 13 % en los informes totales, un descenso del alrededor del 51% en la aplicación de contenido y una reducción del ~53 % en las cuentas únicas aplicadas. Por último, nuestra categoría de Información Falsa experimentó un aumento del ~14 % en el total de informes, pero un descenso del ~78 % en la aplicación de contenidos y del ~74 % en las cuentas únicas aplicadas. Esto se puede atribuir al proceso continuo de Control de Calidad (QA) y a los recursos que aplicamos a los informes de información falsa, para garantizar que nuestros equipos de moderación están detectando y actuando con precisión contra la información falsa en la plataforma.
En resumen, aunque hemos observado cifras similares a las del último período, consideramos de suma importancia seguir mejorando las herramientas que nuestra comunidad utiliza para denunciar de forma activa y precisa las posibles infracciones a medida que aparecen en la plataforma.

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.
Hacemos uso de herramientas tecnológicas activas de detección, como PhotoDNA robust hash-matching y Google's Child Sexual Abuse Imagery (CSAI) Match para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.
En el primer semestre de 2023, identificamos y tomamos medidas proactivas en el 98% de la totalidad de denuncias de explotación y abuso sexual a menores registradas aquí, lo que representa un aumento del 4 % en comparación con el periodo anterior.
**Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro total de contenido regulado.

Contenido sobre autolesiones y suicidio

Nos preocupa enormemente la salud mental y el bienestar de los Snapchatters y esto ha condicionado —y sigue haciéndolo— nuestras decisiones para construir Snapchat de forma diferente. Como plataforma diseñada para la comunicación entre amigos de verdad, creemos que Snapchat puede desempeñar un papel único a la hora de empoderar a los amigos para que se ayuden mutuamente en los momentos difíciles.
Cuando nuestro equipo de confianza y seguridad reconoce a un Snapchatter que se encuentra mal, puede enviar recursos de prevención y ayuda contra las autolesiones, así como notificar al personal de respuesta a emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, y están disponibles públicamente para todos los Snapchatters.

Apelaciones

A partir de este informe, comenzamos a informar sobre el número de apelaciones de usuarios a los que se les bloqueó la cuenta por incumplimiento de nuestras políticas. Solo restablecimos las cuentas que nuestros moderadores determinaron que habían sido bloqueadas incorrectamente. Durante este periodo, informamos sobre las apelaciones relacionadas con contenidos de drogas. En nuestro siguiente informe, publicaremos más datos relativos a las apelaciones relacionadas con otras infracciones de nuestras políticas.
**Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro total de contenido regulado.

Moderación de anuncios

Snap se compromete a garantizar de forma firme que todos los anuncios cumplan por completo las políticas de nuestra plataforma. Estamos comprometidos con un enfoque responsable y respetuoso de la publicidad, con el fin de crear una experiencia segura y placentera para todos nuestros usuarios. A continuación incluimos información sobre nuestra moderación de la publicidad. Ten en cuenta que los anuncios en Snapchat pueden eliminarse por diversas razones, como se indica en Políticas de publicidad de Snap, incluidos contenido engañoso, contenido para adultos, contenido violento o perturbador, incitación al odio e infracción de la propiedad intelectual. Además, ya puedes consultar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.

Resumen general por países

Esta sección ofrece un resumen de la aplicación de nuestras Pautas para la comunidad en una muestra de regiones geográficas. Nuestras pautas se aplican a todos los contenidos de Snapchat —y a todos los Snapchatters— en todo el mundo, independientemente de su ubicación.
La información sobre cada país está disponible para su descarga en el archivo CSV adjunto: