Snap Values
Informe de transparencia
1 de julio de 2023 – 31 de diciembre de 2023

Publicado:

25 de abril de 2024

Actualizado:

25 de abril de 2024

Para ofrecer más información sobre las medidas de seguridad de Snap y la naturaleza y el volumen de los contenidos denunciados en nuestra plataforma, publicamos este informe de transparencia dos veces al año. Nos comprometemos a seguir mejorando estos informes para que sean más completos e informativos en lo que respecta a la seguridad y el bienestar de nuestra comunidad, así como de las numerosas partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenidos y cumplimiento de la ley. 

Este Informe de transparencia abarca el segundo semestre de 2023 (del 1 de julio al 31 de diciembre). Al igual que en nuestros informes anteriores, compartimos datos sobre el número global de denuncias sobre contenido en la aplicación y a nivel de cuenta que hemos recibido y penalizado en categorías específicas de infracciones de la política; cómo hemos respondido a las solicitudes de las fuerzas del orden y los Gobiernos; y nuestras medidas de penalización desglosadas por país.

Como parte de nuestro compromiso continuo por mejorar constantemente nuestros informes de transparencia, en esta publicación introducimos algunos elementos nuevos. 

Primero, expandimos nuestra tabla principal para incluir denuncias y medidas de penalización contra el contenido y las cuentas vinculadas al Terrorismo y el Extremismo Violento y la Explotación y el Abuso Sexual Infantil (CSEA). En informes anteriores, habíamos destacado las eliminaciones de cuentas realizadas en respuesta a esas infracciones en secciones separadas. Continuaremos describiendo nuestros esfuerzos proactivos y reactivos contra CSEA, así como nuestras denuncias al NCMEC, en una sección separada. 

En segundo lugar, hemos proporcionado información ampliada sobre las apelaciones, en la que se describe el total de apelaciones y restablecimientos por las medidas de penalización de las Pautas para la comunidad. 

Finalmente, expandimos nuestra sección de la Unión Europea, lo que proporciona más información sobre las actividades de Snap en la UE. Específicamente, estamos publicando nuestro Informe de transparencia de la DSA más reciente y métricas adicionales sobre nuestro escaneo de medios de CSEA.

Para obtener más información sobre nuestras políticas para combatir los daños en línea y los planes que tenemos para seguir mejorando nuestras prácticas de denuncia, consultá la entrada reciente de nuestro blog Seguridad e impacto acerca de este informe de transparencia. Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consultá la pestaña Acerca de los Informes de Transparencia, en la parte inferior de la página.

Se debe considerar que la versión más actualizada de este Informe de Transparencia se puede encontrar en la configuración regional en-US.

Resumen de las infracciones de contenido y cuenta

Del 1 de julio al 31 de diciembre de 2023, Snap penalizó 5 376 714 piezas de contenido en todo el mundo que se denunciaron a nosotros y que infringían nuestras Pautas para la comunidad.

En el período de este informe, vimos una Tasa de visualización de contenido infractor (VVR, por sus siglas en inglés) del 0,01 %. Esto significa que de cada 10 000 visualizaciones de Snap e historias de Snap en Snapchat, 1 tenía contenido que infringía nuestras políticas. El tiempo promedio para penalizar el contenido denunciado fue de ~10 minutos.

Análisis de contenido y violaciones de cuentas

Nuestras tasas generales de denuncias y cumplimiento se mantuvieron bastante similares a las de los seis meses anteriores. En este ciclo, vimos un aumento aproximado del 10 % en el contenido total y las denuncias de cuentas.

El conflicto Israel-Hamas comenzó durante este período y, como resultado, vimos un aumento en el contenido infractor. El total de denuncias relacionadas con el discurso de odio aumentó ~61 % aproximadamente, mientras que el total de medidas de cumplimiento de contenido de discurso de odio aumentó en ~97 % y las medidas de cumplimiento de cuentas únicas aumentaron en ~124 %. Las denuncias y las medidas de cumplimiento de terrorismo y extremismo violento también han aumentado, aunque constituyen <0,1 % del total de medidas de cumplimiento de contenido en nuestra plataforma. Nuestros equipos de Confianza y Seguridad continúan vigilantes a medida que surgen conflictos globales para ayudar a mantener la seguridad de Snapchat. También expandimos nuestro informe de transparencia para incluir más información a nivel global y nacional sobre el total de denuncias, el contenido aplicado y las cuentas únicas aplicadas por infracciones de nuestra política de Terrorismo y Extremismo Violento. 

Lucha contra la explotación y abuso sexual de menores

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA) en nuestra plataforma es una prioridad importante para Snap y evolucionamos continuamente nuestras capacidades para combatir estos y otros delitos.

Utilizamos herramientas de detección de tecnología activa, como el robusto hash-matching PhotoDNA y las coincidencias de imágenes de abuso sexual infantil (CSAI, por sus siglas en inglés) de Google para identificar imágenes ilegales y videos ilegales conocidos de abuso sexual infantil, respectivamente, y reportarlos al Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (NCMEC) según lo exigido por la ley. El NCMEC, a su vez, coordina con las autoridades del orden público nacional o internacional, según sea necesario.

En la segunda mitad de 2023, detectamos y actuamos proactivamente en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Esto refleja una disminución total del 39 % en comparación con el período anterior debido a las mejoras en las opciones de los Snapchatters para denunciar, lo que aumenta nuestra visibilidad de las posibles CSEA enviadas en Snapchat. 

*Tené en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro contenido total penalizado. También excluimos de este número las presentaciones retractadas al NCMEC.

Contenido de autolesión y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, algo que continúa informando nuestras decisiones de construir Snapchat de manera diferente. Como plataforma diseñada para la comunicación entre amigos reales, creemos que Snapchat puede desempeñar un papel único en empoderar a los amigos para que se ayuden mutuamente en momentos difíciles.

Cuando nuestro Equipo de Confianza y Seguridad se da cuenta de que un Snapchatter está en peligro, pueden enviar recursos de prevención de autolesiones y apoyo, y notificar al personal de respuesta de emergencia cuando corresponda. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad y se encuentran a disposición de todos los Snapchatters.

Apelaciones

En nuestro informe anterior, presentamos métricas sobre apelaciones, en las que destacamos el número de veces que los usuarios nos pidieron que revisáramos nuestra decisión inicial de moderación en su cuenta. En este informe, expandimos nuestras apelaciones para captar la gama completa de nuestras categorías de políticas por infracciones a nivel de cuenta.

* Detener la propagación de contenido o actividad relacionada con la explotación sexual infantil es una prioridad. Snap dedica recursos significativos a este objetivo y tiene tolerancia cero para dicha conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  En otoño de 2023, Snap implementó cambios en sus políticas que afectaron a la coherencia de ciertas medidas de aplicación de la CSE; hemos abordado estas incoherencias mediante la recapacitación de los agentes y el control de calidad.  Esperamos que el próximo informe de transparencia de Snap revele los avances realizados en la mejora de los tiempos de respuesta a las apelaciones de CSE y en la precisión de las medidas iniciales de aplicación.

Moderación de Anuncios

Snap se compromete a garantizar que todos los anuncios cumplan totalmente con nuestras normas de publicidad. Creemos en un enfoque responsable y respetuoso de la publicidad, y en crear una experiencia segura y agradable para todos nuestros usuarios. A continuación, incluimos información sobre nuestra moderación de anuncios pagados en Snapchat. Tené en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Normas de publicidad de Snap, que incluyen contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e infracción de la propiedad intelectual. Además, ahora podés encontrar la Galería de Anuncios de Snapchat en la barra de navegación de este informe de transparencia.

Descripción General Regional y del País

En esta sección se ofrece un resumen general de la aplicación de Pautas para la comunidad en un muestreo de regiones geográficas. Nuestras Pautas rigen para todo el contenido en Snapchat y todos los Snapchatters en todo el mundo, independientemente de la ubicación.

La información para países individuales, incluidos todos los Estados Miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.