Snap Values
Glosario del informe de transparencia
1 de enero de 2025 – 30 de junio de 2025

A continuación incluimos las definiciones de las condiciones, las normas y las prácticas operativas más comunes que se plantean en nuestro informe de transparencia.


Contenido sexual: se refiere a la promoción o distribución de desnudos sexuales, pornografía o de servicios sexuales comerciales. Para más información, consulta nuestra explicación sobre el contenido sexual. Ten en cuenta que a efectos de nuestros informes de transparencia, definimos y hacemos un seguimiento de los datos sobre explotación y abuso sexual infantil por separado de otros tipos de contenido sexual. 


Acoso e intimidación: se refiere a cualquier comportamiento no deseado que pueda causar que una persona común sienta angustia emocional, como el abuso verbal. Para obtener más información, consulta nuestro documento explicativo sobre acoso e intimidación.


Amenazas y violencia: se refiere al contenido que expresa la intención de causar daños físicos o emocionales graves. La violencia se refiere a cualquier contenido que trate de incitar, glorificar o representar la violencia humana, el maltrato animal, el gore o las imágenes gráficas. Para obtener más información, consulta nuestro documento explicativo sobre amenazas, violencia y daños.


Autolesiones y suicidio: se refiere a la glorificación de los daños autoinfligidos, incluida la promoción de lesiones autoinfligidas, el suicidio o los trastornos de la alimentación. Para obtener más información, consulta nuestro documento explicativo sobre amenazas, violencia y daños.


Información falsa: incluye contenido falso o engañoso que causa daño o es malicioso, como negar la existencia de sucesos trágicos, afirmaciones médicas sin fundamento o socavar la integridad de los procesos cívicos o manipular contenido con fines falsos o engañosos, incluso mediante IA generativa o mediante edición engañosa. Para obtener más información, consulta nuestro documento explicativo sobre información falsa o engañosa dañina.


Suplantación de identidad: ocurre cuando una cuenta finge estar asociada con otra persona o marca. Para obtener más información, consulta nuestro documento sobre información falsa o engañosa dañina.


Spam: se refiere a los mensajes no solicitados o al contenido compartido irrelevante que puede causar confusión dañina o representar un riesgo o molestia a los usuarios legítimos. También incluye casos de fraude. Para obtener más información, consulta nuestro documento explicativo sobre información falsa o engañosa.


Drogas: se refiere a la distribución y el uso de drogas ilegales (incluidas las píldoras falsificadas), y otras actividades prohibidas que involucran drogas. Para obtener más información, consulta nuestro documento explicativo sobre Actividades ilegales o reguladas.


Armas: hace referencia a instrumentos diseñados o utilizados para causar la muerte, lesiones corporales u otros daños físicos. Para obtener más información, consulta nuestro documento explicativo sobre actividades ilegales o reguladas.


Otros bienes regulados: se refiere a la promoción de bienes o industrias reguladas, incluso los juegos de azar ilegales, productos del tabaco y alcohol. Esta categoría también incluye actividades ilegales o peligrosas que puedan promover o fomentar un comportamiento que pueda incluir conductas delictivas o suponer un riesgo grave para la vida, la seguridad o el bienestar de un individuo
. Para obtener más información, consulta nuestro documento explicativo sobre Actividades ilegales o reguladas.


Discurso de odio
: se refiere al contenido que degrada, difama o promueve la discriminación o la violencia contra un individuo o grupo de individuos por su raza, color, casta, etnia, origen nacional, religión, orientación sexual, identidad de género, discapacidad, situación de veterano, situación migratoria, estado socioeconómico, edad, peso o embarazo. Para obtener más información, consulta nuestro documento explicativo sobre contenido de incitación al odio, terrorismo y extremismo violento.


Explotación y abuso sexual infantil
: se refiere al contenido que contiene cualquier forma de explotación y abuso sexual infantil, incluso las imágenes de explotación y abuso sexual infantil (CSEAI, por sus siglas en inglés) y el grooming o la seducción de un menor con cualquier propósito sexual. Denunciamos todos los casos identificados de explotación y abuso sexual de menores a las autoridades. Para más información, consulta nuestra explicación sobre el contenido sexual.

Terrorismo y extremismo violento: se refiere a los contenidos que promueven o apoyan el terrorismo u otros actos criminales violentos cometidos por individuos y/o grupos para promover objetivos ideológicos, tales como los de índole política, religiosa, social, racial o medioambiental. Incluye cualquier contenido que promueva o apoye a cualquier organización terrorista extranjera o grupo de odio extremista violento, así como el contenido que promueva el reclutamiento para dichas organizaciones o actividades extremistas violentas. Para obtener más información, consulta nuestro documento explicativo sobre contenido de incitación al odio, terrorismo y extremismo violento.


Denuncias de contenido y cuentas
: número total de elementos de contenido denunciados y cuentas denunciadas a Snap a través de nuestro menú de denuncias en la aplicación. Ten en cuenta que el contenido incluye fotos, videos y chats.


Medidas (aplicadas): una acción tomada contra una pieza de contenido o una cuenta (p. ej., eliminación, advertencia, bloqueo). Ten en cuenta que el contenido incluye fotos, videos y chats. Las infracciones de contenido denunciadas pueden ser iniciadas por agentes humanos o de forma automatizada (cuando es posible la automatización de alta precisión).


Contenido total aplicado: la cantidad total de elementos de contenido (por ejemplo, Snaps, Historias) que se aplicaron en Snapchat. 


Total de cuentas únicas aplicadas: la cantidad total de cuentas únicas que se aplicaron en Snapchat. Por ejemplo, si se aplicara una sola cuenta varias veces por diversos motivos (por ejemplo, si se advirtiera a un usuario por publicar información falsa y luego se eliminara más tarde por acosar a otro usuario), solo se calcularía una cuenta en esta métrica. Sin embargo, ambas medidas de cumplimiento se incluirían en nuestra tabla de "Resumen de las infracciones de contenido e cuentas", con una medida de cumplimiento única de cuenta única de "Información falsa" y una medida de cumplimiento única de cuenta única de "Acoso y acoso".


% del total de denuncias implementadas por Snap: este valor muestra el porcentaje de piezas de contenido y cuentas implementadas dentro de un motivo de política dividido por el total de piezas de contenido y cuentas implementadas en todos los motivos de política. 


Tiempo de respuesta: el tiempo que transcurre desde el momento en que nuestros equipos de seguridad reciben una denuncia (generalmente cuando se envía una denuncia) y la marca de tiempo de la última actuación de cumplimiento. Si se realizan varias rondas de revisión, la hora final se calcula en función de la última acción tomada.


Tasa de visualización de contenido infractor (VVR): la VVR es el porcentaje de visualizaciones de Historias y Snaps que contenían contenido infractor, como proporción de todas las visualizaciones de Historias y Snaps en Snapchat. (Un Snap es una foto o video tomado con la cámara de Snapchat.  Puedes encontrar más información aquí). Por ejemplo, si nuestro VVR es el 0,03 %, eso significa que de cada 10 000 visualizaciones de Snaps e Historias en Snapchat, 3 contenían contenido que infringía nuestras políticas. Esta métrica nos permite comprender qué porcentaje de las visitas en Snapchat provienen de contenido que infringe nuestras Pautas para la comunidad (que se informó o se aplicó de forma proactiva).


Apelación
: una apelación se produce cuando un usuario nos envía una solicitud para que reconsideremos una decisión de cumplimiento de bloqueo de cuenta, que está disponible si la cuenta se bloqueó debido a infracciones de las Pautas para la comunidad. Por ejemplo, podemos eliminar una cuenta que infringió nuestra política de acoso. Un usuario puede no estar de acuerdo con nuestra evaluación y enviar una apelación para que reconsideremos nuestra decisión.


Restablecimiento: un restablecimiento es una revocación de la decisión de moderación original tomada en respuesta a una apelación. Al recibir una apelación, revisaremos y evaluaremos si nuestra acción de cumplimiento inicial fue correcta. Si determinamos que cometimos un error al aplicar la política al elemento de contenido o a la cuenta dentro de las pautas de nuestras políticas de plataforma, restableceremos el contenido o la cuenta apelada a nuestra plataforma.