A continuación, incluimos las definiciones de términos, políticas y prácticas operativas de uso común que se tratan en nuestro informe de transparencia.
Contenido sexual: se refiere a la promoción o distribución de desnudos sexuales, pornografía u ofertas de servicios sexuales. Para más información, consulta nuestro documento explicativo sobre el Contenido sexual. Ten en cuenta que, a efectos de nuestros informes de transparencia, definimos y rastreamos los datos sobre la Explotación y el abuso sexual infantil por separado de otros tipos de Contenido sexual.
Acoso e intimidación: se refiere a cualquier comportamiento no deseado, como el abuso verbal, que podría causar que una persona común experimente angustia emocional. Para obtener más información, consulta nuestro documento explicativo sobre Acoso e intimidación.
Amenazas y violencia: se refiere al contenido que expresa la intención de causar daños físicos o psicológicos graves. La violencia se refiere a cualquier contenido que trate de incitar, glorificar o representar violencia humana, maltrato animal, hechos sangrientos o imágenes de contenido explícito. Para obtener más información, consulta nuestro documento explicativo sobre Amenazas, violencia y perjuicios.
Autolesión y suicido: se refiere a la glorificación de las autolesiones, incluida la promoción de las heridas a uno mismo, el suicidio o los trastornos alimenticios. Para obtener más información, consulta nuestro documento explicativo sobre Amenazas, violencia y perjuicios.
Información falsa: incluye contenido falso o engañoso que causa daños o es malicioso, como negar la existencia de eventos trágicos, reclamaciones médicas no fundamentadas, socavar la integridad de los procesos cívicos, manipular contenidos con fines falsos o engañosos, incluso a través de IA generativa o mediante ediciones engañosas. Para obtener más información, consulta nuestro documento explicativo sobre Información falsa, perjudicial o engañosa.
Suplantación de la identidad: ocurre cuando una cuenta finge falsamente estar asociada con otra persona o marca. Para obtener más información, consulta nuestro documento explicativo sobre Información falsa, perjudicial o engañosa.
Spam: el spam se refiere a mensajes no solicitados o contenido compartido irrelevante que puede causar confusión dañina o representar un riesgo o molestia para los usuarios legítimos. También incluye casos de fraude. Para obtener más información, consulta nuestro documento explicativo sobre Información falsa, perjudicial o engañosa.
Drogas: se refiere a la distribución y uso de drogas ilegales (incluidas las píldoras falsificadas) y otra actividad prohibida que involucre drogas. Para obtener más información, consulta nuestro documento explicativo sobre Actividades ilegales o reguladas.
Armas: se refieren a implementos diseñados o utilizados para infligir la muerte, daños corporales u otros daños físicos. Para obtener más información, consulta nuestro documento explicativo sobre Actividades ilegales o reguladas.
Otros bienes regulados: se refiere a la promoción de bienes o industrias reguladas, incluido el juego ilegal, los productos del tabaco y el alcohol. Esta categoría también incluye actividades ilegales o peligrosas, que pueden fomentar o alentar un comportamiento que puede incluir un comportamiento delictivo o representar un riesgo grave para la vida, la seguridad o el bienestar de una persona
. Para obtener más información, consulta nuestro documento explicativo sobre Actividades ilegales o reguladas.
Discurso de odio: se refiere al contenido que denigra, difama o promueve la discriminación o la violencia contra una persona o grupo de personas por su raza, color, casta, etnia, origen nacional, religión, orientación sexual, identidad de género, discapacidad, estado de veterano, situación migratoria, estado socioeconómico, edad, peso o embarazo. Para obtener más información, consulta nuestro documento explicativo sobre Contenido que incita al odio, terrorismo y extremismo violento.
Explotación y abuso sexual infantil: se refiere al contenido que contiene cualquier forma de explotación y abuso sexual infantil, incluidas las imágenes de explotación y abuso sexual infantil (CSEAI) y el grooming o seducción de un menor con cualquier propósito sexual. Denunciamos todos los casos de explotación y abuso sexual infantil a las autoridades. Para más información, consulta nuestro documento explicativo sobre el Contenido sexual.
Terrorismo y extremismo violento: se refiere al contenido que promueve o apoya el terrorismo u otros actos delictivos violentos cometidos por individuos o grupos para promover objetivos ideológicos, como los de naturaleza política, religiosa, social, racial o ambiental. Incluye cualquier contenido que promueva o apoye cualquier organización terrorista extranjera o grupo de odio extremista violento, así como contenido que promueva el reclutamiento para tales organizaciones o actividades extremistas violentas. Para obtener más información, consulta nuestro documento explicativo sobre Contenido que incita al odio, terrorismo y extremismo violento.
Informes de contenido y cuentas: número total de contenidos denunciados y cuentas denunciadas a Snap a través de nuestro menú de informes en la aplicación. Ten en cuenta que el contenido incluye fotos, vídeos y chats.
Medida aplicada (aplicado): acción tomada contra un contenido o una cuenta (por ejemplo, eliminación, advertencia, bloqueo). Ten en cuenta que el contenido incluye fotos, vídeos y chats. Las infracciones denunciadas pueden ser resueltas por agentes humanos o por la automatización (cuando es posible la automatización de alta precisión).
Total de contenido sobre las que se han aplicado medidas: el número total de piezas de contenido (por ejemplo, Snaps, Historias) contra las que se han aplicado medidas en Snapchat.
Total de cuentas únicas sobre las que se han aplicado medidas: el número total de cuentas únicas sobre las que se han aplicado medidas en Snapchat. Por ejemplo, si se aplicaron medidas contra una única cuenta varias veces por diversos motivos (por ejemplo, se hizo una advertencia a un usuario por publicar información falsa y más adelante se le bloqueó la cuenta por haber acosado a otro usuario), solo se computaría que se han tomado medidas contra una única cuenta. Ambas medidas se incluirán en nuestra tabla de «Resumen de las infracciones de contenidos y cuentas», con una única medida de una sola cuenta por «Información falsa» y una única medida de una sola cuenta por «Acoso e intimidación».
% del total de informes aplicados por Snap: este valor muestra el porcentaje de contenidos y cuentas contra las que se han aplicado medidas dentro de una política, dividido por el total de contenidos y cuentas contra las que se han aplicado medidas por todos los motivos de políticas.
Tiempo de respuesta: el lapso de tiempo entre el momento en que nuestros equipos de seguridad reciben una denuncia (normalmente en el momento de su presentación) hasta la marca de fecha y hora en la que se aplican las últimas medidas. Si se producen varias rondas de revisión, el último cálculo se basa en la última aplicación de medidas.
Tasa de visualización infractora (VVR, por sus siglas en inglés): la VVR es el porcentaje de visualizaciones de Historias y Snaps que contienen contenido infractor, como proporción de todas las visualizaciones de Historias y Snaps en Snapchat. (Un Snap es una foto o vídeo tomado con la cámara de Snapchat. Se puede encontrar más información aquí). Por ejemplo, si nuestra VVR es del 0.03 %, significa que de cada 10 000 visualizaciones de Snaps e Historias en Snapchat, tres contenían contenidos que infringían nuestras políticas. Esta métrica nos permite comprender qué porcentaje de visualizaciones de Snaps e Historias en Snapchat proceden de contenidos que infringen nuestras Pautas para la comunidad (sobre los que hubo denuncias o se aplicaron medidas de forma proactiva).
Apelación: una apelación se produce cuando un usuario nos presenta una solicitud para que reconsideremos una decisión de bloqueo de una cuenta, que está disponible si la cuenta fue bloqueada por incumplimientos de las Pautas para la comunidad. Por ejemplo, podemos eliminar una cuenta que infrinja nuestra política de acoso. Un usuario puede no estar de acuerdo con nuestra evaluación y enviar una apelación para que reconsideremos nuestra decisión.
Restablecimiento: un restablecimiento es la revocación de la decisión original de moderación tomada en respuesta a una apelación. Al recibir una apelación, revisaremos y evaluaremos si nuestra acción inicial de aplicación de medidas fue correcta. Si determinamos que cometimos un error aplicar medidas contra el contenido o la cuenta dentro de las pautas de nuestras políticas de plataforma, restableceremos el contenido o la cuenta apelada en nuestra plataforma.