Abaixo incluímos definições de termos, políticas e práticas operacionais usadas frequentemente e discutidas em nosso relatório de transparência.
Conteúdo sexual: refere-se à promoção ou distribuição de nudez sexual, pornografia ou oferta comercial de serviços sexuais. Para obter mais informações, revise nosso explicativo sobre Conteúdo sexual.
Assédio e bullying: refere-se a qualquer comportamento indesejado que possa fazer com que uma pessoa comum experimente estresse emocional, tais como abuso verbal, assédio sexual ou atenção sexual indesejada. Esta categoria também inclui o compartilhamento ou o recebimento de imagens íntimas não consensuais (NCII). Para obter mais informações, revise nosso explicativo sobre assédio e bullying.
Ameaças e violência: refere-se a conteúdo que expressa a intenção de causar danos físicos ou emocionais graves. Violência refere-se a qualquer conteúdo que tente incitar, enaltecer ou representar violência humana, abuso animal, ferimentos ou imagens explícitas. Para obter mais informações, revise nosso explicativo sobre ameaças, violência e danos.
Automutilação e suicídio: refere-se ao enaltecimento da automutilação, incluindo a promoção de suicídio ou distúrbios alimentares. Para obter mais informações, revise nosso explicativo sobre ameaças, violência e danos.
Informações falsas: informações falsas incluem conteúdo falso ou enganoso que causa danos ou é malicioso, tais como negar a existência de eventos trágicos, alegações médicas não fundamentadas ou minar a integridade de processos cívicos. Para obter mais informações, revise nosso explicativo sobre informações falsas ou enganosas e prejudiciais.
Usurpação de identidade: ocorre quando uma conta é falsamente associada a outra pessoa ou marca. Para obter mais informações, revise nosso explicativo sobre informações falsas ou enganosas e prejudiciais.
Spam: refere-se a mensagens não solicitadas ou conteúdo irrelevante compartilhado que seja susceptível de causar confusão prejudicial ou que representa um risco ou incômodo a usuários legítimos. Para obter mais informações, revise nosso explicativo sobre informações falsas ou enganosas e prejudiciais.
Drogas: drogas se referem à distribuição e uso de drogas ilegais (incluindo pílulas falsificadas) e outra atividade ilícita que envolva drogas. Para obter mais informações, revise nosso explicativo sobre atividades ilegais ou regulamentadas.
Armas: refere-se a implementos projetados ou utilizados para infligir morte, danos corporais ou danos à propriedade. Para obter mais informações, revise nosso explicativo sobre atividades ilegais ou regulamentadas.
Outros bens regulamentados: refere-se à promoção de bens ou indústrias regulamentadas, incluindo jogos de azar ilegais, produtos de tabaco e álcool. Essa categoria também inclui atividades ilegais ou perigosas, que possam promover ou incentivar comportamentos que incluam atividade criminosa ou que representem um risco sério à vida, segurança ou bem-estar individuais. Para obter mais informações, revise nosso explicativo sobre atividades ilegais ou regulamentadas.
Discurso de ódio: conteúdo que humilha ou promove discriminação de um indivíduo, ou grupo de indivíduos com base em sua raça, cor, casta, etnia, nacionalidade, religião, orientação sexual, identidade de gênero, deficiência, condição de veterano, condição de imigração, condição socioeconômica, de idade, peso ou condição de gravidez. Para obter mais informações, revise nosso explicativo sobre conteúdo de ódio, terrorismo e extremismo violento.
Exploração e abuso sexual infantil: a exploração sexual e abuso infantil é definida como conteúdo que contém imagens sexuais de um menor e todas as formas de imagens de abuso sexual infantil (CSAM), bem como a preparação ou aliciamento de menores para qualquer propósito sexual. Reportamos todas as instâncias de exploração sexual e abuso infantil às autoridades. Para obter mais informações, revise nosso explicativo sobre Conteúdo sexual.
Terrorismo e extremismo violento: refere-se a conteúdo que promove ou apoia o terrorismo ou outros atos criminais violentos, cometidos por indivíduos e/ou grupos com objetivos ideológicos, como os de natureza política, religiosa, social, racial ou ambiental. Inclui qualquer conteúdo que promova ou apoie qualquer organização terrorista estrangeira ou grupo de ódio extremista violento, bem como conteúdo que promova o recrutamento para tais organizações ou atividades extremistas violentas. Para obter mais informações, revise nosso explicativo sobre conteúdo de ódio, terrorismo e extremismo violento.
Relatórios de conteúdo e contas: número total de conteúdos denunciados e contas denunciadas à Snap por meio do nosso menu de denúncias no aplicativo.
Penalização (penalizado): uma ação tomada contra um conteúdo ou conta (por exemplo, exclusão, preservação, supressão) Observe que as violações de conteúdo denunciadas podem ser acionadas por agentes humanos ou automação (onde a automação de alta precisão é possível).
Conteúdo total forçado: o número total de conteúdos (por exemplo, Snaps, Stories) que foram aplicados contra o Snapchat.
Total de contas únicas impostas a terceiros: o número total de contas únicas impostas a restrições no Snapchat. Por exemplo, se uma única conta fosse aplicada contra várias vezes, por vários motivos (por exemplo, se um usuário fosse alertado por postar informações falsas e depois excluído por ser alvo de outro usuário), apenas uma conta seria estimada nessa métrica. Ambas as ações de aplicação seriam, no entanto, incluídas em nossa tabela “Visão geral de conteúdo e violações de conta”, com uma aplicação de conta única por “informações falsas” e uma aplicação de conta única por “assédio e bullying”.
% do conteúdo total forçado: esse valor mostra a porcentagem de conteúdo forçado em uma categoria dividida pelo total de conteúdo forçado. Essa estatística destaca a distribuição de medidas de aplicação de nossas Diretrizes Comunitárias.
Tempo de resposta: a quantidade de tempo entre o início da análise de um relatório por nossas equipes de Confiança e Segurança (geralmente quando uma denúncia é enviada) até a marca de tempo da última ação corretiva realizada. Se várias rodadas de revisão ocorrerem, o tempo final é estimado na última ação realizada.
Taxa de visualização violativa (VVR): o VVR é a porcentagem de visualizações de Story e Snap que continham conteúdo de violação, como uma proporção de todas as visualizações de história e Snap no Snapchat. Por exemplo, se nosso VVR for de 0,03%, isso significa que a cada 10.000 visualizações de Snap e Story no Snapchat, 3 continham conteúdo que violava nossas políticas. Essa métrica nos permite entender qual a porcentagem de visualizações no Snapchat que vem de conteúdo que viola nossas Diretrizes Comunitárias (que foi denunciado ou proativamente aplicado).