Privacy and Safety Hub

O nosso relatório de transparência referente ao primeiro semestre de 2022

29 de novembro de 2022

Hoje, estamos a lançar o nosso relatório de transparência mais recente, que abrange o primeiro semestre de 2022. 
Na Snap, a segurança e o bem-estar da nossa comunidade são a nossa prioridade máxima e os nossos relatórios de transparência bianuais são uma ferramenta essencial que usamos para partilhar informações essenciais e para nos responsabilizamos. 
Desde o nosso relatório de transparência em 2015, estivemos numa missão de tornar cada relatório mais informativo, assimilável e eficiente do que o último. No nosso relatório mais recente, fizemos várias adições e melhorias para ajudar a nossa comunidade a entender melhor o nosso relatório e a desenvolver o nosso compromisso de tornar estes relatórios mais completos e informativos. 
Disponibilizar dados de informações falsas a nível nacional
Pela primeira vez, estamos a introduzir “Informações Falsas” como uma categoria independente disponível a nível do país, com base na nossa prática anterior de comunicar informações falsas a nível mundial. Somos uma das únicas plataformas a fornecer esta informação por país. Este semestre aplicámos um total de 4.877 peças de conteúdo falso ou enganoso como potencialmente nocivo ou malicioso. Sempre adotámos uma abordagem diferente para evitar a propagação de informações falsas no Snapchat a começar com o design da nossa plataforma. Por todo o Snapchat não permitimos que o conteúdo não controlado se torne viral e quando encontrarmos conteúdos que violem as Diretrizes da Comunidade, a nossa política é derrubá-lo, reduzindo imediatamente o risco de ser partilhado mais amplamente. A nossa abordagem para aplicar a lei contra conteúdos que incluem informações falsas é semelhante à seguinte: removemos os mesmos. 
Com as recentes eleições intercalares dos EUA e outras eleições a acontecer a nível mundial, acreditamos que os dados detalhados e específicos do país sobre a nossa aplicação contra informações falsas são valiosos. Pode ler mais sobre como evitamos a propagação de informações falsas no Snapchat aqui. 
Combater a exploração e o abuso sexual de crianças 
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas Diretrizes da Comunidade. A prevenção, a deteção e a erradicação das imagens de exploração e abuso sexual infantil (CSEAI) na nossa plataforma é uma prioridade para nós e estamos a desenvolver continuamente as nossas capacidades para ajudar a combater este tipo de abuso na nossa plataforma. No primeiro semestre de 2022, detetámos e acionámos proativamente 94 por cento da exploração sexual e violações de abuso total de crianças aqui denunciadas — um aumento de seis por cento desde o nosso relatório prévio.
Também estamos a fornecer uma linguagem atualizada e a maior perceção dos nossos esforços para combater o CSEAI. Estamos agora a partilhar o número total de conteúdos CSEAI que removemos, bem como o número total de relatórios CSEAI que as nossas equipas de Confiança e Segurança fizeram para o Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC).
Apresentando um Glossário de Definições de Política e Dados
Adicionámos um Glossário de Definições de Política e Dados para ser incluído em todos os relatórios. O nosso objetivo com este glossário é fornecer maior transparência em torno dos termos e métricas que usamos, descrevendo claramente que formas de violação de conteúdos estão incluídas e aplicadas sob cada categoria. Por exemplo, se os leitores não tiverem certeza exatamente sobre o que queremos dizer com “Ameaças e Violência”, “Discurso de ódio”, “Outros Bens Regulados” ou outras categorias de conteúdo, podem facilmente consultar o glossário para uma descrição.
Remoção de conteúdo violador de forma proativa 
Ao olhar para os dados no relatório, também é importante notar que os números para relatórios totais e a aplicação só contam o conteúdo que nos é comunicado. Não contam as instâncias em que o Snap detetou proativamente e tomou medidas contra o conteúdo antes de nos ser comunicado. Acreditamos que as melhorias que fizemos para os nossos esforços de deteção proativa desempenharam um papel grande na diminuição de relatórios totais, números de aplicação da lei e capacidade de resposta do nosso relatório mais recente em categorias chave. Uma vez que as nossas ferramentas de deteção automatizada identificaram e removeram o conteúdo antes de ter a oportunidade de chegar ao Snapchatters, vimos uma diminuição da tomada de medidas de conteúdo reativas (isto é, denúncias de Snapchatters). 
Especificamente, desde o nosso último relatório, vimos uma diminuição de 44% nas execuções de conteúdo ameaçador e violento em denúncias de Snapchatters, bem como uma diminuição de 37% nas execuções de conteúdo de drogas e uma diminuição de 34% nas execuções de conteúdo de discurso de ódio. Em média, a nossa capacidade de resposta para remover o conteúdo de violação melhorou 33% desde o último tempo, para pouco mais de um minuto.
Enquanto o Snapchat evoluiu ao longo dos anos, o nosso compromisso com a transparência e a prioridade da segurança e do bem-estar da nossa comunidade permanece inalterado. Continuaremos a responsabilizar-nos e a comunicar atualizações sobre o nosso progresso.