Relatório de transparência
1 de janeiro de 2023 – 30 de junho de 2023
Lançado:
25 de outubro de 2023
Atualizado:
13 de dezembro de 2023

Para fornecer informações sobre os esforços de segurança' da Snap, assim como sobre a natureza e o volume de conteúdo denunciado na nossa plataforma, publicamos relatórios de transparência duas vezes por ano. Estamos empenhados em continuar a tornar estes relatórios mais abrangentes e informativos para as muitas partes interessadas que se preocupam profundamente com a moderação de conteúdo, as práticas de aplicação da lei e o bem-estar da nossa comunidade. 
Este Relatório de Transparência é referente ao primeiro semestre de 2023 (1 de janeiro a 30 de junho). Tal como nos nossos relatórios anteriores, partilhamos dados sobre o número global de conteúdos na aplicação e relatórios de contas que recebemos e controlámos através de categorias de violações de políticas específicas; de que forma respondemos a pedidos de agentes da autoridade e governamentais; e as nossas ações de aplicação da lei discriminadas por país.

Como parte do nosso compromisso constante de melhorar continuamente os nossos relatórios de transparência, introduzimos alguns novos elementos neste comunicado. Adicionámos pontos de dados adicionais sobre as nossas práticas de publicidade e moderação, assim como os apelos de conteúdo e conta. Em conformidade com a Lei dos Serviços Digitais da UE, também adicionámos novas informações contextuais sobre as nossas operações nos Estados-Membros da UE, como o número de moderadores de conteúdo e utilizadores ativos mensais (MAUs) na região. Grande parte desta informação pode ser encontrada no relatório, e na página dedicada da União Europeia do nosso Centro de Transparência.
Finalmente, atualizámos o nosso Glossário com links para os explicadores das Diretrizes da Comunidade, que fornecem contexto adicional sobre a política da nossa plataforma e os esforços operacionais. 
Para mais informações sobre as nossas políticas de combate às ofensas on-line e planos para continuar a desenvolver as nossas práticas de denúncias, consulte o nosso recente blogue de Segurança e Impacto acerca deste Relatório de Transparência. 
Para recursos adicionais de segurança e privacidade no Snapchat, consulte o nosso separador Sobre os Relatórios de Transparência no final da página.
Atenção que a versão mais atualizada deste Relatório de Transparência pode ser encontrada na versão en-US.

Visão geral das violações de conteúdo e da conta

De 1 de janeiro a 30 de junho de 2023, a Snap incidiu contra 6 216 118 conteúdos que violavam as nossas políticas.
Durante o período de denúncia, observámos uma Taxa de Visualização Violadora (VVR) de 0,02 por cento, o que significa que em cada 10 000 visualizações de Snaps e de Histórias no Snapchat, 2 continham conteúdos que violam as nossas normas.

Análise das violações de conteúdo e da conta

As nossas taxas globais de comunicação e fiscalização mantiveram-se bastante semelhantes aos dos seis meses anteriores, com algumas exceções em categorias-chave. Observámos uma diminuição de aproximadamente 3% no total de relatórios e fiscalizações de conteúdo e da conta neste ciclo.
As categorias com as flutuações mais notáveis foram o assédio e intimidação, spam, armas e informações falsas. O assédio e a intimidação registaram um aumento de ~56% no total de relatórios, e um aumento subsequente de ~39% na fiscalização de conteúdo e contas exclusivas. Estes aumentos nas medidas de fiscalização foram conjugados com uma diminuição de ~46% no tempo de resposta, destacando as eficiências operacionais que a nossa equipa fez no combate a este tipo de conteúdo violador. Da mesma forma, observámos um aumento de ~65% no total de relatórios de spam, com um aumento de ~110% na fiscalização de conteúdo e ~80% de aumento em contas únicas controladas, enquanto as nossas equipas também reduziram o tempo de resposta em ~80%. A nossa categoria de armas registou uma diminuição de ~13% no total de relatórios, e uma diminuição de ~51% na fiscalização de conteúdo e ~53% de redução em contas únicas controladas. Por último, a nossa categoria de informações falsas registou um aumento de ~14% no total de relatórios, mas uma diminuição de ~78% na fiscalização de conteúdo e ~74% nas contas únicas controladas. Isto pode ser atribuído ao processo contínuo de Garantia de Qualidade e ao investimento que aplicamos a relatórios de informações falsas, para garantir que as nossas equipas de moderação captam e atuam com precisão sobre a informação falsa na plataforma.
No geral, embora tenhamos visto números geralmente semelhantes aos do último período, acreditamos que é importante continuar a melhorar as ferramentas usadas pela nossa comunidade para comunicar potenciais violações de forma ativa e precisa à medida que as mesmas aparecem na plataforma.

Combater a exploração e o abuso sexual de crianças

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEAI) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.
No primeiro semestre de 2023, detetámos e acionámos proativamente 98 por cento do total de violações de exploração e abuso sexual de crianças aqui denunciadas — um aumento de 4% em relação ao período anterior.
**Note que cada envio à NCMEC pode conter várias partes de conteúdo. O total de peças de comunicação social individuais enviadas à NCMEC é igual ao nosso conteúdo total aplicado.

Conteúdo de Autoflagelação e Suicídio

Preocupamo-nos profundamente com a saúde mental e o bem-estar dos Snapchatters, que consciencializou — e continua a consciencializar— a nossa tomada de decisões na construção de um Snapchat diferente. Enquanto plataforma concebida para comunicações entre amigos reais, acreditamos que o Snapchat pode desempenhar um papel exclusivo no empoderamento de amigos na ajuda uns aos outros durante períodos difíceis.
Quando a nossa equipa de Confiança e Segurança identifica um Snapchatter em dificuldades, pode encaminhá-lo para recursos de intervenção e assistência à autoflagelação e notificar profissionais de resposta de emergência quando apropriado. Os recursos que partilhamos estão disponíveis na nossa lista global de recursos de segurança e estão disponíveis publicamente para todos os Snapchatters.

Recursos

A partir deste relatório, começamos a denunciar o número de apelos de recurso dos utilizadores que tiveram contas bloqueadas por violação das nossas políticas. Apenas reintegramos contas que os nossos moderadores determinam terem sido bloqueadas incorretamente. Durante este período, referenciamos os apelos de recurso relativos ao conteúdo de drogas.  No nosso próximo relatório, esperamos divulgar mais dados relativos a apelos de recurso decorrentes de outras violações das nossas políticas.
**Note que cada envio à NCMEC pode conter várias partes de conteúdo. O total de peças de comunicação social individuais enviadas à NCMEC é igual ao nosso conteúdo total aplicado.

Moderação de anúncios

A Snap está empenhada em garantir firmemente que todos os anúncios estão em total conformidade com as políticas da nossa plataforma. Acreditamos numa abordagem responsável e respeitosa no que concerne a publicidade, criando uma experiência segura e agradável para todos os nossos utilizadores. Abaixo, incluímos informações sobre a nossa moderação de publicidade. Note que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo para adultos, conteúdo violento ou perturbador, incitamento ao ódio e violação de propriedade intelectual. Adicionalmente, agora pode encontrar a Galeria de Anúncios do Snapchat na barra de navegação deste relatório de transparência. 

Visão geral do país

Esta secção fornece uma visão geral da aplicação das nossas Diretrizes da Comunidade numa amostragem de regiões geográficas. As nossas Diretrizes aplicam-se a todos os conteúdos no Snapchat, bem como a todos os Snapchatters, pelo mundo fora, independentemente da sua localização.
As informações individuais para cada país podem ser descarregadas através do ficheiro CSV em anexo.
Pedidos de Remoção de Propriedade intelectual e Governamental
Sobre relatório de transparência
Glossário do Relatório de Transparência