Relatório de Transparência
1º de janeiro de 2023 – 30 de junho de 2023
Publicado em:
25 de outubro de 2023
Atualizado em:
13 de dezembro de 2023

Para fornecer informações sobre os esforços de segurança da Snap e o volume e a natureza do conteúdo denunciado em nossa plataforma, publicamos relatórios de transparência duas vezes ao ano. Estamos empenhados em continuar a tornar esses relatórios mais abrangentes e informativos para os interessados que se preocupam profundamente com nossas práticas de moderação e de aplicação da lei, assim como o bem-estar da nossa comunidade.
Este relatório de transparência abrange o primeiro semestre de 2023 (1.º de janeiro — 30 de junho). Assim como em nossos relatórios anteriores, compartilhamos dados sobre o número global de conteúdos no aplicativo e denúncias de contas que recebemos e contra os quais aplicamos em categorias específicas de violações de políticas. Também compartilhamos a forma como respondemos a solicitações de autoridades e governos; e nossas ações de aplicação descritas por país.

Como parte de nosso compromisso contínuo de melhorar continuamente nossos relatórios de transparência, estamos apresentando alguns elementos novos com este comunicado. Adicionamos pontos de dados adicionais sobre nossas práticas de publicidade e moderação, bem como recursos de conteúdo e de conta. Em alinhamento com a Lei de Serviços Digitais da UE, também adicionamos novas informações contextuais em torno de nossas operações nos Estados-Membros da UE, como o número de moderadores de conteúdo e usuários ativos mensais (MAUs) na região. Muitas dessas informações podem ser encontradas ao longo do relatório e na página dedicada da União Europeia do nosso Centro de Transparência.
Por fim, atualizamos nosso Glossário com links para os detalhamentos das Diretrizes Comunitárias, os quais fornecem contexto adicional sobre nossa política e esforços operacionais de plataforma.
Para obter mais informações sobre nossas políticas de combate a danos online, e planos de continuar evoluindo nossas práticas de denúncia, leia nosso mais recente blog de Segurança e Impacto sobre o relatório de transparência. 
Para encontrar recursos adicionais de segurança e privacidade no Snapchat, consulte nosso guia Sobre os Relatórios de Transparência no final da página.
Observe que a versão mais atualizada deste relatório de transparência pode ser encontrada em inglês (en-US).

Visão geral de violações de conteúdo e conta

De 1º de janeiro a 30 de junho de 2023, a Snap aplicou restrições a 6.216.118 conteúdos que violavam nossas políticas.
Durante o período do relatório, vimos uma Taxa de Visualização de Conteúdo (VVR) de 0,02 por cento, o que significa que a cada 10.000 visualizações de Snaps ou Histórias no Snapchat, 2 continham conteúdo que violava nossas políticas.

Análise de Violações de Conteúdo e de Contas

Nossas taxas gerais de relatórios e aplicação permaneceram bastante semelhantes aos dos seis meses anteriores, com algumas exceções em categorias-chave. Observamos uma diminuição de aproximadamente 3% no total de relatórios de conteúdo e contas e aplicações de medidas neste ciclo.
As categorias com as flutuações mais notáveis foram assédio, bullying, spam, armas e informações falsas. O assédio e o bullying registraram um aumento de cerca de 56% no total de denúncias e um aumento de cerca de 39% nas aplicações de medidas de conteúdo e bloqueio de contas únicas. Esses aumentos nas medidas de restrições foram associados a uma diminuição de aproximadamente 46% no tempo de resposta, destacando as eficiências operacionais que nossa equipe fez ao aplicar restrições a esse tipo de conteúdo de violação. Da mesma forma, vimos um aumento de 65% no total de denúncias de spam, com um aumento de 110% nas aplicações de restrições de conteúdo e de 80% nas contas únicas que sofreram bloqueios, enquanto nossas equipes também reduziram o tempo de resposta em 80%. Nossa categoria de Armas registrou uma diminuição de aproximadamente 13% no total de denúncias, e de aproximadamente 51% nas imposições de restrições de conteúdo e de aproximadamente 53% nas contas únicas restritas. Por fim, nossa categoria de Informações Falsas registrou um aumento de 14% no total de denúncias, mas uma diminuição de 78% nas medidas de restrição de conteúdo e de 74% nas contas únicas restritas. Isso pode ser atribuído ao processo contínuo de Asseguração de Qualidade (QA) e ao recurso que aplicamos a relatórios de informações falsas, para garantir que nossas equipes de moderação estejam capturando e agindo com precisão a respeito de informações falsas na plataforma.
No geral, embora tenhamos visto números geralmente semelhantes aos do último período, acreditamos que é importante continuar a melhorar as ferramentas que nossa comunidade usa para denunciar de forma ativa e precisa potenciais violações à medida que elas aparecem na plataforma.

Combate à exploração e ao abuso sexual infantil

A exploração sexual de qualquer membro da nossa comunidade, especialmente menores, é ilegal, repugnante e proibida pelas nossas Diretrizes Comunitárias. A prevenção, detecção e erradicação de Imagens de Exploração Sexual e Abuso Infantil (CSEAI) em nossa plataforma é uma prioridade para o Snap, e evoluímos continuamente nossas capacidades para combater esses e outros tipos de crimes.
Usamos ferramentas de tecnologia de detecção ativa, tais como o método de detecção de hash-matching do PhotoDNA e a detecção de Imagens de Abuso Sexual Infantil (CSAI) do Google para identificar imagens e vídeos ilegais conhecidos contendo abuso infantil e denunciar ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, se articula com as autoridades nacionais ou internacionais, conforme necessário.
No primeiro semestre de 2023, detectamos e agimos proativamente em 98% do total de violações de exploração sexual e abuso infantil denunciadas aqui — um aumento de 4% desde o período anterior.
**Observe que cada envio ao NCMEC pode conter vários conteúdos distintos. O total de artigos de mídia individuais enviados ao NCMEC é igual ao total de conteúdos penalizados.

Conteúdo de auto-mutilação e suicídio

Nós nos preocupamos profundamente com a saúde mental e o bem-estar dos Snapchatters, que já ajudou e continua ajudando a fundamentar nossas decisões para construir o Snapchat de forma diferente. Como uma plataforma projetada para comunicações entre amigos reais, acreditamos que o Snapchat pode desempenhar um papel único em capacitar amigos a se ajudarem em tempos difíceis.
Quando nossa equipe de Confiança e Segurança reconhece um Snapchatter em perigo, eles podem enviar recursos de apoio e prevenção à automutilação e notificar a equipe de resposta a emergências quando apropriado. Os recursos que compartilhamos estão disponíveis em nossa lista global de recursos de segurança, e esses estão publicamente disponíveis a todos os Snapchatters.

Recursos

A partir deste relatório, estamos começando a denunciar o número de recursos feitos por usuários que tiveram suas contas bloqueadas por violação de nossas políticas. Apenas reintegramos contas que nossos moderadores determinem que tenham sido bloqueadas incorretamente. Durante este período, estamos denunciando recursos relacionados ao conteúdo de drogas.  Em nosso próximo relatório, estamos ansiosos para divulgar mais dados relacionados a recursos decorrentes de outras violações de nossas políticas.
**Observe que cada envio ao NCMEC pode conter vários conteúdos distintos. O total de artigos de mídia individuais enviados ao NCMEC é igual ao total de conteúdos penalizados.

Moderação de anúncios

A Snap está comprometida em garantir que todos os anúncios estejam em total conformidade com nossas políticas de plataforma. Acreditamos em uma abordagem responsável e respeitosa à publicidade, criando uma experiência segura e agradável para todos os nossos usuários. Abaixo, incluímos informações sobre nossa moderação de publicidade. Observe que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo adulto, conteúdo violento ou perturbador, declarações de ódio e violação de propriedade intelectual. Além disso, você agora pode encontrar a Galeria de anúncios do Snapchat na barra de navegação deste relatório de transparência. 

Visão geral por país

Esta seção fornece um resumo do cumprimento das nossas Diretrizes Comunitárias para uma amostragem de regiões geográficas. Nossas Diretrizes Comunitárias se aplicam a todo o conteúdo do Snapchat, e a todos os Snapchatters, em todo o mundo, independentemente da localização.
As informações para países específicos estão disponíveis para baixar por meio do arquivo CSV em anexo:
Solicitações de remoção de propriedade intelectual e do governo
Sobre Relatórios de Transparência
Glossário do relatório de transparência