Snap Values
Relatório de Transparência
1º de janeiro de 2025 - 30 de junho de 2025

Publicado em:

1º de dezembro de 2025

Atualizado em:

1º de dezembro de 2025

Publicamos este relatório de transparência duas vezes por ano para fornecer insights sobre os esforços de segurança da Snap. Como parte do nosso compromisso com a segurança e a transparência, nos empenhamos continuamente para tornar esses relatórios mais abrangentes e informativos para as muitas partes interessadas que se preocupam profundamente com nossa moderação de conteúdo, nossa abordagem em relação à aplicação da lei e a segurança e o bem-estar da comunidade do Snapchat. 

Este relatório de transparência abrange o primeiro semestre de 2025 (1º de janeiro — 30 de junho). Compartilhamos dados globais sobre denúncias de usuários e detecção proativa pela Snap; medidas de penalização por nossas equipes de Segurança em categorias específicas de violações das Diretrizes Comunitárias; como respondemos a solicitações das autoridades policiais e dos governos, e como respondemos a avisos de violação de direitos autorais e de marca registrada. Também fornecemos insights específicos de cada país em uma série de páginas com links.

Para encontrar recursos adicionais de segurança e privacidade no Snapchat, consulte nossa aba Sobre os Relatórios de Transparência no final da página.

Observe que a versão mais atualizada deste relatório de transparência é a versão em inglês.

Visão geral das ações de nossas equipes de Confiança e Segurança para aplicar nossas Diretrizes Comunitárias

Nossas equipes de Segurança aplicam nossas Diretrizes Comunitárias tanto de forma proativa (por meio do uso de ferramentas de detecção automatizadas) quanto reativa (em resposta a denúncias), conforme detalhado nas seções a seguir deste relatório. Neste ciclo de relatórios (1º semestre de 2025), nossas equipes de Segurança realizaram os seguintes números de medidas de execução:

Total de penalizações

Total de contas únicas penalizadas

9.674.414

5.794.201

Veja abaixo uma análise por tipo de violação das Diretrizes Comunitárias, incluindo o "tempo médio de resposta" entre o momento em que detectamos a violação (seja proativamente ou após o recebimento de uma denúncia) e o momento em que tomamos medidas finais contra o conteúdo ou a conta em questão:

Fundamentos da Política

Total de penalizações

Total de contas únicas penalizadas

Tempo médio de resposta (minutos) desde a detecção até a ação final

Conteúdo sexual

5.461.419

3.233.077

1

Exploração e abuso sexual infantil

1.095.424

733.106

5

Assédio e bullying

713.448

594.302

3

Ameaças e violência

187.653

146.564

3

Automutilação e suicídio

47.643

41.216

5

Informações falsas

2. 088

2.004

1

Imitações ou roubo de identidade

7.138

6.881

<1

Spam

267.299

189.344

1

Drogas

1.095.765

726.251

7

Armas

251.243

173.381

1

Outros bens regulamentados

183.236

126.952

4

Discurso de ódio

343.051

284.817

6

Terrorismo e extremismo violento

10.970

6.783

2

Os dados do total de sanções incluem as punições aplicadas pela Snap após a análise de denúncias no aplicativo enviadas por meio do Snapchat.  Isso representa a grande maioria das punições aplicadas pelas equipes de segurança da Snap. Esse número exclui a maioria das punições aplicadas como resultado de investigações com base em denúncias feitas à Snap por meio de nosso site de suporte ou outros mecanismos (por exemplo, por e-mail), ou como resultado de algumas investigações proativas realizadas por nossas equipes de segurança. As punições excluídas representaram menos de 0,5% do volume total de punições no primeiro semestre de 2025.

Durante o período do relatório, vimos uma Taxa de Visualização de Violação (do inglês, VVR) de 0,01%, o que significa que a cada 10.000 visualizações de Snaps ou Histórias no Snapchat, uma continha conteúdo que violava nossas Diretrizes Comunitárias. Entre as punições por aquilo que consideramos ser "Danos graves", observamos um índice de TVV de 0,0003%. A tabela abaixo apresenta uma análise da VVR por fundamentos da política.

Fundamentos da Política

VVR

Conteúdo sexual

0,00482%

Exploração e abuso sexual infantil

0,00096%

Assédio e bullying

0,00099%

Ameaças e violência

0,00176%

Automutilação e suicídio

0,00009%

Informações falsas

0,00002%

Imitações ou roubo de identidade

0,00009%

Spam

0,00060%

Drogas

0,00047%

Armas

0,00083%

Outros bens regulamentados

0,00104%

Discurso de ódio

0,00025%

Terrorismo e extremismo violento

0,00002%

Violações das Diretrizes Comunitárias denunciadas às nossas equipes de Confiança e Segurança

De 1º de janeiro a 30 de junho de 2025, em resposta a 19.766.324 denúncias no aplicativo de violações às nossas Diretrizes Comunitárias, as equipes de segurança da Snap tomaram um total de 6.278.446 medidas punitivas em todo o mundo, incluindo punições contra 4.104.624 contas únicas.  Esse volume de denúncias no aplicativo exclui denúncias no site de suporte e por e-mail, que representam menos de 1% do volume total de denúncias.  O tempo médio de resposta para nossas equipes de Segurança tomarem medidas em resposta a essas denúncias foi de cerca de 2 minutos. Abaixo está uma análise por fundamentos da política. (Observação: em denúncias anteriores, às vezes nos referíamos a isso como “categoria de denúncia”.  A partir de agora, usaremos o termo “fundamentos da política”  que, a nosso ver, reflete com mais precisão a natureza dos dados, pois nossas equipes de Segurança se esforçam para aplicar as medidas de acordo com os motivos da política apropriados, independentemente da categoria de denúncia identificada pela pessoa que envia a denúncia.)


Total de denúncias de conteúdo e conta

Total de penalizações

Total de contas únicas penalizadas

Total

19.766.324

6.278.446

4.104.624

Fundamentos da Política

Total de denúncias de conteúdo e conta

Total de penalizações

Porcentagem do total de conteúdo penalizado pela Snap

Total de contas únicas penalizadas

Tempo médio de resposta (minutos) desde a detecção até a ação final

Conteúdo sexual

7.315.730

3.778.370

60,2%

2.463.464

1

Exploração e abuso sexual infantil

1.627.097

695.679

11,1%

577.736

10

Assédio e bullying

4.103.797

700.731

11,2%

584.762

3

Ameaças e violência

997.346

147.162

2,3%

120.397

2

Automutilação e suicídio

350.775

41.150

0,7%

36.657

3

Informações falsas

606.979

2.027

0,0%

1.960

1

Imitações ou roubo de identidade

745.874

7.086

0,1%

6.837

<1

Spam

1.709.559

122.499

2,0%

94.837

1

Drogas

481.830

262.962

4,2%

176.799

5

Armas

271.586

39.366

0,6%

32.316

1

Outros bens regulamentados

530.449

143.098

2,3%

98.023

3

Discurso de ódio

817.262

337.263

5,4%

280.682

6

Terrorismo e extremismo violento

208.040

1.053

0,0%

912

2

No primeiro semestre de 2025, continuamos a reduzir o tempo médio de resposta em todas as categorias de políticas, diminuindo em média mais de 75% em comparação com o período anterior de denúncia, para 2 minutos. Essa redução se deveu, em grande parte, a um esforço conjunto e contínuo para melhorar nossa priorização de denúncias para análise com base na gravidade dos danos e na análise automatizada.

Também fizemos várias alterações específicas em nossos esforços de segurança no período de relatório, que tiveram impacto nos dados reportados aqui, incluindo o fortalecimento de nossas políticas sobre atividades ilícitas envolvendo armas. Observamos um aumento nas denúncias e punições na categoria de exploração sexual infantil, impulsionado principalmente por um aumento no conteúdo sexualizado ou sensível envolvendo menores de idade que viola nossas políticas, mas não é ilegal nos EUA nem está sujeito a denúncia ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA. O aumento do volume relacionado a conteúdo sexual (e a diminuição do volume relacionado a assédio) foi impulsionado por nossa reclassificação do conteúdo associado a assédio sexual, de assédio para conteúdo sexual.

Nossos esforços para detectar e penalizar proativamente violações de nossas Diretrizes Comunitárias

Detecção proativa e aplicação de nossas Diretrizes Comunitárias


Usamos ferramentas automatizadas para detectar proativamente e, em alguns casos, penalizar violações de nossas Diretrizes Comunitárias. Essas ferramentas incluem a tecnologia de correspondência de hash (incluindo o PhotoDNA e o recurso de Imagens de Abuso Sexual Infantil (CSAI) do Google), a API de Segurança de Conteúdo do Google e outras tecnologias proprietárias  projetadas para detectar textos e mídias ilegais e que violem a lei, às vezes utilizando a inteligência artificial e o aprendizado de máquina. Nossos números de detecção proativa flutuam rotineiramente como resultado de alterações no comportamento do usuário, melhorias em nossos recursos de detecção e alterações em nossas políticas.

No primeiro semestre de 2025, tomamos as seguintes medidas de penalização após detectar proativamente violações de nossas Diretrizes Comunitárias usando ferramentas de detecção automatizadas:


Total de penalizações

Total de contas únicas penalizadas

Total

3.395.968

1.709.224

Fundamentos da Política

Total de penalizações

Total de contas únicas penalizadas

Tempo médio de resposta (minutos) desde a detecção até a ação final

Conteúdo sexual

1.683.045

887.059

0

Exploração e abuso sexual infantil

399.756

162.017

2

Assédio e bullying

12.716

10.412

8

Ameaças e violência

40.489

27.662

6

Automutilação e suicídio

6.493

4.638

7

Informações falsas

61

44

20

Imitações ou roubo de identidade

52

44

34

Spam

144.800

96.500

0

Drogas

832.803

578.738

7

Armas

211.877

144.455

0

Outros bens regulamentados

40.139

31.408

8

Discurso de ódio

5.788

4.518

6

Terrorismo e extremismo violento

9.917

5.899

5

Combate ao abuso e à exploração sexual infantil

A exploração sexual de qualquer membro da nossa comunidade, especialmente menores, é ilegal, repugnante e proibida pelas nossas Diretrizes Comunitárias. A prevenção, detecção e erradicação da exploração sexual e abuso infantil (do inglês, CSEA) em nossa plataforma é uma prioridade para a Snap, e evoluímos continuamente nossas capacidades no combate a esses e outros tipos de crimes.

Usamos ferramentas de detecção de tecnologia ativa para ajudar a identificar conteúdo relacionado à CSEA. Essas ferramentas incluem ferramentas de correspondência de hash (incluindo o PhotoDNA e a CSAI Match do Google, para identificar imagens e vídeos ilegais conhecidos de abuso e exploração sexual infantil, respectivamente) e a API de Segurança de Conteúdo do Google (para identificar imagens ilegais novas e “nunca rastreadas por hash”). Além disso, em alguns casos, usamos sinais comportamentais para impedir outras atividades suspeitas de CSEA. Denunciamos conteúdo relacionado a CSEA ao U.S. National Center for Missing and Exploited Children (NCMEC - Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA), conforme exigido por lei. Em seguida, o NCMEC coordena com as autoridades policiais nacionais ou internacionais, conforme necessário.

No primeiro semestre de 2025, tomamos as seguintes medidas ao identificar abuso e exploração sexual infantil no Snapchat (proativamente ou após recebermos uma denúncia):

Total de conteúdos penalizados

Total de contas desabilitadas

Total de envios ao NCMEC*

994.337

187.387

321.587

*Observe que cada envio ao NCMEC pode conter vários conteúdos distintos. O total de artigos de mídia individuais enviados ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA é igual ao total de conteúdos penalizados.

Nossos esforços para fornecer recursos e apoio aos Snapchatters necessitados

O Snapchat incentiva amigos a se ajudarem em momentos difíceis, fornecendo recursos e suporte para os Snapchatters que precisam. 

Nossa ferramenta de busca Here For You fornece recursos de especialistas quando usuários pesquisam determinados tópicos relacionados a saúde mental, ansiedade, depressão, estresse, pensamentos suicidas, luto e bullying. Também desenvolvemos uma página dedicada a combater extorsão sexual por motivos financeiros e outros riscos e danos sexuais, em um esforço para apoiar aqueles que estão em perigo.

Quando nossas equipes de Segurança tomam conhecimento de um Snapchatter em perigo, elas estão preparadas para fornecer  recursos de prevenção e suporte à automutilação, além de notificar os serviços de emergência, conforme necessário. Os recursos que compartilhamos estão disponíveis em nossa lista global de recursos de segurança, que está disponível publicamente a todos os Snapchatters em nosso Centro de privacidade, segurança e políticas.

Total de vezes de compartilhamento de recursos sobre suicídio

36.162

Recursos

Abaixo, fornecemos informações sobre os recursos que recebemos de usuários que solicitaram uma revisão de nossa decisão de bloquear suas contas por violações das Diretrizes Comunitárias no primeiro semestre de 2025:

Fundamentos da Política

Total de recursos

Total de reintegrações

Total de decisões mantidas

Tempo médio de resposta (dias) para processar recursos

Total

437.855

22.142

415.494

1

Conteúdo sexual

134.358

6.175

128.035

1

Exploração e abuso sexual infantil*

89.493

4.179

85.314

<1

Assédio e bullying

42.779

281

42.496

1

Ameaças e violência

3.987

77

3.909

1

Automutilação e suicídio

145

2

143

1

Informações falsas

4

0

4

1

Imitações ou roubo de identidade

1.063

33

1.030

<1

Spam

13.730

3.140

10.590

1

Drogas

128.222

7.749

120.409

1

Armas

10.941

314

10.626

1

Outros bens regulamentados

9.719

124

9.593

1

Discurso de ódio

3.310

67

3.242

1

Terrorismo e extremismo violento

104

1

103

1

Visão geral regional e do país

Esta seção fornece uma visão geral das ações de nossas equipes de Segurança para fazer cumprir nossas Diretrizes Comunitárias, tanto de forma proativa quanto em resposta a denúncias de violações no aplicativo, em uma amostragem de regiões geográficas. Nossas Diretrizes Comunitárias se aplicam a todo o conteúdo no Snapchat e a todos os Snapchatters em todo o mundo, independentemente da localização.

As informações para países individuais, incluindo todos os Estados-Membros da UE, estão disponíveis para download através do arquivo CSV em anexo.



Visão geral das ações das equipes de Segurança para aplicar as Diretrizes Comunitárias 

Região

Total de penalizações

Total de contas únicas penalizadas

América do Norte

3.468.315

2.046.888

Europa

2.815.474

1.810.223

Resto do Mundo

3.390.625

1.937.090

Total

9.674.414

5.794.201

Violações das Diretrizes Comunitárias denunciadas às nossas equipes de Segurança

Região

Denúncias de conteúdo e conta

Total de penalizações

Total de contas únicas penalizadas

América do Norte

5.762.412

2.125.819

1.359.763

Europa

5.961.962

2.144.828

1.440.907

Resto do Mundo

8.041.950

2.007.799

1.316.070

Total

19.766.324

6.278.446

4.116.740

Detecção proativa e aplicação de nossas Diretrizes Comunitárias

Região

Total de penalizações

Total de contas únicas penalizadas

América do Norte

1.342.496

785.067

Europa

670.646

422.012

Resto do Mundo

1.382.826

696.364

Total

3.395.968

1.709.224

Moderação de Anúncios

A Snap está comprometida em garantir que todos os anúncios sejam totalmente compatíveis com nossas Políticas de Publicidade. Acreditamos em uma abordagem responsável para a publicidade, criando uma experiência segura para todos os Snapchatters. Todos os anúncios estão sujeitos à nossa revisão e aprovação. Além disso, nos reservamos o direito de remover anúncios, inclusive em resposta à opinião do usuário, o que levamos a sério. 


Abaixo, incluímos informações sobre nossa moderação para anúncios pagos que são denunciados após sua publicação no Snapchat. Observe que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, adulto, violento ou perturbador, declarações de ódio e violação de propriedade intelectual. Além disso, você pode acessar a Galeria de anúncios do Snapchat em values.snap.com, na guia “Transparência”.

Total de anúncios denunciados

Total de anúncios removidos

67.789

16.410

Solicitações de remoção de propriedade intelectual e do Governo

Sobre os Relatórios de Transparência

Glossário do relatório de transparência