Snap Values
Relatório de transparência
1 de julho de 2024 – 31 de dezembro de 2024

Lançado:

20 de junho de 2025

Atualizado:

1 de julho de 2025

Publicamos este relatório de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap. Como parte do nosso compromisso com a segurança e a transparência, esforçamo-nos continuamente por tornar estes relatórios mais abrangentes e informativos para as muitas partes interessadas que se preocupam profundamente com a nossa moderação de conteúdos, práticas de aplicação da lei e a segurança e bem-estar da comunidade Snapchat. 

O presente Relatório de transparência abrange o segundo semestre de 2024 (1 de julho – 31 de dezembro). Partilhamos dados globais sobre denúncias feitas por utilizadores e deteção proativa pela Snap; medidas tomadas pelas nossas equipas de Segurança em categorias específicas de violações das Diretrizes da Comunidade; como respondemos a pedidos de autoridades policiais e governos; e como respondemos a avisos de violação de direitos de autor e de marca comercial. Também fornecemos informações específicas por país numa série de páginas ligadas.

Para recursos adicionais de segurança e privacidade no Snapchat, consulte o nosso separador Sobre o Relatório de Transparência no final da página.

Note que a versão mais atualizada deste Relatório de Transparência é a versão em inglês.

Visão geral das ações das nossas Equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade

As nossas equipas de Segurança fazem cumprir as nossas Diretrizes da Comunidade tanto proativamente (através da utilização de ferramentas de deteção automatizada) como reativamente (em resposta a denúncias), conforme detalhado nas secções seguintes deste relatório. Neste ciclo de denúncia (2.º semestre de 2024), as nossas equipas de Segurança tomaram o seguinte número de medidas de segurança:

Total de medidas tomadas

Total de contas individuais com medidas tomadas

10.032.110

5.698.212

Segue-se abaixo uma descrição por tipo de violações das Diretrizes da Comunidade em causa, incluindo o tempo médio de resposta entre o momento em que detetámos a violação (quer proativamente, quer após receção de uma denúncia) e o momento em que tomámos uma ação final sobre o conteúdo ou conta relevante:

Justificação da política

Total de medidas tomadas

Total de contas individuais com medidas tomadas

Tempo Médio de Resposta (minutos) desde a deteção até à ação final

Conteúdo sexual

3.860.331

2.099.512

2

Exploração sexual de crianças

961.359

577.682

23

Assédio e bullying

2.716.966

2.019.439

7

Ameaças e Violência

199.920

156.578

8

Autoflagelação e Suicídio

15.910

14.445

10

Informação falsa

6.539

6.176

1

Roubo de identidade

8.798

8.575

2

Spam

357.999

248.090

1

Drogas

1.113.629

718.952

6

Armas

211.860

136.953

1

Outros produtos regulamentados

247.535

177.643

8

Discurso de ódio

324.478

272.025

27

Terrorismo e extremismo violento

6.786

4.010

5

Durante o período de reporte, assistimos a uma Taxa de Visualização Violatória (VVR) de 0,01%, o que significa que, em cada 10 000 Snaps e visualizações de Histórias no Snapchat, 1 continha conteúdos que violavam as nossas diretrizes da comunidade.

Violações das Diretrizes da Comunidade denunciadas às nossas Equipas de Confiança e Segurança

De 1 de julho a 31 de dezembro de 2024, em resposta a denúncias feitas na aplicação de violações das nossas Diretrizes da Comunidade, as equipas de Segurança da Snap tomaram um total de 6.346.508 ações de segurança a nível mundial, incluindo medidas tomadas contra 4.075.838 contas únicas. O tempo médio de resposta para que as nossas equipas de Segurança tomassem medidas de aplicação da lei em resposta a tais denúncias foi de cerca de 6 minutos. Apresenta-se abaixo uma descrição por categoria de denúncia. 

Total de Denúncias de Conteúdos e Contas

Total de medidas tomadas

Total de contas individuais com medidas tomadas

19.379.848

6.346.508

4.075.838

Justificação da política

Denúncias de Conteúdos e Contas

Total de medidas tomadas

% do total de medidas tomadas pela Snap sobre denúncias

Total de contas individuais com medidas tomadas

Tempo Médio de Resposta (minutos) desde a deteção até à ação final

Conteúdo sexual

5.251.375

2.042.044

32,20%

1.387.749

4

Exploração sexual de crianças

1.224.502

469.389

7,40%

393.384

133

Assédio e bullying

6.377.555

2.702.024

42,60%

2.009.573

7

Ameaças e Violência

1.000.713

156.295

2,50%

129.077

8

Autoflagelação e Suicídio

307.660

15.149

0,20%

13.885

10

Informação falsa

536.886

6.454

0,10%

6.095

1

Roubo de identidade

678.717

8.790

0,10%

8.569

2

Spam

1.770.216

180.849

2,80%

140.267

1

Drogas

418.431

244.451

3,90%

159.452

23

Armas

240.767

6,473

0,10%

5.252

1

Outros produtos regulamentados

606.882

199.255

3,10%

143.560

8

Discurso de ódio

768.705

314.134

4,90%

263.923

27

Terrorismo e extremismo violento

197.439

1.201

<0,1%

1 093

4

Em comparação com o período de denúncia anterior, reduzimos os tempos médios de resposta em todas as categorias de políticas numa média de 90%. Esta redução deveu-se, em grande parte, a um esforço concertado para expandir a nossa capacidade de revisão, bem como para melhorar a nossa priorização de denúncias com base na gravidade dos danos. Também fizemos várias alterações direcionadas aos nossos esforços de segurança no período de denúncia, que tiveram impacto nos dados aqui denunciados, incluindo a expansão dos nossos esforços para combater nomes de utilizador e nomes de apresentação que violem as nossas Diretrizes da Comunidade, a introdução de um aumento de denúncias e proteções para as Comunidades no Snapchat e a introdução de opções de denúncia para tipos adicionais de meios, como notas de voz, diretamente para nós na aplicação. 

Estas alterações, bem como outros esforços de segurança e forças externas, afetaram particularmente determinadas áreas de políticas quando comparadas com o período anterior de denúncia. Estas categorias de políticas incluem: Conteúdos suspeitos relacionados com Exploração e Abuso Sexual Infantil (CSEA), Informação Falsa Prejudicial e Spam. Especificamente:

  • CSEA: No segundo semestre de 2024, observámos uma diminuição de 12% nas denúncias relacionadas com CSEA e reduzimos o nosso tempo médio de resposta para responder às denúncias de CSEA em 99%. Estas tendências são impulsionadas, em grande parte, por avanços contínuos nos nossos esforços de deteção proativa, que nos permitiram remover conteúdos de CSEA antes de nos serem denunciados, e por melhorias que fizemos nos nossos processos para analisar e tomar medidas sobre denúncias de CSEA de forma mais eficiente. Mesmo com estas melhorias, o nosso tempo de resposta CSEA é mais elevado do que noutras áreas de políticas, porque o conteúdo está sujeito a um processo especializado que inclui dupla revisão com uma equipa selecionada de agentes com formação específica.

  • Informação falsa prejudicial: Observámos um aumento de 26% no volume de denúncias relacionadas com Informação Falsa Prejudicial, impulsionado principalmente por eventos políticos, incluindo as Eleições de novembro de 2024 nos EUA.

  • Spam: Neste período de denúncia, assistimos a uma diminuição de ~50% no total de medidas tomadas e uma diminuição de ~46% no total de contas únicas fiscalizadas em resposta a denúncias de suspeita de spam, refletindo melhorias nas nossas ferramentas de deteção e intervenção proativa. Esta é uma continuação dos nossos esforços para combater spam através de sinais de contas e remover agentes de spam mais cedo durante a sua atividade na plataforma. Este esforço já estava em curso durante o último período de denúncia, durante o qual o total de medidas tomadas e o total de contas únicas fiscalizadas por spam diminuíram ~65% e ~60%, respetivamente.

Os nossos esforços para detetar e combater proativamente violações das nossas Diretrizes da Comunidade

Deteção proativa e aplicação das nossas Diretrizes da Comunidade


Utilizamos ferramentas automatizadas para detetar proativamente e, em alguns casos, combater violações das nossas Diretrizes da Comunidade. Estas ferramentas incluem tecnologia de correspondência de hash (incluindo o PhotoDNA e a Correspondência de Imagens de Abuso Sexual Infantil (CSAI) da Google), a API de Segurança de Conteúdos da Google e outras tecnologias personalizadas concebidas para detetar textos e meios de comunicação abusivos,   por vezes aproveitando a inteligência artificial e a aprendizagem de máquina. 

No segundo semestre de 2024, tomámos as seguintes ações de aplicação da lei depois de detetar proativamente violações das nossas Diretrizes da Comunidade utilizando ferramentas de deteção automatizada:

Total de medidas tomadas

Total de contas individuais com medidas tomadas

3.685.602

1.845.125

Justificação da política

Total de medidas tomadas

Total de contas individuais com medidas tomadas

Tempo Médio de Resposta (minutos) desde a deteção até à ação final

Conteúdo sexual

1.818.287

828.590

<1

Exploração sexual de crianças

491.970

188.877

1

Assédio e bullying

14.942

11.234

8

Ameaças e Violência

43.625

29.599

9

Autoflagelação e Suicídio

761

624

9

Informação falsa

85

81

10

Roubo de identidade

8

6

19

Spam

177.150

110.551

<1

Drogas

869.178

590.658

5

Armas

205.387

133.079

<1

Outros produtos regulamentados

48.280

37.028

9

Discurso de ódio

10.344

8.683

10

Terrorismo e extremismo violento

5.585

2.951

21

Combater a exploração e o abuso sexual de crianças 

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abominável e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.

Utilizamos ferramentas de deteção de tecnologia ativa para ajudar a identificar conteúdos relacionados com o CSEA. Estas ferramentas incluem ferramentas de correspondência de hash (incluindo o PhotoDNA e a Correspondência CSAI da Google, para identificar imagens e vídeos ilegais conhecidos de CSEA, respetivamente) e a API de Segurança de Conteúdos da Google (para identificar imagens de CSEA novas e "nunca antes hashadas"). Além disso, em alguns casos, utilizamos sinais comportamentais para combater outras atividades suspeitas de CSEA. Denunciamos conteúdos relacionados com CSEA ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, coordena-se com as autoridades competentes a nível nacional ou internacional, conforme necessário.

No segundo semestre de 2024, tomámos as seguintes ações ao identificarmos CSEA no Snapchat (quer proativamente, quer após receção de uma denúncia):


Total de conteúdo estritamente controlado

Total de contas desativadas

Total de envios à NCMEC*

1.228.929

242.306

417.842

*Note que cada envio à NCMEC pode conter várias partes de conteúdo. O total de conteúdos individuais enviados à NCMEC é igual ao nosso total de conteúdo moderado.

Os nossos esforços para fornecer recursos e apoio a Snapchatters quando necessário

O Snapchat capacita amigos a ajudarem uns aos outros em momentos difíceis, fornecendo recursos e apoio a Snapchatters que precisam. 

A nossa ferramenta de pesquisa Para ti fornece  recursos de especialistas quando os utilizadores pesquisam determinados tópicos relacionados com saúde mental, ansiedade, depressão, stress, pensamentos suicidas, luto e bullying. Adicionalmente, desenvolvemos uma página centrada na extorsão sexual e económica, e noutros riscos e danos sexuais, com o intuito de prestar assistência a quem se encontra em dificuldade. A nossa lista global de recursos de segurança está disponível publicamente para todos os Snapchatters, no nosso Centro de Privacidade, Segurança e Políticas. 
Quando as nossas equipas de Segurança têm conhecimento de um(a) Snapchatter em perigo, estão equipadas para fornecer  recursos de prevenção e apoio de automutilação e para notificar os serviços de emergência, conforme necessário. Os recursos que partilhamos estão disponíveis na nossa lista global de recursos de segurança, que estão disponíveis publicamente para todos os Snapchatters.

Total de vezes que os recursos de suicídio foram partilhados

64.094

Recursos

Abaixo, fornecemos informações sobre pedidos que recebemos de utilizadores que solicitam uma revisão da nossa decisão de bloquear a sua conta no segundo semestre de 2024:

Justificação da política

Total de recursos

Total de reintegrações

Total de decisões mantidas

Tempo médio de resposta (dias) para tratar os pedidos de recurso

TOTAL

493.782

35.243

458.539

5

Conteúdo sexual

162.363

6.257

156.106

4

Exploração sexual de crianças

102.585

15.318

87.267

6

Assédio e bullying

53.200

442

52.758

7

Ameaças e Violência

4 238

83

4.155

5

Autoflagelação e Suicídio

31

0

30

5

Informação falsa

3

0

3

<1

Roubo de identidade

847

33

814

7

Spam

19.533

5.090

14.443

9

Drogas

133.478

7.598

125.880

4

Armas

4.678

136

4.542

6

Outros produtos regulamentados

9.153

168

8.985

6

Discurso de ódio

3.541

114

3.427

7

Terrorismo e extremismo violento

132

3

129

9

Visão global a nível regional e nacional

Esta secção fornece uma visão geral das ações das nossas equipas de Segurança para fazer cumprir as nossas Diretrizes da Comunidade, tanto proativamente como em resposta a denúncias de violações feitas na aplicação, numa amostra de regiões geográficas. As nossas Diretrizes da Comunidade aplicam-se a todos os conteúdos no Snapchat, bem como a todos os Snapchatters, pelo mundo fora, independentemente da sua localização.

As informações para cada país, incluindo todos os Estados-Membros da UE, estão disponíveis para descarregar através do ficheiro CSV em anexo.


Visão geral das ações das nossas Equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade 

Região

Total de medidas tomadas

Total de contas individuais com medidas tomadas

América do Norte

3.828.389

2.117.048

Europa

2.807.070

1.735.054

Resto do Mundo

3.396.651

1.846.110

Total

10.032.110

5.698.212

Violações das Diretrizes da Comunidade denunciadas às nossas Equipas de Segurança

Região

Denúncias de Conteúdos e Contas

Total de medidas tomadas

Total de contas individuais com medidas tomadas

América do Norte

5.916.815

2.229.465

1.391.304

Europa

5.781.317

2.085.109

1.378.883

Resto do Mundo

7.681.716

2.031.934

1.319.934

Total

19.379.848

6.346.508

4.090.121

Deteção proativa e aplicação das nossas Diretrizes da Comunidade

Total de medidas tomadas

Total de contas individuais com medidas tomadas

1.598.924

837.012

721.961

417.218

1.364.717

613.969

3.685.602

1.868.199

Moderação de anúncios

A Snap compromete-se a garantir que todos os anúncios estão em total conformidade com as nossas políticas de publicidade. Acreditamos numa abordagem responsável à publicidade, criando uma experiência segura para todos os Snapchatters. Todos os anúncios estão sujeitos a análise e aprovação da nossa parte. Além disso, reservamo-nos o direito de remover anúncios, incluindo em resposta ao feedback do utilizador, que levamos a sério. 


Abaixo, incluímos informações sobre a nossa moderação de anúncios pagos que nos são denunciados após a sua publicação no Snapchat. Note que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo para adultos, conteúdo violento ou perturbador, incitamento ao ódio e violação de propriedade intelectual. Além disso, agora podes encontrar a Galeria de Anúncios do Snapchat no centro de transparência da Snap, acessível diretamente através da barra de navegação.

Total de anúncios denunciados

Total de anúncios removidos

43.098

17.833

Pedidos de Remoção de Propriedade Intelectual e Governamental

Sobre o relatório de transparência

Glossário do Relatório de Transparência