1 de dezembro de 2025
1 de dezembro de 2025
Publicamos este relatório de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap. Como parte do nosso compromisso com a segurança e a transparência, esforçamo-nos continuamente por tornar estes relatórios mais abrangentes e informativos para as muitas partes interessadas que se preocupam profundamente com a nossa moderação de conteúdos, a nossa abordagem à aplicação da lei e a segurança e o bem-estar da comunidade Snapchat.
Este Relatório de Transparência é referente ao primeiro semestre de 2025 (1 de janeiro a 30 de junho). Partilhamos dados globais sobre denúncias feitas por utilizadores e deteção proativa pela Snap; medidas tomadas pelas nossas equipas de Segurança em categorias específicas de violações das Diretrizes da Comunidade; como respondemos a pedidos de autoridades policiais e governos; e como respondemos a avisos de violação de direitos de autor e de marca comercial. Também fornecemos informações específicas por país numa série de páginas ligadas.
Para recursos adicionais de segurança e privacidade no Snapchat, consulte o nosso separador Sobre o Relatório de Transparência no final da página.
Note que a versão mais atualizada deste Relatório de Transparência é a versão em inglês.
Visão geral das ações das nossas Equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade
As nossas equipas de Segurança fazem cumprir as nossas Diretrizes da Comunidade tanto proativamente (através da utilização de ferramentas de deteção automatizada) como reativamente (em resposta a denúncias), conforme detalhado nas secções seguintes deste relatório. Neste ciclo de denúncias (primeiro semestre de 2025), as nossas equipas de Segurança registaram o seguinte número de sanções:
Total de medidas tomadas
Total de contas individuais intervencionadas
9.674.414
5.794.201
Segue-se abaixo uma discriminação por tipo de violações das Diretrizes da Comunidade em causa, incluindo o "tempo médio de resposta" entre o momento em que detetámos a violação (quer proativamente, quer após receção de uma denúncia) e o momento em que tomámos uma ação final sobre o conteúdo ou conta relevante:
Justificação da política
Total de medidas tomadas
Total de contas individuais intervencionadas
Tempo Médio de Resposta (minutos) desde a deteção até à ação final
Conteúdo sexual
5.461.419
3.233.077
1
Exploração e abuso sexual de menores
1.095.424
733.106
5
Assédio e intimidação
713.448
594.302
3
Ameaças e Violência
187.653
146.564
3
Autoflagelação e Suicídio
47.643
41.216
5
Informação falsa
2,088
2.004
1
Roubo de identidade
7.138
6.881
<1
Spam
267.299
189.344
1
Drogas
1.095.765
726.251
7
Armas
251.243
173.381
1
Outros bens regulamentados
183.236
126.952
4
Discurso de ódio
343.051
284.817
6
Terrorismo e extremismo violento
10.970
6 783
2
Os dados do Total de Sanções incluem as sanções tomadas pela Snap após a revisão das denúncias na aplicação enviadas através do Snapchat. Isto representa a grande maioria das medidas tomadas pelas equipas de Segurança da Snap. Este número exclui a maioria das medidas tomadas como resultado de investigações com base em denúncias feitas à Snap através do nosso Site de Suporte ou outros mecanismos (por exemplo, via e-mail), ou como resultado de algumas investigações proativas realizadas pelas nossas equipas de Segurança. Estas medidas excluídas representaram menos de 0,5% do volume de medidas tomadas no primeiro semestre de 2025.
Durante o período de reporte, assistimos a uma Taxa de Visualização Violatória (VVR) de 0,01%, o que significa que, em cada 10 000 Snaps e visualizações de Histórias no Snapchat, 1 continha conteúdos que violavam as nossas diretrizes da comunidade. Entre as medidas tomadas para o que consideramos ser "Danos graves", observámos uma VVR de 0,003%. Na tabela abaixo apresentamos uma análise detalhada da VVR por motivo da política.
Justificação da política
VVR
Conteúdo sexual
0,00482%
Exploração e abuso sexual de menores
0,00096%
Assédio e intimidação
0,00099%
Ameaças e Violência
0,00176%
Autoflagelação e Suicídio
0,0009%
Informação falsa
0,0002%
Roubo de identidade
0,0009%
Spam
0,00060%
Drogas
0,00047%
Armas
0,00083%
Outros bens regulamentados
0,00104%
Discurso de ódio
0,00025%
Terrorismo e extremismo violento
0,0002%
Violações das Diretrizes da Comunidade denunciadas às nossas Equipas de Confiança e Segurança
De 1 de janeiro a 30 de junho de 2025, em resposta a 19.766.324 denúncias na aplicação de violações das nossas Diretrizes da Comunidade, as equipas de Segurança da Snap tomaram um total de 6.278.446 ações de aplicação de medidas a nível mundial, incluindo sanções contra 4.104.624 contas únicas. Este volume de denúncias na aplicação exclui as denúncias feitas no site de suporte e por e-mail, que representam menos de 1% do volume total de denúncias. O tempo médio de resposta para que as nossas equipas de Segurança tomassem medidas de aplicação da lei em resposta a essas denúncias foi de aproximadamente 2 minutos. Abaixo, apresentamos uma análise detalhada por motivo da política. (Nota: em relatórios anteriores, por vezes referíamo-nos a isso como a "categoria de denúncias". Doravante, iremos utilizar o termo "motivo da política", que consideramos refletir com mais precisão a natureza dos dados – porque as nossas equipas de Segurança esforçam-se para aplicar as medidas de acordo com o motivo da política apropriado, independentemente da categoria de denúncia identificada pela pessoa que envia a denúncia.)
Total de Denúncias de Conteúdos e Contas
Total de medidas tomadas
Total de contas individuais intervencionadas
Total
19.766.324
6.278.446
4.104.624
Justificação da política
Total de Denúncias de Conteúdos e Contas
Total de medidas tomadas
Percentagem do total de medidas tomadas pela Snap sobre denúncias
Total de contas individuais intervencionadas
Tempo Médio de Resposta (minutos) desde a deteção até à ação final
Conteúdo sexual
7.315.730
3.778.370
60,2%
2.463.464
1
Exploração e abuso sexual de menores
1.627.097
695.679
11,1%
577.736
10
Assédio e bullying
4.103.797
700.731
11,2%
584.762
3
Ameaças e Violência
997.346
147.162
2,3%
120.397
2
Autoflagelação e Suicídio
350.775
41.150
0,7%
36.657
3
Informação falsa
606.979
2.027
0,0%
1.960
1
Roubo de identidade
745.874
7.086
0,1%
6.837
<1
Spam
1.709.559
122.499
2,0%
94.837
1
Drogas
481.830
262.962
4,2%
176.799
5
Armas
271.586
39.366
0,6%
32.316
1
Outros bens regulamentados
530.449
143.098
2,3%
98.023
3
Discurso de ódio
817.262
337.263
5,4%
280.682
6
Terrorismo e extremismo violento
208.040
1.053
0,0%
912
2
No primeiro semestre de 2025, continuámos a reduzir os tempos médios de resposta em todas as categorias de políticas, diminuindo-os em média mais de 75% relativamente ao período anterior de denúncias, para 2 minutos. Esta redução deveu-se, em grande parte, a um esforço concertado contínuo para melhorar a nossa priorização de denúncias para revisão com base na gravidade dos danos e na revisão automatizada.
Também fizemos várias alterações direcionadas aos nossos esforços de segurança no período da denúncia, que tiveram impacto nos dados aqui apresentados, incluindo o reforço das nossas políticas sobre atividades ilícitas envolvendo armas. Observámos um aumento nas denúncias e nas medidas de fiscalização na categoria de Exploração Sexual Infantil, que foi impulsionado principalmente por um aumento no conteúdo sexualizado ou sensível envolvendo menores de idade que viola as nossas políticas, mas que não é ilegal nos EUA nem está sujeito a denúncia ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC). O aumento do volume relacionado com Conteúdo Sexual (e a diminuição do volume relacionado com Assédio) foi impulsionado pela nossa reclassificação do conteúdo associado a Assédio Sexual, de Assédio para Conteúdo Sexual.
Os nossos esforços para detetar e combater proativamente violações das nossas Diretrizes da Comunidade
Utilizamos ferramentas automatizadas para detetar proativamente e, em alguns casos, combater violações das nossas Diretrizes da Comunidade. Estas ferramentas incluem tecnologia de correspondência de hash (incluindo o PhotoDNA e as Imagens de Abuso Sexual Infantil (CSAI) da Google), a API de Segurança de Conteúdos da Google e outras tecnologias proprietárias concebidas para detetar textos e meios de comunicação ilegais e infratores, por vezes recorrendo à inteligência artificial e à aprendizagem automática. Os nossos números de deteção proativa variam regularmente como resultado de mudanças no comportamento dos utilizadores, melhorias nas nossas capacidades de deteção e alterações nas nossas políticas.
No primeiro semestre de 2025, tomámos as seguintes ações de aplicação da lei depois de detetar proativamente violações das nossas Diretrizes da Comunidade utilizando ferramentas de deteção automatizada:
Total de medidas tomadas
Total de contas individuais intervencionadas
Total
3.395.968
1.709.224
Justificação da política
Total de medidas tomadas
Total de contas individuais intervencionadas
Tempo Médio de Resposta (minutos) desde a deteção até à ação final
Conteúdo sexual
1.683.045
887.059
0
Exploração e abuso sexual de menores
399.756
162.017
2
Assédio e intimidação
12.716
10.412
8
Ameaças e Violência
40.489
27.662
6
Autoflagelação e Suicídio
6.493
4.638
7
Informação falsa
61
44
20
Roubo de identidade
52
44
34
Spam
144.800
96.500
0
Drogas
832.803
578.738
7
Armas
211.877
144.455
0
Outros bens regulamentados
40.139
31.408
8
Discurso de ódio
5.788
4.518
6
Terrorismo e extremismo violento
9.917
5.899
5
Combate à exploração e abuso sexual infantil
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abominável e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Utilizamos ferramentas de deteção de tecnologia ativa para ajudar a identificar conteúdos relacionados com o CSEA. Estas ferramentas incluem ferramentas de correspondência de hash (incluindo o PhotoDNA e a Correspondência CSAI da Google, para identificar imagens e vídeos ilegais conhecidos de CSEA, respetivamente) e a API de Segurança de Conteúdos da Google (para identificar imagens ilegais novas e "nunca antes hashadas"). Além disso, em alguns casos, utilizamos sinais comportamentais para combater outras atividades suspeitas de CSEA. Denunciamos conteúdos relacionados com CSEA ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, coordena-se com as autoridades competentes a nível nacional ou internacional, conforme necessário.
No primeiro semestre de 2025, tomámos as seguintes ações ao identificarmos CSEA no Snapchat (quer proativamente, quer após receção de uma denúncia):
Total de conteúdo estritamente controlado
Total de contas desativadas
Total de envios à NCMEC*
994.337
187.387
321.587
*Note que cada envio à NCMEC pode conter várias partes de conteúdo. O total de conteúdos individuais enviados à NCMEC é igual ao nosso total de conteúdo moderado.
Os nossos esforços para fornecer recursos e apoio a Snapchatters quando necessário
O Snapchat capacita amigos a ajudarem uns aos outros em momentos difíceis, fornecendo recursos e apoio a Snapchatters que precisam.
A nossa ferramenta de pesquisa Here For You fornece recursos de especialistas quando os utilizadores procuram determinados tópicos relacionados com saúde mental, ansiedade, depressão, stress, pensamentos suicidas, luto e intimidação. Também desenvolvemos uma página dedicada ao combate à extorsão sexual com motivação financeira e outros riscos e danos sexuais, num esforço para apoiar as pessoas que estão em situação de perigo.
Quando as nossas equipas de Segurança têm conhecimento de um Snapchatter em dificuldades, estão equipadas para fornecer recursos de apoio e prevenção contra automutilação e para notificar os serviços de emergência, conforme necessário. Os recursos que partilhamos estão disponíveis na nossa lista global de recursos de segurança, que está disponível publicamente para todos os Snapchatters no nosso Centro de Privacidade, Segurança e Políticas.
Total de vezes que os recursos de suicídio foram partilhados
36.162
Recursos
Abaixo, fornecemos informações sobre pedidos que recebemos de utilizadores que solicitam uma revisão da nossa decisão de bloquear a sua conta devido a violações das Diretrizes da Comunidade no primeiro semestre de 2025:
Justificação da política
Total de recursos
Total de reintegrações
Total de decisões mantidas
Tempo médio de resposta (dias) para tratar os pedidos de recurso
Total
437.855
22.142
415.494
1
Conteúdo sexual
134.358
6.175
128.035
1
Exploração e abuso sexual de menores*
89.493
4.179
85.314
<1
Assédio e intimidação
42.779
281
42.496
1
Ameaças e Violência
3.987
77
3.909
1
Autoflagelação e Suicídio
145
2
143
1
Informação falsa
4
0
4
1
Roubo de identidade
1.063
33
1 030
<1
Spam
13.730
3.140
10.590
1
Drogas
128.222
7.749
120.409
1
Armas
10.941
314
10.626
1
Outros bens regulamentados
9.719
124
9.593
1
Discurso de ódio
3.310
67
3.242
1
Terrorismo e extremismo violento
104
1
103
1
Visão global a nível regional e nacional
Esta secção fornece uma visão geral das ações das nossas equipas de Segurança para fazer cumprir as nossas Diretrizes da Comunidade, tanto proativamente como em resposta a denúncias de violações feitas na aplicação, numa amostra de regiões geográficas. As nossas Diretrizes da Comunidade aplicam-se a todos os conteúdos no Snapchat, bem como a todos os Snapchatters, pelo mundo fora, independentemente da sua localização.
As informações para cada país, incluindo todos os Estados-Membros da UE, estão disponíveis para descarregar através do ficheiro CSV em anexo.
Região
Total de medidas tomadas
Total de contas individuais intervencionadas
América do Norte
3.468.315
2.046.888
Europa
2.815.474
1.810.223
Resto do Mundo
3.390.625
1.937.090
Total
9.674.414
5.794.201
Região
Denúncias de Conteúdos e Contas
Total de medidas tomadas
Total de contas individuais intervencionadas
América do Norte
5.762.412
2.125.819
1.359.763
Europa
5.961.962
2.144.828
1.440.907
Resto do Mundo
8.041.950
2.007.799
1.316.070
Total
19.766.324
6.278.446
4.116.740
Região
Total de medidas tomadas
Total de contas individuais intervencionadas
América do Norte
1.342.496
785.067
Europa
670.646
422.012
Resto do Mundo
1.382.826
696.364
Total
3.395.968
1.709.224
Moderação de anúncios
A Snap compromete-se a garantir que todos os anúncios estão em total conformidade com as nossas políticas de publicidade. Acreditamos numa abordagem responsável à publicidade, criando uma experiência segura para todos os Snapchatters. Todos os anúncios estão sujeitos a análise e aprovação da nossa parte. Além disso, reservamo-nos o direito de remover anúncios, incluindo em resposta ao feedback do utilizador, que levamos a sério.
Abaixo, incluímos informações sobre a nossa moderação de anúncios pagos que nos são denunciados após a sua publicação no Snapchat. Note que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo para adultos, conteúdo violento ou perturbador, incitamento ao ódio e violação de propriedade intelectual. Além disso, pode encontrar a Galeria de Anúncios do Snapchat em values.snap.com no separador "Transparência".
Total de anúncios denunciados
Total de anúncios removidos
67.789
16.410

























