20 de junho de 2025
1 de julho de 2025
Publicamos este relatório de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap. Como parte do nosso compromisso com a segurança e a transparência, esforçamo-nos continuamente por tornar estes relatórios mais abrangentes e informativos para as muitas partes interessadas que se preocupam profundamente com a nossa moderação de conteúdos, práticas de aplicação da lei e a segurança e bem-estar da comunidade Snapchat.
O presente Relatório de transparência abrange o segundo semestre de 2024 (1 de julho – 31 de dezembro). Partilhamos dados globais sobre denúncias feitas por utilizadores e deteção proativa pela Snap; medidas tomadas pelas nossas equipas de Segurança em categorias específicas de violações das Diretrizes da Comunidade; como respondemos a pedidos de autoridades policiais e governos; e como respondemos a avisos de violação de direitos de autor e de marca comercial. Também fornecemos informações específicas por país numa série de páginas ligadas.
Para recursos adicionais de segurança e privacidade no Snapchat, consulte o nosso separador Sobre o Relatório de Transparência no final da página.
Note que a versão mais atualizada deste Relatório de Transparência é a versão em inglês.
Visão geral das ações das nossas Equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade
As nossas equipas de Segurança fazem cumprir as nossas Diretrizes da Comunidade tanto proativamente (através da utilização de ferramentas de deteção automatizada) como reativamente (em resposta a denúncias), conforme detalhado nas secções seguintes deste relatório. Neste ciclo de denúncia (2.º semestre de 2024), as nossas equipas de Segurança tomaram o seguinte número de medidas de segurança:
Total de medidas tomadas
Total de contas individuais com medidas tomadas
10.032.110
5.698.212
Segue-se abaixo uma descrição por tipo de violações das Diretrizes da Comunidade em causa, incluindo o tempo médio de resposta entre o momento em que detetámos a violação (quer proativamente, quer após receção de uma denúncia) e o momento em que tomámos uma ação final sobre o conteúdo ou conta relevante:
Justificação da política
Total de medidas tomadas
Total de contas individuais com medidas tomadas
Tempo Médio de Resposta (minutos) desde a deteção até à ação final
Conteúdo sexual
3.860.331
2.099.512
2
Exploração sexual de crianças
961.359
577.682
23
Assédio e bullying
2.716.966
2.019.439
7
Ameaças e Violência
199.920
156.578
8
Autoflagelação e Suicídio
15.910
14.445
10
Informação falsa
6.539
6.176
1
Roubo de identidade
8.798
8.575
2
Spam
357.999
248.090
1
Drogas
1.113.629
718.952
6
Armas
211.860
136.953
1
Outros produtos regulamentados
247.535
177.643
8
Discurso de ódio
324.478
272.025
27
Terrorismo e extremismo violento
6.786
4.010
5
Durante o período de reporte, assistimos a uma Taxa de Visualização Violatória (VVR) de 0,01%, o que significa que, em cada 10 000 Snaps e visualizações de Histórias no Snapchat, 1 continha conteúdos que violavam as nossas diretrizes da comunidade.
Violações das Diretrizes da Comunidade denunciadas às nossas Equipas de Confiança e Segurança
De 1 de julho a 31 de dezembro de 2024, em resposta a denúncias feitas na aplicação de violações das nossas Diretrizes da Comunidade, as equipas de Segurança da Snap tomaram um total de 6.346.508 ações de segurança a nível mundial, incluindo medidas tomadas contra 4.075.838 contas únicas. O tempo médio de resposta para que as nossas equipas de Segurança tomassem medidas de aplicação da lei em resposta a tais denúncias foi de cerca de 6 minutos. Apresenta-se abaixo uma descrição por categoria de denúncia.
Total de Denúncias de Conteúdos e Contas
Total de medidas tomadas
Total de contas individuais com medidas tomadas
19.379.848
6.346.508
4.075.838
Justificação da política
Denúncias de Conteúdos e Contas
Total de medidas tomadas
% do total de medidas tomadas pela Snap sobre denúncias
Total de contas individuais com medidas tomadas
Tempo Médio de Resposta (minutos) desde a deteção até à ação final
Conteúdo sexual
5.251.375
2.042.044
32,20%
1.387.749
4
Exploração sexual de crianças
1.224.502
469.389
7,40%
393.384
133
Assédio e bullying
6.377.555
2.702.024
42,60%
2.009.573
7
Ameaças e Violência
1.000.713
156.295
2,50%
129.077
8
Autoflagelação e Suicídio
307.660
15.149
0,20%
13.885
10
Informação falsa
536.886
6.454
0,10%
6.095
1
Roubo de identidade
678.717
8.790
0,10%
8.569
2
Spam
1.770.216
180.849
2,80%
140.267
1
Drogas
418.431
244.451
3,90%
159.452
23
Armas
240.767
6,473
0,10%
5.252
1
Outros produtos regulamentados
606.882
199.255
3,10%
143.560
8
Discurso de ódio
768.705
314.134
4,90%
263.923
27
Terrorismo e extremismo violento
197.439
1.201
<0,1%
1 093
4
Em comparação com o período de denúncia anterior, reduzimos os tempos médios de resposta em todas as categorias de políticas numa média de 90%. Esta redução deveu-se, em grande parte, a um esforço concertado para expandir a nossa capacidade de revisão, bem como para melhorar a nossa priorização de denúncias com base na gravidade dos danos. Também fizemos várias alterações direcionadas aos nossos esforços de segurança no período de denúncia, que tiveram impacto nos dados aqui denunciados, incluindo a expansão dos nossos esforços para combater nomes de utilizador e nomes de apresentação que violem as nossas Diretrizes da Comunidade, a introdução de um aumento de denúncias e proteções para as Comunidades no Snapchat e a introdução de opções de denúncia para tipos adicionais de meios, como notas de voz, diretamente para nós na aplicação.
Estas alterações, bem como outros esforços de segurança e forças externas, afetaram particularmente determinadas áreas de políticas quando comparadas com o período anterior de denúncia. Estas categorias de políticas incluem: Conteúdos suspeitos relacionados com Exploração e Abuso Sexual Infantil (CSEA), Informação Falsa Prejudicial e Spam. Especificamente:
CSEA: No segundo semestre de 2024, observámos uma diminuição de 12% nas denúncias relacionadas com CSEA e reduzimos o nosso tempo médio de resposta para responder às denúncias de CSEA em 99%. Estas tendências são impulsionadas, em grande parte, por avanços contínuos nos nossos esforços de deteção proativa, que nos permitiram remover conteúdos de CSEA antes de nos serem denunciados, e por melhorias que fizemos nos nossos processos para analisar e tomar medidas sobre denúncias de CSEA de forma mais eficiente. Mesmo com estas melhorias, o nosso tempo de resposta CSEA é mais elevado do que noutras áreas de políticas, porque o conteúdo está sujeito a um processo especializado que inclui dupla revisão com uma equipa selecionada de agentes com formação específica.
Informação falsa prejudicial: Observámos um aumento de 26% no volume de denúncias relacionadas com Informação Falsa Prejudicial, impulsionado principalmente por eventos políticos, incluindo as Eleições de novembro de 2024 nos EUA.
Spam: Neste período de denúncia, assistimos a uma diminuição de ~50% no total de medidas tomadas e uma diminuição de ~46% no total de contas únicas fiscalizadas em resposta a denúncias de suspeita de spam, refletindo melhorias nas nossas ferramentas de deteção e intervenção proativa. Esta é uma continuação dos nossos esforços para combater spam através de sinais de contas e remover agentes de spam mais cedo durante a sua atividade na plataforma. Este esforço já estava em curso durante o último período de denúncia, durante o qual o total de medidas tomadas e o total de contas únicas fiscalizadas por spam diminuíram ~65% e ~60%, respetivamente.
Os nossos esforços para detetar e combater proativamente violações das nossas Diretrizes da Comunidade
Utilizamos ferramentas automatizadas para detetar proativamente e, em alguns casos, combater violações das nossas Diretrizes da Comunidade. Estas ferramentas incluem tecnologia de correspondência de hash (incluindo o PhotoDNA e a Correspondência de Imagens de Abuso Sexual Infantil (CSAI) da Google), a API de Segurança de Conteúdos da Google e outras tecnologias personalizadas concebidas para detetar textos e meios de comunicação abusivos, por vezes aproveitando a inteligência artificial e a aprendizagem de máquina.
No segundo semestre de 2024, tomámos as seguintes ações de aplicação da lei depois de detetar proativamente violações das nossas Diretrizes da Comunidade utilizando ferramentas de deteção automatizada:
Total de medidas tomadas
Total de contas individuais com medidas tomadas
3.685.602
1.845.125
Justificação da política
Total de medidas tomadas
Total de contas individuais com medidas tomadas
Tempo Médio de Resposta (minutos) desde a deteção até à ação final
Conteúdo sexual
1.818.287
828.590
<1
Exploração sexual de crianças
491.970
188.877
1
Assédio e bullying
14.942
11.234
8
Ameaças e Violência
43.625
29.599
9
Autoflagelação e Suicídio
761
624
9
Informação falsa
85
81
10
Roubo de identidade
8
6
19
Spam
177.150
110.551
<1
Drogas
869.178
590.658
5
Armas
205.387
133.079
<1
Outros produtos regulamentados
48.280
37.028
9
Discurso de ódio
10.344
8.683
10
Terrorismo e extremismo violento
5.585
2.951
21
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abominável e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Utilizamos ferramentas de deteção de tecnologia ativa para ajudar a identificar conteúdos relacionados com o CSEA. Estas ferramentas incluem ferramentas de correspondência de hash (incluindo o PhotoDNA e a Correspondência CSAI da Google, para identificar imagens e vídeos ilegais conhecidos de CSEA, respetivamente) e a API de Segurança de Conteúdos da Google (para identificar imagens de CSEA novas e "nunca antes hashadas"). Além disso, em alguns casos, utilizamos sinais comportamentais para combater outras atividades suspeitas de CSEA. Denunciamos conteúdos relacionados com CSEA ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, coordena-se com as autoridades competentes a nível nacional ou internacional, conforme necessário.
No segundo semestre de 2024, tomámos as seguintes ações ao identificarmos CSEA no Snapchat (quer proativamente, quer após receção de uma denúncia):
Total de conteúdo estritamente controlado
Total de contas desativadas
Total de envios à NCMEC*
1.228.929
242.306
417.842
*Note que cada envio à NCMEC pode conter várias partes de conteúdo. O total de conteúdos individuais enviados à NCMEC é igual ao nosso total de conteúdo moderado.
Os nossos esforços para fornecer recursos e apoio a Snapchatters quando necessário
O Snapchat capacita amigos a ajudarem uns aos outros em momentos difíceis, fornecendo recursos e apoio a Snapchatters que precisam.
A nossa ferramenta de pesquisa Para ti fornece recursos de especialistas quando os utilizadores pesquisam determinados tópicos relacionados com saúde mental, ansiedade, depressão, stress, pensamentos suicidas, luto e bullying. Adicionalmente, desenvolvemos uma página centrada na extorsão sexual e económica, e noutros riscos e danos sexuais, com o intuito de prestar assistência a quem se encontra em dificuldade. A nossa lista global de recursos de segurança está disponível publicamente para todos os Snapchatters, no nosso Centro de Privacidade, Segurança e Políticas.
Quando as nossas equipas de Segurança têm conhecimento de um(a) Snapchatter em perigo, estão equipadas para fornecer recursos de prevenção e apoio de automutilação e para notificar os serviços de emergência, conforme necessário. Os recursos que partilhamos estão disponíveis na nossa lista global de recursos de segurança, que estão disponíveis publicamente para todos os Snapchatters.
Total de vezes que os recursos de suicídio foram partilhados
64.094
Recursos
Abaixo, fornecemos informações sobre pedidos que recebemos de utilizadores que solicitam uma revisão da nossa decisão de bloquear a sua conta no segundo semestre de 2024:
Justificação da política
Total de recursos
Total de reintegrações
Total de decisões mantidas
Tempo médio de resposta (dias) para tratar os pedidos de recurso
TOTAL
493.782
35.243
458.539
5
Conteúdo sexual
162.363
6.257
156.106
4
Exploração sexual de crianças
102.585
15.318
87.267
6
Assédio e bullying
53.200
442
52.758
7
Ameaças e Violência
4 238
83
4.155
5
Autoflagelação e Suicídio
31
0
30
5
Informação falsa
3
0
3
<1
Roubo de identidade
847
33
814
7
Spam
19.533
5.090
14.443
9
Drogas
133.478
7.598
125.880
4
Armas
4.678
136
4.542
6
Outros produtos regulamentados
9.153
168
8.985
6
Discurso de ódio
3.541
114
3.427
7
Terrorismo e extremismo violento
132
3
129
9
Visão global a nível regional e nacional
Esta secção fornece uma visão geral das ações das nossas equipas de Segurança para fazer cumprir as nossas Diretrizes da Comunidade, tanto proativamente como em resposta a denúncias de violações feitas na aplicação, numa amostra de regiões geográficas. As nossas Diretrizes da Comunidade aplicam-se a todos os conteúdos no Snapchat, bem como a todos os Snapchatters, pelo mundo fora, independentemente da sua localização.
As informações para cada país, incluindo todos os Estados-Membros da UE, estão disponíveis para descarregar através do ficheiro CSV em anexo.
Região
Total de medidas tomadas
Total de contas individuais com medidas tomadas
América do Norte
3.828.389
2.117.048
Europa
2.807.070
1.735.054
Resto do Mundo
3.396.651
1.846.110
Total
10.032.110
5.698.212
Região
Denúncias de Conteúdos e Contas
Total de medidas tomadas
Total de contas individuais com medidas tomadas
América do Norte
5.916.815
2.229.465
1.391.304
Europa
5.781.317
2.085.109
1.378.883
Resto do Mundo
7.681.716
2.031.934
1.319.934
Total
19.379.848
6.346.508
4.090.121
Total de medidas tomadas
Total de contas individuais com medidas tomadas
1.598.924
837.012
721.961
417.218
1.364.717
613.969
3.685.602
1.868.199
Moderação de anúncios
A Snap compromete-se a garantir que todos os anúncios estão em total conformidade com as nossas políticas de publicidade. Acreditamos numa abordagem responsável à publicidade, criando uma experiência segura para todos os Snapchatters. Todos os anúncios estão sujeitos a análise e aprovação da nossa parte. Além disso, reservamo-nos o direito de remover anúncios, incluindo em resposta ao feedback do utilizador, que levamos a sério.
Abaixo, incluímos informações sobre a nossa moderação de anúncios pagos que nos são denunciados após a sua publicação no Snapchat. Note que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo para adultos, conteúdo violento ou perturbador, incitamento ao ódio e violação de propriedade intelectual. Além disso, agora podes encontrar a Galeria de Anúncios do Snapchat no centro de transparência da Snap, acessível diretamente através da barra de navegação.
Total de anúncios denunciados
Total de anúncios removidos
43.098
17.833


