5 de dezembro de 2024
5 de dezembro de 2024
Publicamos este relatório de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap. Estamos empenhados nestes esforços e esforçamo-nos continuamente por tornar estes relatórios mais abrangentes e informativos para as muitas partes interessadas que se preocupam profundamente com a nossa moderação de conteúdos, práticas de aplicação da lei e a segurança e bem-estar da comunidade Snapchat.
Este relatório de transparência abrange o primeiro semestre de 2024 (1 de janeiro a 30 de junho). Tal como nos nossos relatórios anteriores, partilhamos dados sobre o volume global de denúncias de conteúdos, na aplicação e ao nível das contas, que as nossas equipas de Confiança e Segurança receberam e sobre as quais tomaram medidas em diversas categorias específicas de violações das Diretrizes da Comunidade; a forma como respondemos aos pedidos dos agentes de autoridade e governos; e como respondemos a notificações de violação dos direitos de autor e de marca comercial. Também fornecemos informações específicas por país nos ficheiros com links no final desta página.
Como parte do nosso compromisso contínuo de melhorar continuamente os nossos relatórios de transparência, estamos também a introduzir novos dados que destacam os nossos esforços proativos para detetar e combater uma vasta gama de violações das nossas Diretrizes da Comunidade. Incluímos estes dados, tanto a nível global como nacional, neste relatório e continuaremos a fazê-lo no futuro. Também corrigimos um erro de rotulagem nos nossos relatórios anteriores: onde anteriormente nos referíamos a “Total de conteúdo controlado”, agora referimo-nos a “Total de execuções” para refletir o facto de os dados fornecidos nas colunas relevantes incluírem tanto medidas a nível de conteúdo como a nível de conta.
Para mais informações sobre as nossas políticas de combate a potenciais danos ‘online’ e sobre os planos de continuar a desenvolver as nossas práticas de denúncia, por favor, leia o nosso recente blogue de Segurança e Impacto sobre este relatório de transparência. Para recursos adicionais de segurança e privacidade no Snapchat, consulte o nosso separador Sobre o Relatório de Transparência no final da página.
Atenção que a versão mais atualizada deste Relatório de Transparência pode ser encontrada na versão EN-US.
Visão geral das ações das nossas Equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade
As nossas equipas de Confiança e Segurança aplicam as nossas Diretrizes da Comunidade, quer proativamente (através do uso de ferramentas automatizadas) quer reativamente (em resposta a denúncias), conforme detalhado nas seguintes secções deste relatório. Neste ciclo de denúncias (1.º semestre de 2024), as nossas equipas de Confiança e Segurança tomaram as seguintes ações de imposição:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Segue-se abaixo uma discriminação por tipo de violações das Diretrizes da Comunidade em causa, incluindo o tempo médio de resposta entre o momento em que detetámos a violação (quer proativamente, quer após receção de uma denúncia) e o momento em que tomámos uma ação final sobre o conteúdo ou conta relevante:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Durante o período de reporte, assistimos a uma Taxa de Visualização Violatória (VVR) de 0,01%, o que significa que, em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas.
Violações das Diretrizes da Comunidade denunciadas às nossas Equipas de Confiança e Segurança
Entre 1 de janeiro e 30 de junho de 2024, em resposta a denúncias feitas na aplicação sobre violações das nossas Diretrizes da Comunidade, as equipas de Confiança e Segurança da Snap tomaram um total de 6 223 618 medidas de aplicação da lei a nível mundial, incluindo medidas de aplicação da lei contra 3 842 507 contas únicas. O tempo médio de resposta para que as nossas equipas de Confiança e Segurança tomassem medidas de aplicação da lei em resposta a tais denúncias foi de cerca de 24 minutos. Apresenta-se abaixo uma discriminação por categoria de denúncia.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Os nossos volumes gerais de denúncias permaneceram bastante estáveis no 1.º semestre de 2024, em comparação com os seis meses anteriores. Neste ciclo, assistimos a um aumento de aproximadamente 16% no total de medidas aplicadas e no total de contas únicas sujeitas a medidas.
Ao longo dos últimos 12 meses, a Snap introduziu novos mecanismos de denúncia para utilizadores, os quais explicam as alterações aos nossos volumes de denúncias e de imposição de medidas, além de acréscimos nos tempos de resposta neste período de reporte (1.º semestre de 2024). Especificamente:
Denúncia de Chat em Grupo: introduzimos a Denúncia de Chat em Grupo a 13 de outubro de 2023, que permite aos utilizadores denunciar abusos que ocorram num chat com várias pessoas. Esta alteração afetou a composição das nossas métricas em todas as categorias de denúncias (uma vez que alguns potenciais danos têm maior probabilidade de ocorrer num contexto de chat) e aumentou a operacionalidade das denúncias.
Melhorias de denúncias de contas: melhorámos igualmente a nossa funcionalidade de denúncia de contas para oferecer aos utilizadores denunciantes uma opção de envio de provas de chat ao denunciarem um interveniente com más intenções por operar uma conta suspeita. Esta alteração, que nos fornece mais provas e contexto para avaliar denúncias de contas, foi lançada a 29 de fevereiro de 2024.
As Denúncias de Chat e, em particular, as Denúncias de Chat em Grupo, estão entre as que requerem uma análise mais complexa e morosa, o que aumentou os tempos de resposta transversalmente.
As denúncias de suspeita de exploração e abuso sexual infantil (CSEA), assédio e ‘bullying’ e discursos de ódio foram particularmente afetadas pelas duas alterações descritas acima e por alterações no ecossistema mais amplo. Especificamente:
CSEA: observámos um aumento de denúncias e de aplicação de medidas relacionadas com CSEA no 1.º semestre de 2024. Especificamente, assistimos a um aumento de 64% no total de denúncias na aplicação por parte de utilizadores, a um aumento de 82% no total de medidas aplicadas e a um aumento de 108% no total de contas únicas com medidas aplicadas. Estes aumentos devem-se, em grande medida, à introdução das funcionalidades de Chat em Grupo e de Denúncia de Contas. Dada a natureza sensível desta fila de moderação, é designada uma equipa selecionada de agentes altamente treinados para analisar denúncias de potenciais violações relacionadas com CSEA. O afluxo de denúncias adicionais, combinado com a adaptação das nossas equipas a novas formações, resultou num aumento dos tempos de resposta. Entretanto, aumentámos significativamente a dimensão das nossas equipas de fornecedores globais para reduzir os tempos de resposta e aplicar medidas, de forma rigorosa, com base em denúncias de potenciais CSEA. Esperamos que o nosso Relatório de Transparência do 2.º semestre de 2024 reflita os frutos deste esforço, com um tempo de resposta substancialmente melhorado.
Assédio e ‘bullying': com base em denúncias, observámos que o assédio e o ‘bullying’ ocorrem de forma desproporcionada em chats, especialmente nos chats em grupo. As melhorias que introduzimos na Denúncia de Chat em Grupo e na Denúncia de Contas ajudam-nos a tomar medidas mais abrangentes ao avaliar denúncias nesta categoria. Além disso, a partir deste período, exigimos que os utilizadores insiram um comentário ao enviar uma denúncia de assédio e ‘bullying’. Analisamos este comentário para contextualizar cada denúncia. Em conjunto, estas alterações levaram a aumentos substanciais no total de aplicação de medidas (+91%), no total de contas únicas sujeitas à aplicação de medidas (+82%) e no tempo de resposta (+245 minutos) para denúncias correspondentes.
Discurso de ódio: no 1.º semestre de 2024, observámos aumentos de conteúdos denunciados, de aplicação de medidas e do tempo de resposta no que toca ao discurso de ódio. Especificamente, assistimos a um aumento de 61% nas denúncias na aplicação, a um aumento de 127% no total de aplicação de medidas e a um aumento de 125% no total de contas únicas sujeitas à aplicação de medidas. Tal deveu-se, em parte, a melhorias nos nossos mecanismos de denúncia de chat (conforme mencionado anteriormente), tendo sido exacerbado pelo ambiente geopolítico, em particular, pela continuação do conflito Israel-Hamas.
Neste período de reporte, assistimos a uma diminuição de cerca de 65% no total de aplicação de medidas e a uma diminuição de cerca de 60% no total de contas únicas sujeitas à aplicação de medidas, em resposta a denúncias de suspeita de ‘spam’ e abuso, refletindo melhorias nas nossas ferramentas de deteção proativa e de aplicação de medidas. Assistimos a decréscimos semelhantes no total de aplicação de medidas em resposta a denúncias de conteúdos relacionados com automutilação e suicídio (diminuições de cerca de 80%), refletindo a nossa abordagem atualizada centrada na vítima, de acordo com a qual as nossas equipas de Confiança e Segurança enviarão, nos casos adequados, recursos de autoajuda relevantes aos utilizadores, em vez de desencadearem a aplicação de medidas contra esses utilizadores. Esta abordagem foi influenciada por membros do nosso Conselho Consultivo de Segurança, incluindo um professor de pediatria e um médico especializado em desordens relacionadas com meios de comunicação interativos e a Internet.
Os nossos esforços para detetar e combater proativamente violações das nossas Diretrizes da Comunidade
Implementamos ferramentas automatizadas para detetar proativamente e, em alguns casos, combater violações das nossas Diretrizes da Comunidade. Estas ferramentas incluem ferramentas de correspondência de hash (incluindo PhotoDNA e Correspondência de Imagens de Abuso Sexual Infantil da Google (CSAI)), ferramentas de deteção de linguagem abusiva (que detetam e aplicam medidas com base numa lista identificada e regularmente atualizada de palavras-chave e emojis abusivos) e tecnologia de inteligência artificial multimodal/aprendizagem automática.
No primeiro semestre de 2024, tomámos as seguintes ações de imposição após detetarmos proativamente, através do uso de ferramentas automatizadas, violações das nossas Diretrizes da Comunidade:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abominável e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Utilizamos ferramentas com tecnologia de deteção ativa, como a correspondência de hash robusta do PhotoDNA e a correspondência de Imagens de Abuso Sexual Infantil (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de CSEA. Além disso, em alguns casos, usamos sinais comportamentais para combater outras atividades de CSEA potencialmente ilegais. Denunciamos conteúdos relacionados com CSEA ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.
No primeiro semestre de 2024, tomámos as seguintes ações ao detetarmos CSEA no Snapchat (quer proativamente, quer após receção de uma denúncia):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Os nossos esforços para fornecer recursos e apoio a Snapchatters quando necessário
A preocupação com a saúde mental e o bem-estar dos utilizadores do Snapchat é uma constante nas nossas decisões para criar um Snapchat diferente. Enquanto plataforma assente numa comunicação entre amigos reais, acreditamos que o Snapchat pode desempenhar um papel único em capacitar amigos para se ajudarem mutuamente em momentos mais difíceis. Foi por este motivo que desenvolvemos recursos e apoio para Snapchatters quando necessário.
A nossa ferramenta de pesquisa Here For You mostra recursos de parceiros locais especializados quando os utilizadores pesquisam determinados tópicos relacionados com saúde mental, ansiedade, depressão, stress, pensamentos suicidas, luto e ‘bullying’. Adicionalmente, desenvolvemos uma página centrada na extorsão sexual e económica, e noutros riscos e danos sexuais, com o intuito de prestar assistência a quem se encontra em dificuldade. A nossa lista global de recursos de segurança está disponível publicamente para todos os Snapchatters, no nosso Centro de Privacidade, Segurança e Políticas.
Quando as nossas equipas de Confiança e Segurança se apercebem de que há um Snapchatter em sofrimento, podem encaminhar recursos de prevenção e assistência à autoflagelação, bem como notificar as equipas de resposta à intervenção, caso seja necessário. Os recursos que partilhamos estão disponíveis na nossa lista global de recursos de segurança e estão disponíveis publicamente para todos os Snapchatters.
Total Times Suicide Resources Shared
64,094
Recursos
Abaixo, fornecemos informações sobre os recursos que recebemos de utilizadores que solicitam uma revisão da nossa decisão de bloquear a sua conta:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Visão global a nível regional e nacional
Esta secção fornece uma visão geral das ações das nossas equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade, tanto de forma proativa como em resposta a denúncias de violações na aplicação, numa amostra de regiões geográficas. As nossas Diretrizes da Comunidade aplicam-se a todos os conteúdos no Snapchat, bem como a todos os Snapchatters, pelo mundo fora, independentemente da sua localização.
As informações para cada país, incluindo todos os Estados-Membros da UE, estão disponíveis para descarregar através do ficheiro CSV em anexo.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Moderação de anúncios
A Snap compromete-se a garantir que todos os anúncios estão em total conformidade com as nossas políticas de publicidade. Acreditamos numa abordagem responsável e respeitosa no que concerne a publicidade, criando uma experiência segura e agradável para todos os nossos utilizadores. Todos os anúncios estão sujeitos a análise e aprovação da nossa parte. Além disso, reservamo-nos o direito de remover anúncios, incluindo em resposta ao feedback do utilizador, que levamos a sério.
Abaixo, incluímos informações sobre a nossa moderação de anúncios pagos que nos são denunciados após a sua publicação no Snapchat. Note que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo para adultos, conteúdo violento ou perturbador, incitamento ao ódio e violação de propriedade intelectual. Adicionalmente, agora pode encontrar a Galeria de Anúncios do Snapchat na barra de navegação deste relatório de transparência.
Total Ads Reported
Total Ads Removed
43,098
17,833


