5 de dezembro de 2024
5 de dezembro de 2024
Publicamos este relatório de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap. Estamos empenhados nestes esforços e esforçamo-nos continuamente por tornar estes relatórios mais abrangentes e informativos para as muitas partes interessadas que se preocupam profundamente com a nossa moderação de conteúdos, práticas de aplicação da lei e a segurança e bem-estar da comunidade Snapchat.
Este relatório de transparência abrange o primeiro semestre de 2024 (1 de janeiro a 30 de junho). Tal como nos nossos relatórios anteriores, partilhamos dados sobre o volume global de denúncias de conteúdos, na aplicação e ao nível das contas, que as nossas equipas de Confiança e Segurança receberam e sobre as quais tomaram medidas em diversas categorias específicas de violações das Diretrizes da Comunidade; a forma como respondemos aos pedidos dos agentes de autoridade e governos; e como respondemos a notificações de violação dos direitos de autor e de marca comercial. Também fornecemos informações específicas por país nos ficheiros com links no final desta página.
Como parte do nosso compromisso contínuo de melhorar continuamente os nossos relatórios de transparência, estamos também a introduzir novos dados que destacam os nossos esforços proativos para detetar e combater uma vasta gama de violações das nossas Diretrizes da Comunidade. Incluímos estes dados, tanto a nível global como nacional, neste relatório e continuaremos a fazê-lo no futuro. Também corrigimos um erro de rotulagem nos nossos relatórios anteriores: onde anteriormente nos referíamos a “Total de conteúdo controlado”, agora referimo-nos a “Total de execuções” para refletir o facto de os dados fornecidos nas colunas relevantes incluírem tanto medidas a nível de conteúdo como a nível de conta.
Para mais informações sobre as nossas políticas de combate a potenciais danos ‘online’ e sobre os planos de continuar a desenvolver as nossas práticas de denúncia, por favor, leia o nosso recente blogue de Segurança e Impacto sobre este relatório de transparência. Para recursos adicionais de segurança e privacidade no Snapchat, consulte o nosso separador Sobre o Relatório de Transparência no final da página.
Atenção que a versão mais atualizada deste Relatório de Transparência pode ser encontrada na versão EN-US.
Visão geral das ações das nossas Equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade
As nossas equipas de Confiança e Segurança aplicam as nossas Diretrizes da Comunidade, quer proativamente (através do uso de ferramentas automatizadas) quer reativamente (em resposta a denúncias), conforme detalhado nas seguintes secções deste relatório. Neste ciclo de denúncias (1.º semestre de 2024), as nossas equipas de Confiança e Segurança tomaram as seguintes ações de imposição:
Visão geral das violações de conteúdo e da conta
De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.
Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.
Visão geral das violações de conteúdo e da conta
De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.
Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.
Visão geral das violações de conteúdo e da conta
De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.
Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.
Análise das violações de conteúdo e da conta
As nossas taxas globais de comunicação e aplicação de medidas mantiveram-se bastante similares às dos seis meses anteriores. Neste ciclo, assistimos a um aumento aproximado de 10% do total de denúncias de conteúdos e contas.
O conflito Israel-Hamas começou neste período e, consequentemente, assistimos a um aumento do conteúdo violento. O total de denúncias relacionadas com o incitamento ao ódio aumentou cerca de 61%, ao passo que o total de medidas tomadas sobre conteúdos de incitamento ao ódio aumentou cerca de 97% e as medidas tomadas sobre contas únicas aumentou cerca de 124%. As denúncias e as medidas tomadas sobre terrorismo e extremismo violento também aumentaram, embora representem <0,1% do total das medidas tomadas sobre conteúdos na nossa plataforma. As nossas equipas de Confiança e Segurança mantêm a sua vigilância à medida que surgem conflitos globais para assegurar a segurança do Snapchat. Também alargamos o nosso relatório de transparência de modo a incluir mais informações, ao nível nacional e global, sobre o total de denúncias, medidas tomadas sobre conteúdos e contas únicas por violações da nossa política de terrorismo e extremismo violento.
Visão geral das violações de conteúdo e da conta
De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.
Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.
Combater a exploração e o abuso sexual de crianças
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.
No segundo semestre de 2023, detetámos e acionámos proativamente 59% do total de violações denunciadas por exploração e abuso sexual infantil. Isto reflete uma diminuição total de 39% em relação ao período anterior. Trata-se de uma consequência da melhoria das opções dadas aos Snapchatters para denúncia, aumentando a visibilidade de potenciais CSEA enviados pelo Snapchat.
*Note que cada envio à NCMEC pode conter várias partes de conteúdo. O total de conteúdos individuais enviados à NCMEC é igual ao nosso total de conteúdo moderado. Também excluímos deste número os envios à NCMEC que foram retirados.
Conteúdo de Autoflagelação e Suicídio
A preocupação com a saúde mental e o bem-estar dos utilizadores do Snapchat é uma constante nas nossas decisões para criar um Snapchat diferente. Enquanto plataforma assente numa comunicação entre amigos reais, acreditamos que o Snapchat pode desempenhar um papel exclusivo em capacitar amigos de se ajudarem uns aos outros em momentos mais difíceis.
Quando a nossa equipa de Confiança e Segurança se apercebe de que há um Snapchatter em sofrimento, podem encaminhar recursos de prevenção e assistência à autoflagelação, bem como notificar as equipas de resposta à intervenção, caso seja necessário. Os recursos que partilhamos estão disponíveis na nossa lista global de recursos de segurança e estão disponíveis publicamente para todos os Snapchatters.
Recursos
No nosso relatório anterior, introduzimos métricas sobre os pedidos de recurso, destacando o número de vezes que os utilizadores nos pediram para voltar a rever a nossa decisão de supervisão inicial à sua conta. No presente relatório, alargamos os nossos pedidos de recurso para captar todas as categorias da nossa política de violações ao nível das contas.
* Travar a propagação de conteúdo ou atividade relacionada com a exploração sexual infantil é uma prioridade máxima. A Snap investe meios significativos neste objetivo e tem uma tolerância zero para esse tipo de condutas. É necessária uma formação especial para analisar pedidos de ajuda de abuso sexual infantil, havendo uma equipa limitada de agentes que trata estas análises devido à natureza gráfica do conteúdo. No outono de 2023, a Snap implementou alterações à sua política que tiveram repercussões na consistência de determinadas imposições ao abuso sexual infantil. Desde então, já resolvemos estas incongruências com uma nova formação dos agentes e um controlo de qualidade rigoroso. Esperamos que o próximo relatório de transparência da Snap revele o progresso no sentido de melhorar o tempo de resposta aos pedidos de ajuda de abuso sexual infantil e a precisão das imposições iniciais.
Visão global a nível regional e nacional
Esta secção fornece uma visão geral das ações das nossas equipas de Confiança e Segurança para fazer cumprir as nossas Diretrizes da Comunidade, tanto de forma proativa como em resposta a denúncias de violações na aplicação, numa amostra de regiões geográficas. As nossas Diretrizes da Comunidade aplicam-se a todos os conteúdos no Snapchat, bem como a todos os Snapchatters, pelo mundo fora, independentemente da sua localização.
As informações para cada país, incluindo todos os Estados-Membros da UE, estão disponíveis para descarregar através do ficheiro CSV em anexo.
Combater a exploração e o abuso sexual de crianças
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.
No segundo semestre de 2023, detetámos e acionámos proativamente 59% do total de violações denunciadas por exploração e abuso sexual infantil. Isto reflete uma diminuição total de 39% em relação ao período anterior. Trata-se de uma consequência da melhoria das opções dadas aos Snapchatters para denúncia, aumentando a visibilidade de potenciais CSEA enviados pelo Snapchat.
Combater a exploração e o abuso sexual de crianças
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.
No segundo semestre de 2023, detetámos e acionámos proativamente 59% do total de violações denunciadas por exploração e abuso sexual infantil. Isto reflete uma diminuição total de 39% em relação ao período anterior. Trata-se de uma consequência da melhoria das opções dadas aos Snapchatters para denúncia, aumentando a visibilidade de potenciais CSEA enviados pelo Snapchat.
Moderação de anúncios
A Snap compromete-se a garantir que todos os anúncios estão em total conformidade com as nossas políticas de publicidade. Acreditamos numa abordagem responsável e respeitosa no que concerne a publicidade, criando uma experiência segura e agradável para todos os nossos utilizadores. Abaixo, incluímos uma visão sobre a nossa moderação de anúncios pagos no Snapchat. Note que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo para adultos, conteúdo violento ou perturbador, incitamento ao ódio e violação de propriedade intelectual. Adicionalmente, agora pode encontrar a Galeria de Anúncios do Snapchat na barra de navegação deste relatório de transparência.

























