Relatório de transparência
1 de julho de 2023 - 31 de dezembro de 2023

Lançado:

25 de abril de 2024

Atualizado:

25 de abril de 2024

Para dar uma visão sobre as medidas de segurança da Snap, assim como da natureza e do volume do conteúdo denunciado na nossa plataforma, publicamos o presente relatório de transparência duas vezes por ano. Comprometemo-nos em continuar a tornar estas denúncias mais abrangentes e informativas para a segurança e o bem-estar da nossa comunidade, e das muitas partes interessadas que se importam profundamente com a nossa supervisão de conteúdo e práticas de aplicação da lei. 

O presente Relatório de transparência abrange o segundo semestre de 2023 (1 de julho – 31 de dezembro). Tal como nos nossos relatórios anteriores, partilhamos dados sobre o número global de denúncias de conteúdos, na aplicação e ao nível das contas, que recebemos e sobre os quais tomamos medidas em diversas categorias específicas de violações da política; a forma como respondemos aos pedidos dos agentes de autoridade e governos; e as nossas ações discriminadas por país.

Fazendo parte do nosso compromisso contínuo de melhorar constantemente os nossos relatórios de transparência, introduzimos alguns novos elementos no presente lançamento. 

Em primeiro lugar, alargámos a nossa tabela principal para incluir denúncias, e medidas tomadas, sobre conteúdos e contas relacionados com o terrorismo e o extremismo violento, bem como a exploração e o abuso sexual infantil (CSEA). Em relatórios anteriores, destacámos as eliminações de contas em resposta a essas violações em secções separadas. Continuamos a destacar as nossas iniciativas proativas e reativas contra o abuso e a exploração sexual infantil, bem como os nossos relatórios à NCMEC, numa secção em separado. 

Em segundo lugar, fornecemos informações alargadas sobre os pedidos de recurso, delineando o total de pedidos de recurso e as reintegrações no âmbito das Diretrizes da Comunidade. 

Por último, alargamos a secção da União Europeia, fornecendo informações mais detalhadas sobre as atividades da Snap na UE. Mais especificamente, publicamos o nosso Relatório de Transparência da DSA mais recente, bem como métricas adicionais acerca da nossa análise de conteúdos relacionados com o abuso e a exploração sexual infantil.

Para mais informações sobre as nossas políticas de combate às ofensas on-line e planos para continuar a desenvolver as nossas práticas de denúncias, consulte o nosso blogue de Segurança e Impacto recente acerca deste Relatório de Transparência. Para recursos adicionais de segurança e privacidade no Snapchat, consulte o nosso separador Sobre os Relatórios de Transparência no final da página.

Atenção que a versão mais atualizada deste Relatório de Transparência pode ser encontrada na versão en-US.

Visão geral das violações de conteúdo e da conta

De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.

Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.

Visão geral das violações de conteúdo e da conta

De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.

Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.

Visão geral das violações de conteúdo e da conta

De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.

Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.

Visão geral das violações de conteúdo e da conta

De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.

Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.

Análise das violações de conteúdo e da conta

As nossas taxas globais de comunicação e aplicação de medidas mantiveram-se bastante similares às dos seis meses anteriores. Neste ciclo, assistimos a um aumento aproximado de 10% do total de denúncias de conteúdos e contas.

O conflito Israel-Hamas começou neste período e, consequentemente, assistimos a um aumento do conteúdo violento. O total de denúncias relacionadas com o incitamento ao ódio aumentou cerca de 61%, ao passo que o total de medidas tomadas sobre conteúdos de incitamento ao ódio aumentou cerca de 97% e as medidas tomadas sobre contas únicas aumentou cerca de 124%. As denúncias e as medidas tomadas sobre terrorismo e extremismo violento também aumentaram, embora representem <0,1% do total das medidas tomadas sobre conteúdos na nossa plataforma. As nossas equipas de Confiança e Segurança mantêm a sua vigilância à medida que surgem conflitos globais para assegurar a segurança do Snapchat. Também alargamos o nosso relatório de transparência de modo a incluir mais informações, ao nível nacional e global, sobre o total de denúncias, medidas tomadas sobre conteúdos e contas únicas por violações da nossa política de terrorismo e extremismo violento. 

Visão geral das violações de conteúdo e da conta

De 1 de julho a 31 de dezembro de 2023, a Snap tomou medidas contra 5 376 714 conteúdos a nível mundial que nos foram denunciados e que violavam as nossas Diretrizes da Comunidade.

Durante o período de denúncia, assistimos a uma Taxa de Visualização Violenta (VVR) de 0,01%, o que significa que em cada 10 000 visualizações de Snaps e Histórias no Snapchat, 1 continha conteúdos que violavam as nossas políticas. O tempo médio de resposta para a tomada de medidas sobre conteúdo denunciado foi de aproximadamente 10 minutos.

Combater a exploração e o abuso sexual de crianças

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.

Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.

No segundo semestre de 2023, detetámos e acionámos proativamente 59% do total de violações denunciadas por exploração e abuso sexual infantil. Isto reflete uma diminuição total de 39% em relação ao período anterior. Trata-se de uma consequência da melhoria das opções dadas aos Snapchatters para denúncia, aumentando a visibilidade de potenciais CSEA enviados pelo Snapchat. 

*Note que cada envio à NCMEC pode conter várias partes de conteúdo. O total de conteúdos individuais enviados à NCMEC é igual ao nosso total de conteúdo moderado. Também excluímos deste número os envios à NCMEC que foram retirados.

Conteúdo de Autoflagelação e Suicídio

A preocupação com a saúde mental e o bem-estar dos utilizadores do Snapchat é uma constante nas nossas decisões para criar um Snapchat diferente. Enquanto plataforma assente numa comunicação entre amigos reais, acreditamos que o Snapchat pode desempenhar um papel exclusivo em capacitar amigos de se ajudarem uns aos outros em momentos mais difíceis.

Quando a nossa equipa de Confiança e Segurança se apercebe de que há um Snapchatter em sofrimento, podem encaminhar recursos de prevenção e assistência à autoflagelação, bem como notificar as equipas de resposta à intervenção, caso seja necessário. Os recursos que partilhamos estão disponíveis na nossa lista global de recursos de segurança e estão disponíveis publicamente para todos os Snapchatters.

Recursos

No nosso relatório anterior, introduzimos métricas sobre os pedidos de recurso, destacando o número de vezes que os utilizadores nos pediram para voltar a rever a nossa decisão de supervisão inicial à sua conta. No presente relatório, alargamos os nossos pedidos de recurso para captar todas as categorias da nossa política de violações ao nível das contas.

* Travar a propagação de conteúdo ou atividade relacionada com a exploração sexual infantil é uma prioridade máxima. A Snap investe meios significativos neste objetivo e tem uma tolerância zero para esse tipo de condutas.  É necessária uma formação especial para analisar pedidos de ajuda de abuso sexual infantil, havendo uma equipa limitada de agentes que trata estas análises devido à natureza gráfica do conteúdo.  No outono de 2023, a Snap implementou alterações à sua política que tiveram repercussões na consistência de determinadas imposições ao abuso sexual infantil. Desde então, já resolvemos estas incongruências com uma nova formação dos agentes e um controlo de qualidade rigoroso.  Esperamos que o próximo relatório de transparência da Snap revele o progresso no sentido de melhorar o tempo de resposta aos pedidos de ajuda de abuso sexual infantil e a precisão das imposições iniciais. 

Visão global a nível regional e nacional

Esta secção fornece uma visão geral da aplicação das nossas Diretrizes da Comunidade numa amostragem de regiões geográficas. As nossas Diretrizes aplicam-se a todos os conteúdos no Snapchat, bem como a todos os Snapchatters, pelo mundo fora, independentemente da sua localização.

As informações para cada país, incluindo todos os Estados-Membros da UE, estão disponíveis para descarregar através do ficheiro CSV em anexo.

Combater a exploração e o abuso sexual de crianças

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.

Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.

No segundo semestre de 2023, detetámos e acionámos proativamente 59% do total de violações denunciadas por exploração e abuso sexual infantil. Isto reflete uma diminuição total de 39% em relação ao período anterior. Trata-se de uma consequência da melhoria das opções dadas aos Snapchatters para denúncia, aumentando a visibilidade de potenciais CSEA enviados pelo Snapchat. 

Combater a exploração e o abuso sexual de crianças

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.

Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.

No segundo semestre de 2023, detetámos e acionámos proativamente 59% do total de violações denunciadas por exploração e abuso sexual infantil. Isto reflete uma diminuição total de 39% em relação ao período anterior. Trata-se de uma consequência da melhoria das opções dadas aos Snapchatters para denúncia, aumentando a visibilidade de potenciais CSEA enviados pelo Snapchat. 

Combater a exploração e o abuso sexual de crianças

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas nossas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.

Usamos ferramentas de deteção de tecnologia ativas, tais como o agregado de correspondência de hash robusta do PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais conhecidos de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.

No segundo semestre de 2023, detetámos e acionámos proativamente 59% do total de violações denunciadas por exploração e abuso sexual infantil. Isto reflete uma diminuição total de 39% em relação ao período anterior. Trata-se de uma consequência da melhoria das opções dadas aos Snapchatters para denúncia, aumentando a visibilidade de potenciais CSEA enviados pelo Snapchat. 

Moderação de anúncios

A Snap compromete-se a garantir que todos os anúncios estão em total conformidade com as nossas políticas de publicidade. Acreditamos numa abordagem responsável e respeitosa no que concerne a publicidade, criando uma experiência segura e agradável para todos os nossos utilizadores. Abaixo, incluímos uma visão sobre a nossa moderação de anúncios pagos no Snapchat. Note que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade da Snap, incluindo conteúdo enganoso, conteúdo para adultos, conteúdo violento ou perturbador, incitamento ao ódio e violação de propriedade intelectual. Adicionalmente, agora pode encontrar a Galeria de Anúncios do Snapchat na barra de navegação deste relatório de transparência.

Pedidos de Remoção de Propriedade intelectual e Governamental

Sobre relatório de transparência

Glossário do Relatório de Transparência