União Europeia
Última atualização: 7 de fevereiro de 2024

Estes números foram calculados para satisfazer as regras atuais da DSA (Lei dos Serviços Digitais) e só devem ser considerados para fins da DSA. Poderemos alterar a forma de cálculo deste número ao longo do tempo, incluindo para responder a uma mudança na orientação e tecnologia do regulador. Isto também pode diferir dos cálculos usados para outras estimativas do utilizador ativo que publicamos para outros fins.

Representante legal 

A Snap Group Limited nomeou a Snap B.V. como o seu Representante Legal. Pode contactar o representante em dsa-enquiries [at] snapchat.com para a DSA, em vsp-enquiries [at] snapchat.com para AVMSD e DMA, através do nosso Site de Suporte [aqui], ou em:

Snap B.V.
Keizersgracht 165, 1016 DP
Amesterdão, Países Baixos

Se for uma agência de aplicação da lei, devem ser seguidos os passos descritos aqui.

Autoridades reguladoras

Para a DSA, somos regulados pela Comissão Europeia e pela Autoridade Holandesa de Consumidores e Mercados (ACM). 

Para a AVMSD e a DMA, somos regulados pela Autoridade Neerlandesa para os Meios de Comunicação Social (CvdM).

Relatório de transparência da DSA

A Snap é obrigada pelos Artigos 15, 24 e 42 da DSA a publicar relatórios que contêm informações prescritas sobre a moderação de conteúdo da Snap para os serviços do Snapchat que são considerados plataformas “on-line”, ou seja, Destaque, Para ti, perfis públicos, Mapas, Lentes e Publicidade. Este relatório deve ser publicado a cada 6 meses, a partir de 25 de outubro de 2023.

A Snap publica relatórios de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap e a natureza e o volume do conteúdo denunciado na nossa plataforma. O nosso relatório mais recente para o primeiro semestre de 2023 (1 de janeiro a 30 de junho) pode ser encontrado aqui. Esse relatório contém as seguintes informações:

  • Pedidos governamentais, que incluem pedidos de informação e remoção de conteúdo; 

  • Violações de conteúdo, que inclui ações tomadas em relação a conteúdo ilegal e tempo de resposta mediano; 

  • Recursos, recebidos e tratados através do nosso processo de tratamento de reclamações internas.

Essas secções são relevantes para as informações exigidas pelo Artigo 15.1(a), (b) e (d) da DSA. Note que ainda não contêm um conjunto de dados completo porque o relatório mais recente abrange o primeiro semestre de 2023, que antecede a entrada em vigor da DSA. 

Fornecemos abaixo algumas informações adicionais sobre aspetos não cobertos pelo nosso relatório de transparência para o primeiro semestre de 2023:

Moderação de conteúdo (Artigo 15.1(c) e (e), Artigo 42.2)

Todo o conteúdo no Snapchat deve aderir às nossas Diretrizes da Comunidade e Termos de Serviço, bem como aos termos, diretrizes e explicadores de apoio. Os mecanismos de deteção proativos e relatórios de conteúdo ou contas ilegais ou infratoras suscitam uma revisão, na qual os nossos sistemas de ferramentas processam o pedido, recolhem metadados relevantes e encaminham o conteúdo relevante para a nossa equipa de moderação através de uma interface de utilizador estruturada concebida para facilitar operações de revisão eficazes e eficientes. Quando as nossas equipas de moderação determinam, seja através de revisão humana ou meios automatizados, que um utilizador violou os nossos Termos, podemos remover o conteúdo ou conta ofensiva, rescindir ou limitar a visibilidade da conta relevante e/ou notificar as autoridades conforme explicado no nosso Explicador de Moderação, Fiscalização e Recursos do Snapchat.  Os utilizadores com contas bloqueadas pela nossa equipa de segurança por violações das Diretrizes da Comunidade podem solicitar um pedido de recurso de conta bloqueada e podem recorrer a determinadas fiscalizações de conteúdo.

Ferramentas automatizadas de moderação de conteúdo

Nas nossas plataformas de conteúdo público, o conteúdo passa geralmente pela moderação automática e revisão humana antes de ser elegível para distribuição para uma audiência alargada. No que diz respeito a ferramentas automatizadas, estas incluem:

  • Deteção proativa de conteúdo ilegal e violador usando aprendizagem automática;

  • Ferramentas de correspondência de hash (como o PhotoDNA e a CSAI Match da Google);

  • Deteção de linguagem abusiva para rejeitar conteúdo com base numa lista identificada e regularmente atualizada de palavras-chave abusivas, incluindo emojis.

Para o período do nosso relatório de transparência mais recente (primeiro semestre de 2023), não foi necessário agrupar indicadores formais / taxas de erro para estes sistemas automatizados. No entanto, monitorizamos regularmente estes sistemas para detetar problemas e as nossas decisões de moderação humana são regularmente avaliadas quanto à sua precisão.


Moderação humana

A nossa equipa de moderação de conteúdo opera em todo o mundo, permitindo-nos ajudar a manter os Snapchatters seguros 24 horas por dia, 7 dias por semana. Abaixo, encontrará a repartição dos nossos recursos de moderação humana pelas especialidades linguísticas dos moderadores (note que alguns moderadores são especializados em vários idiomas) a partir de agosto de 2023:

Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei dos Serviços Digitais da UE (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD) e pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA).  

Média mensal de destinatários ativos 

À data de 1 de agosto de 2023, temos 102 milhões de destinatários ativos médios mensais (“AMAR”) da nossa aplicação do Snapchat na UE. Isto significa que, em média nos últimos 6 meses, 102 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.

Este valor divide-se por Estado-Membro do seguinte modo:

Estes números foram calculados para satisfazer as regras atuais da DSA (Lei dos Serviços Digitais) e só devem ser considerados para fins da DSA. Ao longo do tempo, temos vindo a mudar a forma como fazemos este cálculo, incluindo como resposta a alterações na política interna, na orientação e tecnologia das entidades reguladoras; e os números não visam a comparação entre períodos. Isto também pode diferir dos cálculos usados para outras estimativas do utilizador ativo que publicamos para outros fins.


Pedidos das Autoridades dos Estados-Membros
(Artigo 15.1(a) da Lei dos Serviços Digitais - DSA)

Pedidos de retirada 

Durante este período, recebemos 0 pedidos de retirada dos Estados-Membros da UE ao abrigo do Artigo 9 da Lei dos Serviços Digitais - DSA. 

Pedidos de informação 

Durante este período, recebemos os seguintes pedidos de informação dos Estados-Membros da UE ao abrigo do Artigo 10 da Lei dos Serviços Digitais - DSA:

O tempo médio de resposta para confirmar às autoridades a receção dos Pedidos de Informação é de 0 minutos — dispomos de uma resposta automatizada a confirmar a receção. O tempo médio de processamento dos Pedidos de Informação é de cerca de 10 dias. Esta métrica reflete o período entre o momento em que a Snap recebe um Pedido de Informação e o momento em que a Snap acredita que o pedido foi totalmente resolvido. Em certos casos, a duração deste processo depende em parte da velocidade com que as autoridades policiais respondem a algum pedido de esclarecimento por parte da Snap, necessário para o processamento do pedido.

Moderação de conteúdo 


Todo o conteúdo no Snapchat deve cumprir as nossas Diretrizes da Comunidade e Termos de Serviço, bem como os termos, as diretrizes e as explicações de suporte. Os mecanismos de deteção proativos e relatórios de conteúdo ou contas ilegais ou infratoras suscitam uma revisão, na qual os nossos sistemas de ferramentas processam o pedido, recolhem metadados relevantes e encaminham o conteúdo relevante para a nossa equipa de moderação através de uma interface de utilizador estruturada concebida para facilitar operações de revisão eficazes e eficientes. Quando as nossas equipas de moderação determinam, seja através de revisão humana ou meios automatizados, que um utilizador violou os nossos Termos, podemos remover o conteúdo ou conta ofensiva, rescindir ou limitar a visibilidade da conta relevante e/ou notificar as autoridades conforme explicado no nosso Explicador de Moderação, Fiscalização e Recursos do Snapchat.  Os utilizadores com contas bloqueadas pela nossa equipa de segurança por violações das Diretrizes da Comunidade podem solicitar um pedido de recurso de conta bloqueada e podem recorrer a determinadas fiscalizações de conteúdo.

Avisos de conteúdo e conta (Artigo 15.1(b) da Lei dos Serviços Digitais - DSA)

A Snap criou mecanismos para permitir aos utilizadores, e não utilizadores, notificarem a Snap sobre conteúdo e contas que violam as nossas Diretrizes da Comunidade e os Termos de Serviço na plataforma, incluindo aqueles que consideram ilegais ao abrigo do Artigo 16 da Lei dos Serviços Digitais - DSA.  Estes mecanismos de denúncia estão disponíveis na própria aplicação (ou seja, diretamente no conteúdo) e no nosso site.

Durante o período relevante, recebemos os seguintes avisos de conteúdos e contas na UE:

No 2º Semestre de 2023, gerimos 664 896 notificações só de meios automatizados. Todas analisadas à luz das nossas Diretrizes da Comunidade uma vez que as nossas Diretrizes da Comunidade restringem conteúdo ilegal. 

Para além do conteúdo e das contas geradas pelo utilizador, analisamos os anúncios para uma possível violação das políticas da nossa plataforma. Abaixo consta o número total de anúncios que foram denunciados e removidos na UE. 

Notificações de Sinalizadores de Confiança (Artigo 15.1(b))

Para o período do nosso relatório de transparência mais recente (2º semestre de 2023), não foram formalmente colocados Sinalizadores de Confiança ao abrigo da Lei dos Serviços Digitais - DSA. Como resultado, o número de notificações enviadas por esses Sinalizadores de Confiança foi zero (0) neste período.

Análise de conteúdo proativa (Artigo 15.1(c))

Durante o período relevante, a Snap assinalou o conteúdo e as contas abaixo da UE após uma análise de conteúdo por sua própria iniciativa:

Todos os esforços de moderação da própria iniciativa da Snap tiraram partido de recursos humanos ou da automação. Nas nossas plataformas de conteúdo público, o conteúdo passa geralmente pela moderação automática e revisão humana antes de ser elegível para distribuição para uma audiência alargada. No que diz respeito a ferramentas automatizadas, estas incluem:

  • Deteção proativa de conteúdo ilegal e violador usando aprendizagem automática;

  • Ferramentas de correspondência de assinaturas digitais únicas "hash" (como a PhotoDNA e a CSAI Match da Google);

  • Deteção de linguagem abusiva para rejeitar conteúdo com base numa lista identificada e regularmente atualizada de palavras-chave abusivas, incluindo emojis


Pedidos de recurso (Artigo 15.1(d))

Durante o período relevante, a Snap fez o processamento dos seguintes pedidos de recurso de conteúdos e contas na UE através dos seus sistemas internos de tratamento de reclamações:


Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei dos Serviços Digitais da UE (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD) e pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA).  

Média mensal de destinatários ativos 

À data de 1 de agosto de 2023, temos 102 milhões de destinatários ativos médios mensais (“AMAR”) da nossa aplicação do Snapchat na UE. Isto significa que, em média nos últimos 6 meses, 102 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.

Este valor divide-se por Estado-Membro do seguinte modo:

Estes números foram calculados para satisfazer as regras atuais da DSA (Lei dos Serviços Digitais) e só devem ser considerados para fins da DSA. Poderemos alterar a forma de cálculo deste número ao longo do tempo, incluindo para responder a uma mudança na orientação e tecnologia do regulador. Isto também pode diferir dos cálculos usados para outras estimativas do utilizador ativo que publicamos para outros fins.

Representante legal 

A Snap Group Limited nomeou a Snap B.V. como o seu Representante Legal. Pode contactar o representante em dsa-enquiries [at] snapchat.com para a DSA, em vsp-enquiries [at] snapchat.com para AVMSD e DMA, através do nosso Site de Suporte [aqui], ou em:

Snap B.V.
Keizersgracht 165, 1016 DP
Amesterdão, Países Baixos

Se for uma agência de aplicação da lei, devem ser seguidos os passos descritos aqui.

Autoridades reguladoras

Para a DSA, somos regulados pela Comissão Europeia e pela Autoridade Holandesa de Consumidores e Mercados (ACM). 

Para a AVMSD e a DMA, somos regulados pela Autoridade Neerlandesa para os Meios de Comunicação Social (CvdM).

Relatório de transparência da DSA

A Snap é obrigada pelos Artigos 15, 24 e 42 da DSA a publicar relatórios que contêm informações prescritas sobre a moderação de conteúdo da Snap para os serviços do Snapchat que são considerados plataformas “on-line”, ou seja, Destaque, Para ti, perfis públicos, Mapas, Lentes e Publicidade. Este relatório deve ser publicado a cada 6 meses, a partir de 25 de outubro de 2023.

A Snap publica relatórios de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap e a natureza e o volume do conteúdo denunciado na nossa plataforma. O nosso relatório mais recente para o primeiro semestre de 2023 (1 de janeiro a 30 de junho) pode ser encontrado aqui. Esse relatório contém as seguintes informações:

  • Pedidos governamentais, que incluem pedidos de informação e remoção de conteúdo; 

  • Violações de conteúdo, que inclui ações tomadas em relação a conteúdo ilegal e tempo de resposta mediano; 

  • Recursos, recebidos e tratados através do nosso processo de tratamento de reclamações internas.

Essas secções são relevantes para as informações exigidas pelo Artigo 15.1(a), (b) e (d) da DSA. Note que ainda não contêm um conjunto de dados completo porque o relatório mais recente abrange o primeiro semestre de 2023, que antecede a entrada em vigor da DSA. 

Fornecemos abaixo algumas informações adicionais sobre aspetos não cobertos pelo nosso relatório de transparência para o primeiro semestre de 2023:

Moderação de conteúdo (Artigo 15.1(c) e (e), Artigo 42.2)

Todo o conteúdo no Snapchat deve aderir às nossas Diretrizes da Comunidade e Termos de Serviço, bem como aos termos, diretrizes e explicadores de apoio. Os mecanismos de deteção proativos e relatórios de conteúdo ou contas ilegais ou infratoras suscitam uma revisão, na qual os nossos sistemas de ferramentas processam o pedido, recolhem metadados relevantes e encaminham o conteúdo relevante para a nossa equipa de moderação através de uma interface de utilizador estruturada concebida para facilitar operações de revisão eficazes e eficientes. Quando as nossas equipas de moderação determinam, seja através de revisão humana ou meios automatizados, que um utilizador violou os nossos Termos, podemos remover o conteúdo ou conta ofensiva, rescindir ou limitar a visibilidade da conta relevante e/ou notificar as autoridades conforme explicado no nosso Explicador de Moderação, Fiscalização e Recursos do Snapchat.  Os utilizadores com contas bloqueadas pela nossa equipa de segurança por violações das Diretrizes da Comunidade podem solicitar um pedido de recurso de conta bloqueada e podem recorrer a determinadas fiscalizações de conteúdo.

Ferramentas automatizadas de moderação de conteúdo

Nas nossas plataformas de conteúdo público, o conteúdo passa geralmente pela moderação automática e revisão humana antes de ser elegível para distribuição para uma audiência alargada. No que diz respeito a ferramentas automatizadas, estas incluem:

  • Deteção proativa de conteúdo ilegal e violador usando aprendizagem automática;

  • Ferramentas de correspondência de hash (como o PhotoDNA e a CSAI Match da Google);

  • Deteção de linguagem abusiva para rejeitar conteúdo com base numa lista identificada e regularmente atualizada de palavras-chave abusivas, incluindo emojis.

Para o período do nosso relatório de transparência mais recente (primeiro semestre de 2023), não foi necessário agrupar indicadores formais / taxas de erro para estes sistemas automatizados. No entanto, monitorizamos regularmente estes sistemas para detetar problemas e as nossas decisões de moderação humana são regularmente avaliadas quanto à sua precisão.


Moderação humana

A nossa equipa de moderação de conteúdo opera em todo o mundo, permitindo-nos ajudar a manter os Snapchatters seguros 24 horas por dia, 7 dias por semana. Abaixo, encontrará a repartição dos nossos recursos de moderação humana pelas especialidades linguísticas dos moderadores (note que alguns moderadores são especializados em vários idiomas) a partir de agosto de 2023:

Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei dos Serviços Digitais da UE (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD) e pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA).  

Média mensal de destinatários ativos 

À data de 1 de agosto de 2023, temos 102 milhões de destinatários ativos médios mensais (“AMAR”) da nossa aplicação do Snapchat na UE. Isto significa que, em média nos últimos 6 meses, 102 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.

Este valor divide-se por Estado-Membro do seguinte modo:

Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei dos Serviços Digitais da UE (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD) e pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA).  

Média mensal de destinatários ativos 

À data de 1 de agosto de 2023, temos 102 milhões de destinatários ativos médios mensais (“AMAR”) da nossa aplicação do Snapchat na UE. Isto significa que, em média nos últimos 6 meses, 102 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.

Este valor divide-se por Estado-Membro do seguinte modo: