União Europeia
1 de julho de 2023 - 31 de dezembro de 2023

Lançado:

25 de abril de 2024

Atualizado:

25 de abril de 2024

Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei dos Serviços Digitais (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD) e pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA). Atenção que a versão mais atualizada destes Relatórios de Transparência podem ser consultados na versão en-US.

Representante legal 

A Snap Group Limited nomeou a Snap B.V. como sua Representante Legal para efeitos da DSA. Pode contactar o representante em dsa-enquiries [at] snapchat.com para a DSA, em vsp-enquiries [at] snapchat.com para AVMSD e DMA, através do nosso Site de Suporte [aqui], ou em:

Snap B.V.
Keizersgracht 165, 1016 DP
Amesterdão, Países Baixos

Se for uma agência de aplicação da lei, siga os passos estabelecidos. aqui. Favor contactar-nos em holandês ou inglês se necessário.

Autoridades reguladoras

Para a DSA, somos regulados pela Comissão Europeia e pela Autoridade dos Consumidores e dos Mercados dos Países Baixos (ACM). Para a AVMSD e a DMA, somos regulados pela Autoridade dos Países Baixos para os Meios de Comunicação (CvdM)

Relatório de transparência da DSA

A Snap é obrigada pelos Artigos 15, 24 e 42 da DSA a publicar relatórios que contêm informações prescritas sobre a moderação de conteúdo da Snap para os serviços do Snapchat que são considerados plataformas “on-line”, ou seja, Destaque, Para ti, perfis públicos, Mapas, Lentes e Publicidade. Este relatório deve ser publicado a cada 6 meses, a partir de 25 de outubro de 2023.

A Snap publica relatórios de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap e a natureza e o volume do conteúdo denunciado na nossa plataforma. O nosso relatório mais recente para o segundo semestre de 2023 (1 de julho a 31 de dezembro) pode ser consultado aqui. As métricas específicas da Lei dos Serviços Digitais podem ser consultadas nesta página.

Média mensal de destinatários ativos 
(Artigos 24.2 e 42.3 da DSA)

À data de 1 de dezembro de 2023, temos uma média mensal de 90,9 milhões de destinatários ativos (“AMAR”) na nossa aplicação do Snapchat na UE. Isto significa que, em média nos últimos 6 meses, 90,9 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.

Este valor divide-se por Estado-Membro do seguinte modo:

Estes números foram calculados para satisfazer as regras atuais da DSA (Lei dos Serviços Digitais) e só devem ser considerados para fins da DSA. Ao longo do tempo, temos vindo a mudar a forma como fazemos este cálculo, incluindo como resposta a alterações na política interna, na orientação e tecnologia das entidades reguladoras; e os números não visam a comparação entre períodos. Isto também pode diferir dos cálculos usados para outras estimativas do utilizador ativo que publicamos para outros fins.


Pedidos das Autoridades dos Estados-Membros
(Artigo 15.1(a) da Lei dos Serviços Digitais - DSA)

Pedidos de retirada 

Durante este período, recebemos 0 pedidos de retirada dos Estados-Membros da UE ao abrigo do Artigo 9 da Lei dos Serviços Digitais - DSA. 

Pedidos de informação 

Durante este período, recebemos os seguintes pedidos de informação dos Estados-Membros da UE ao abrigo do Artigo 10 da Lei dos Serviços Digitais - DSA:

O tempo médio de resposta para confirmar às autoridades a receção dos Pedidos de Informação é de 0 minutos — dispomos de uma resposta automatizada a confirmar a receção. O tempo médio de processamento dos Pedidos de Informação é de cerca de 10 dias. Esta métrica reflete o período entre o momento em que a Snap recebe um Pedido de Informação e o momento em que a Snap acredita que o pedido foi totalmente resolvido. Em certos casos, a duração deste processo depende em parte da velocidade com que as autoridades policiais respondem a algum pedido de esclarecimento por parte da Snap, necessário para o processamento do pedido.

Moderação de conteúdo 


Todo o conteúdo no Snapchat deve cumprir as nossas Diretrizes da Comunidade e Termos de Serviço, bem como os termos, as diretrizes e as explicações de suporte. Os mecanismos de deteção proativos e relatórios de conteúdo ou contas ilegais ou infratoras suscitam uma revisão, na qual os nossos sistemas de ferramentas processam o pedido, recolhem metadados relevantes e encaminham o conteúdo relevante para a nossa equipa de moderação através de uma interface de utilizador estruturada concebida para facilitar operações de revisão eficazes e eficientes. Quando as nossas equipas de moderação determinam, seja através de revisão humana ou meios automatizados, que um utilizador violou os nossos Termos, podemos remover o conteúdo ou conta ofensiva, rescindir ou limitar a visibilidade da conta relevante e/ou notificar as autoridades conforme explicado no nosso Explicador de Moderação, Fiscalização e Recursos do Snapchat.  Os utilizadores com contas bloqueadas pela nossa equipa de segurança por violações das Diretrizes da Comunidade podem solicitar um pedido de recurso de conta bloqueada e podem recorrer a determinadas fiscalizações de conteúdo.

Avisos de conteúdo e conta (Artigo 15.1(b) da Lei dos Serviços Digitais - DSA)

A Snap criou mecanismos para permitir aos utilizadores, e não utilizadores, notificarem a Snap sobre conteúdo e contas que violam as nossas Diretrizes da Comunidade e os Termos de Serviço na plataforma, incluindo aqueles que consideram ilegais ao abrigo do Artigo 16 da Lei dos Serviços Digitais - DSA.  Estes mecanismos de denúncia estão disponíveis na própria aplicação (ou seja, diretamente no conteúdo) e no nosso site.

Durante o período relevante, recebemos os seguintes avisos de conteúdos e contas na UE:

No 2º Semestre de 2023, gerimos 664 896 notificações só de meios automatizados. Todas analisadas à luz das nossas Diretrizes da Comunidade uma vez que as nossas Diretrizes da Comunidade restringem conteúdo ilegal. 

Para além do conteúdo e das contas geradas pelo utilizador, analisamos os anúncios para uma possível violação das políticas da nossa plataforma. Abaixo consta o número total de anúncios que foram denunciados e removidos na UE. 

Notificações de Sinalizadores de Confiança (Artigo 15.1(b))

Para o período do nosso relatório de transparência mais recente (2º semestre de 2023), não foram formalmente colocados Sinalizadores de Confiança ao abrigo da Lei dos Serviços Digitais - DSA. Como resultado, o número de notificações enviadas por esses Sinalizadores de Confiança foi zero (0) neste período.

Análise de conteúdo proativa (Artigo 15.1(c))

Durante o período relevante, a Snap assinalou o conteúdo e as contas abaixo da UE após uma análise de conteúdo por sua própria iniciativa:

Todos os esforços de moderação da própria iniciativa da Snap tiraram partido de recursos humanos ou da automação. Nas nossas plataformas de conteúdo público, o conteúdo passa geralmente pela moderação automática e revisão humana antes de ser elegível para distribuição para uma audiência alargada. No que diz respeito a ferramentas automatizadas, estas incluem:

  • Deteção proativa de conteúdo ilegal e violador usando aprendizagem automática;

  • Ferramentas de correspondência de assinaturas digitais únicas "hash" (como a PhotoDNA e a CSAI Match da Google);

  • Deteção de linguagem abusiva para rejeitar conteúdo com base numa lista identificada e regularmente atualizada de palavras-chave abusivas, incluindo emojis


Pedidos de recurso (Artigo 15.1(d))

Durante o período relevante, a Snap fez o processamento dos seguintes pedidos de recurso de conteúdos e contas na UE através dos seus sistemas internos de tratamento de reclamações:


* Travar a exploração sexual infantil é uma prioridade máxima. A Snap investe meios significativos nesta causa e tem uma tolerância zero para esse tipo de condutas.  É necessária uma formação especial para analisar pedidos de ajuda de abuso sexual infantil, havendo uma equipa limitada de agentes que gere estas análises devido à natureza gráfica do conteúdo.  No outono de 2023, a Snap implementou alterações à sua política que tiveram repercussões na consistência de determinadas imposições ao abuso sexual infantil. Desde então, já resolvemos estas incongruências com uma nova formação dos agentes e um controlo de qualidade rigoroso.  Esperamos que o próximo relatório de transparência revele o progresso no sentido de melhorar o tempo de resposta aos pedidos de ajuda de abuso sexual infantil e a precisão das imposições iniciais. 

Meios automatizados para a moderação de conteúdo (Artigo 15.1(e))

Nas nossas plataformas de conteúdo público, o conteúdo passa geralmente pela moderação automática e revisão humana antes de ser elegível para distribuição para uma audiência alargada. No que diz respeito a ferramentas automatizadas, estas incluem:

  • Deteção proativa de conteúdo ilegal e violador usando aprendizagem automática;

  • Ferramentas de correspondência de hash (como o PhotoDNA e a CSAI Match da Google);

  • Deteção de linguagem abusiva para rejeitar conteúdo com base numa lista identificada e regularmente atualizada de palavras-chave abusivas, incluindo emojis.


A precisão das tecnologias de moderação automatizada para todos os danos foi de aproximadamente 96,61% e a taxa de erro de aproximadamente 3,39%.


Salvaguardas para a moderação de conteúdo (Artigos 15.1(e))

Reconhecemos que existem riscos associados à moderação de conteúdos, incluindo riscos para as liberdades de expressão e reunião, e que podem ser causados pela parcialidade de moderadores humanos e automatizados e por denúncias abusivas, incluindo por governos, constituições políticas ou indivíduos bem organizados. Geralmente, o Snapchat não é local de conteúdo político ou ativista, especialmente nos nossos espaços públicos. 


No entanto, como salvaguarda contra estes riscos, a Snap realiza testes e formação e segue procedimentos robustos e consistentes para o tratamento de denúncias de conteúdo ilegal ou infrator, incluindo de autoridades policiais e governamentais. Avaliamos e desenvolvemos continuamente os nossos algoritmos de moderação de conteúdo. Embora seja difícil detetar potenciais danos à liberdade de expressão, não temos conhecimento de quaisquer problemas significativos e fornecemos caminhos para os nossos utilizadores denunciarem erros, caso ocorram. 


As nossas políticas e sistemas promovem uma fiscalização consistente e justa e, conforme descrito acima, fornecem aos Snapchatters uma oportunidade de contestar significativamente os resultados da fiscalização através de processos de Notificação e Recursos que visam salvaguardar os interesses da nossa comunidade, protegendo os direitos individuais dos Snapchatters.

Esforçamo-nos continuamente por melhorar as nossas políticas e processos de fiscalização e demos grandes passos no combate a conteúdos e atividades potencialmente prejudiciais e ilegais no Snapchat. Isto reflete-se numa tendência ascendente dos nossos números de denúncia e fiscalização mostrados no nosso relatório de transparência mais recente e na diminuição das taxas de prevalência de violações no Snapchat em geral.


Acordos fora do tribunal (Artigo 24.1(a))

Para o período do nosso relatório de transparência mais recente (2º semestre de 2023), não existiram organismos extrajudiciais de resolução de litígios formalmente designados no âmbito da Lei dos Serviços Digitais - DSA. Consequentemente, o número de litígios enviados a esses organismos foi de zero (0) nesse período, e não podemos fornecer resultados, médias de tempos de resposta para os acordos, nem a quota de litígios em que implementámos as decisões do organismo. 



Suspensões da conta (Artigo 24.1(b))

Durante o segundo semestre de 2023, não tivemos nenhuma suspensão de conta imposta ao abrigo do Artigo 23. A equipa de Confiança e Segurança da Snap tem procedimentos para limitar a possibilidade de as contas do utilizador enviarem frequentemente notificações ou reclamações que são manifestamente infundadas. Estes procedimentos incluem a restrição da criação de denúncias em duplicado e a utilização de filtros de e-mail para impedir que os utilizadores que têm enviado frequentemente denúncias manifestamente infundadas continuem a fazê-lo. No entanto, a Snap toma as medidas coercivas adequadas contra as contas, conforme explicado no nosso Explicador de Moderação, Fiscalização e Recursos do Snapchat e as informações sobre o nível de fiscalização de contas da Snap podem ser encontradas no nosso relatório de transparência (2º semestre de 2023). Essas medidas continuam a ser revistas e otimizadas.


Recursos, conhecimentos especializados e assistência ao moderador (Artigo 42.2)

A nossa equipa de moderação de conteúdo opera em todo o mundo, permitindo-nos ajudar a manter os Snapchatters seguros 24 horas por dia, 7 dias por semana. Abaixo, encontrará a repartição dos nossos recursos de moderação humana pelas especialidades linguísticas dos moderadores (note que alguns moderadores são especializados em vários idiomas) a partir de 31 de dezembro de 2023:

A tabela acima inclui todos os moderadores que suportam os idiomas dos Estados-Membros da UE desde 31 de dezembro de 2023. Nas situações em que precisamos de apoio linguístico adicional, recorremos a serviços de tradução.

Os moderadores são recrutados usando uma descrição padrão do trabalho que inclui um requisito linguístico (dependendo da necessidade). O requisito linguístico indica que o candidato deve poder demonstrar fluência escrita e oral no idioma em causa e ter pelo menos um ano de experiência profissional para funções de iniciante. Para serem considerados, os candidatos devem satisfazer os requisitos de ensino e formação. Os candidatos também devem demonstrar compreensão dos eventos atuais para o país ou região da moderação de conteúdo que irão apoiar.

A nossa equipa de moderação aplica as nossas políticas e medidas de fiscalização para ajudar a proteger a nossa comunidade Snapchat. A formação é realizada durante um período de várias semanas, em que os novos membros da equipa são instruídos sobre as políticas, ferramentas e procedimentos de escalação da Snap. Depois da formação, cada moderador deve passar um exame de certificação antes de poder rever conteúdo. A nossa equipa de moderação participa regularmente em formações de atualização relevantes para os seus fluxos de trabalho, especialmente quando encontramos casos de limite de política e dependentes do contexto. Também realizamos programas de reconversão profissional, sessões de certificação e testes para garantir que todos os moderadores estão atualizados e em conformidade com todas as políticas atualizadas. Finalmente, quando surgem tendências de conteúdo urgentes com base em eventos atuais, divulgamos rapidamente esclarecimentos de políticas para que as equipas possam responder de acordo com as políticas da Snap.

Fornecemos à nossa equipa de moderação de conteúdo – os “primeiros socorristas digitais” da Snap – apoio e meios significativos, incluindo apoio de bem-estar no trabalho e fácil acesso a serviços de saúde mental. 

Relatório da Avaliação dos Meios Digitais quanto à Exploração e ao Abuso Sexual Infantil (CSEA)


Fundamentos

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.


Recorremos a ferramentas tecnológicas de deteção ativa, tais como a robusta correspondência de assinaturas digitais, conhecido como hash, da PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.


Denunciar

Os dados abaixo têm por base o resultado de uma digitalização proativa usando a ferramenta PhotoDNA e/ou a correspondência CSAI de conteúdos carregados pelo rolo da câmara do utilizador no Snapchat.

Travar a exploração sexual infantil é uma prioridade máxima. A Snap investe meios significativos nesta causa e tem uma tolerância zero para esse tipo de condutas.  É necessária uma formação especial para analisar pedidos de ajuda de abuso sexual infantil, havendo uma equipa limitada de agentes que gere estas análises devido à natureza gráfica do conteúdo.  No outono de 2023, a Snap implementou alterações à sua política que tiveram repercussões na consistência de determinadas imposições ao abuso sexual infantil. Desde então, já resolvemos estas incongruências com uma nova formação dos agentes e um controlo de qualidade rigoroso.  Esperamos que o próximo relatório de transparência revele o progresso no sentido de melhorar o tempo de resposta aos pedidos de ajuda de exploração e abuso sexual infantil e a precisão na tomada de medidas iniciais.  

Salvaguardas de moderação de conteúdo

As salvaguardas, ou medidas de segurança, aplicadas na Avaliação dos Meios Digitais quanto à Exploração e Abuso Sexual Infantil estão estabelecidas na secção acima “Salvaguardas na moderação de conteúdo” do nosso Relatório da DSA.


Relatório da Avaliação dos Meios Digitais quanto à Exploração e ao Abuso Sexual Infantil (CSEA)


Fundamentos

A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abusiva e proibida pelas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.


Recorremos a ferramentas tecnológicas de deteção ativa, tais como a robusta correspondência de assinaturas digitais, conhecido como hash, da PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.


Denunciar

Os dados abaixo têm por base o resultado de uma digitalização proativa usando a ferramenta PhotoDNA e/ou a correspondência CSAI de conteúdos carregados pelo rolo da câmara do utilizador no Snapchat.

Travar a exploração sexual infantil é uma prioridade máxima. A Snap investe meios significativos nesta causa e tem uma tolerância zero para esse tipo de condutas.  É necessária uma formação especial para analisar pedidos de ajuda de abuso sexual infantil, havendo uma equipa limitada de agentes que gere estas análises devido à natureza gráfica do conteúdo.  No outono de 2023, a Snap implementou alterações à sua política que tiveram repercussões na consistência de determinadas imposições ao abuso sexual infantil. Desde então, já resolvemos estas incongruências com uma nova formação dos agentes e um controlo de qualidade rigoroso.  Esperamos que o próximo relatório de transparência revele o progresso no sentido de melhorar o tempo de resposta aos pedidos de ajuda de exploração e abuso sexual infantil e a precisão na tomada de medidas iniciais.  

Salvaguardas de moderação de conteúdo

As salvaguardas, ou medidas de segurança, aplicadas na Avaliação dos Meios Digitais quanto à Exploração e Abuso Sexual Infantil estão estabelecidas na secção acima “Salvaguardas na moderação de conteúdo” do nosso Relatório da DSA.


Travar a exploração sexual infantil é uma prioridade máxima. A Snap investe meios significativos nesta causa e tem uma tolerância zero para esse tipo de condutas.  É necessária uma formação especial para analisar pedidos de ajuda de abuso sexual infantil, havendo uma equipa limitada de agentes que gere estas análises devido à natureza gráfica do conteúdo.  No outono de 2023, a Snap implementou alterações à sua política que tiveram repercussões na consistência de determinadas imposições ao abuso sexual infantil. Desde então, já resolvemos estas incongruências com uma nova formação dos agentes e um controlo de qualidade rigoroso.  Esperamos que o próximo relatório de transparência revele o progresso no sentido de melhorar o tempo de resposta aos pedidos de ajuda de exploração e abuso sexual infantil e a precisão na tomada de medidas iniciais.  

Salvaguardas de moderação de conteúdo

As salvaguardas, ou medidas de segurança, aplicadas na Avaliação dos Meios Digitais quanto à Exploração e Abuso Sexual Infantil estão estabelecidas na secção acima “Salvaguardas na moderação de conteúdo” do nosso Relatório da DSA.


Este valor divide-se por Estado-Membro do seguinte modo:

Este valor divide-se por Estado-Membro do seguinte modo: