União Europeia
Última atualização: 7 de fevereiro de 2024

Boas-vindas à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei de Serviços Digitais da UE (DSA), pela Diretiva de Serviços de Mídia Audiovisual (AVMSD) e pela Lei de Mídia Holandesa (DMA).  

Média de destinatários ativos mensais 

Em 1º de agosto de 2023, tivemos uma média de 102 milhões de destinatários ativos mensais (“AMAR”, em inglês) no nosso aplicativo do Snapchat na UE. Isso significa que, em média, nos últimos 6 meses, 102 milhões de usuários registrados na UE abriram o aplicativo do Snapchat pelo menos uma vez durante um determinado mês.

O valor detalhado por Estado-Membro é o seguinte:

Esses números foram calculados para atender às regras atuais da DSA e somente devem ser considerados para os objetivos da DSA. Podemos alterar a forma como calculamos esse valor ao longo do tempo, inclusive em resposta às mudanças nas orientações e na tecnologia do regulador. Isso também pode diferir dos cálculos usados para outros números de usuário ativos que publicamos para outros fins.

Representante legal 

A Snap Group Limited nomeou a Snap B.V. como seu representante legal. Você pode entrar em contato com o representante no endereço dsa-enquirie@snapchat.com, no endereço vsp-enquiries@snapchat.com para AVMSD e DMA, por meio de nosso Site de Suporte [aqui], ou em:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holanda

Se você for uma agência de aplicação da lei, siga os passos descritos aqui.

Autoridades reguladoras

Para a DSA, somos regulados pela Comissão Europeia e pela Autoridade Holandesa para Consumidores e Mercados (Authority for Consumers and Markets, ACM). 

Para o AVMSD e o DMA, somos regulamentados pela Autoridade de Mídia Holandesa (CvdM).

Relatório de transparência da DSA

A Snap é exigida pelos artigos 15, 24 e 42 da DSA a publicar relatórios contendo informações prescritas sobre a moderação de conteúdo da Snap para os serviços do Snapchat que são considerados “plataformas on-line”, ou seja, Spotlight, Para você, perfis públicos, mapas, Lentes e Publicidade. Este relatório precisa ser publicado a cada 6 meses, a partir de 25 de outubro de 2023.

A Snap publica relatórios de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap e a natureza e o volume do conteúdo denunciado em nossa plataforma. Nosso relatório mais recente para o primeiro semestre de 2023 (1º de janeiro a 30 de junho) pode ser encontrado aqui. Esse relatório contém as seguintes informações:

  • Solicitações do governo, o que inclui solicitações de informações e remoção de conteúdo; 

  • Violações de conteúdo, o que inclui medidas tomadas em relação a conteúdo ilegal e tempo de resposta mediano; 

  • Recursos, que são recebidos e tratados por meio do nosso processo interno de tratamento de reclamações.

Essas seções são relevantes para as informações exigidas pelos artigos 15.1(a), (b) e (d) da DSA. Observe que elas ainda não contêm um conjunto de dados completo porque o relatório mais recente abrange o primeiro semestre de 2023, o que antecede a entrada em vigor da DSA. 

Fornecemos abaixo algumas informações adicionais sobre aspectos não cobertos pelo nosso relatório de transparência para o primeiro semestre de 2023:

Moderação de conteúdo (artigos 15.1(c) e (e), artigo 42.2)

Todo o conteúdo no Snapchat precisa estar em conformidade com as nossas Diretrizes Comunitárias e Termos de Serviço, assim como aos termos, diretrizes e explicações de suporte. Mecanismos de detecção proativos e denúncias de conteúdo ou contas ilegais, ou de violação acionam uma revisão. Nesse ponto, nossos sistemas de ferramentas processam a solicitação, coletam metadados relevantes e encaminham o conteúdo relevante para nossa equipe de moderação por meio de uma interface de usuário estruturada projetada para facilitar operações de revisão eficazes e eficientes. Quando nossas equipes de moderação determinam, seja por meio de revisão humana ou meios automatizados, que um usuário violou nossos Termos, podemos remover o conteúdo ou conta ofensiva, rescindir ou limitar a visibilidade da conta relevante e/ou notificar as agências de aplicação da lei, conforme explicado em nosso Explicativo de Moderação, Aplicação e Recursos do Snapchat.  Os usuários que tiverem suas contas bloqueadas por nossa equipe de segurança por violações das Diretrizes Comunitárias podem enviar uma recursa de conta bloqueada e os usuários podem recorrer a determinadas imposições de conteúdo.

Ferramentas automatizadas de moderação de conteúdo

Em nossas superfícies de conteúdo público, o conteúdo geralmente passa por moderação automática e revisão humana antes de ser elegível para distribuição para um público amplo. No que diz respeito às ferramentas automatizadas, essas ferramentas incluem:

  • Detecção proativa de conteúdo ilegal e de violação usando aprendizado de máquina;

  • Ferramentas de correspondência de hash (como PhotoDNA e CSAI Match do Google);

  • Detecção de idioma abusiva para rejeitar conteúdo com base em uma lista identificada e atualizada regularmente de palavras-chave abusivas, inclusive emojis.

Para o período do nosso relatório de transparência mais recente (primeiro semestre de 2023), não houve exigência de agrupar indicadores/taxas de erro formais para esses sistemas automatizados. No entanto, monitoramos regularmente esses sistemas em busca de problemas e nossas decisões de moderação humana são avaliadas regularmente para verificar a exatidão.


Moderação humana

Nossa equipe de moderação de conteúdo opera em todo o mundo, o que nos permite ajudar a manter a segurança dos Snapchatters 24 horas por dia, 7 dias por semana. Abaixo, você encontrará o detalhamento dos nossos recursos de moderação humana pelos idiomas dos moderadores (observe que alguns moderadores são especializados em vários idiomas) a partir de agosto de 2023:

Os números acima flutuam com frequência à medida que vemos tendências de volume de entrada ou envios por idioma/país. Em situações em que precisamos de suporte adicional de idiomas, usamos serviços de tradução.

Os moderadores são recrutados usando uma descrição de trabalho padrão que inclui um requisito de idioma (dependendo da necessidade). O requisito de idioma afirma que o candidato deve ser capaz de demonstrar fluência escrita e de fala no idioma e ter pelo menos um ano de experiência de trabalho para cargos de nível de entrada. Os candidatos também devem atender aos requisitos educacionais e de histórico para serem considerados. Os candidatos também devem demonstrar um entendimento dos eventos atuais para o país ou região e conteúdo de moderação nos quais trabalharão. 

Nossa equipe de moderação aplica nossas políticas e medidas de restrição para ajudar a proteger nossa comunidade do Snapchat. O treinamento é realizado ao longo de um período de várias semanas, no qual os novos membros da equipe são educados sobre as políticas, ferramentas e procedimentos de encaminhamento da Snap. Após o treinamento, cada moderador deve passar um exame de certificação antes de ter a permissão para revisar conteúdo. Nossa equipe de moderação participa regularmente do treinamento de atualização relevante para os fluxos de trabalho, especialmente quando encontramos casos de restrições e dependentes de contexto. Também realizamos programas de melhora das qualificações profissionais, sessões de certificação e questionários para garantir que todos os moderadores estejam em conformidade com todas as políticas atualizadas. Por fim, quando as tendências de conteúdo urgentes surgem com base em eventos atuais, divulgamos rapidamente esclarecimentos de políticas para que as equipes possam responder de acordo com as políticas da Snap.

Fornecemos à nossa equipe de moderação de conteúdo — os “primeiros socorristas digitais” da Snap — com suporte e recursos significativos, incluindo suporte de bem-estar no trabalho e fácil acesso a serviços de saúde mental. 


Proteções de moderação de conteúdo

Reconhecemos que há riscos associados à moderação de conteúdo, incluindo riscos para as liberdades de expressão e de forma discreta que possam ser causados por viés de moderador e humano e denúncias abusivas, incluindo governos, constituintes ou indivíduos bem organizados. O Snapchat geralmente não é um lugar para conteúdo político ou ativista, especialmente em nossos espaços públicos. 

No entanto, para se proteger contra esses riscos, a Snap tem testes e treinamento em vigor, além de procedimentos robustos e consistentes para lidar com denúncias de conteúdo ilegal ou de violação, incluindo autoridades policiais e governamentais. Avaliamos e evoluímos continuamente nossos algoritmos de moderação de conteúdo. Embora sejam difíceis de detectar danos potenciais à liberdade de expressão, não estamos cientes de nenhum problema significativo e fornecemos caminhos para que nossos usuários denunciem erros se eles ocorrerem. 

Nossas políticas e sistemas promovem uma aplicação de restrições consistente e justa e, conforme descrito acima, fornecem aos Snapchatters uma oportunidade de disputa considerável por meio de processos de Notificações e Recursos que visam proteger os interesses da nossa comunidade e os direitos individuais do Snapchatter.

Fazemos esforços contínuos para melhorar nossas políticas e processos de aplicação. Por isso, demos grandes passos no combate ao conteúdo e atividades potencialmente prejudiciais e ilegais no Snapchat. Isso se reflete em uma tendência ascendente em nossos números de denúncias e aplicação de restrições mostrados em nosso relatório de transparência mais recente e na diminuição das taxas de prevalência de violações no Snapchat em geral. 


Avisos de sinalizadores de confiança (artigo 15.1(b))

Para o período do nosso relatório de transparência mais recente (primeiro semestre de 2023), não houve sinalizadores de confiança apontados formalmente sob a DSA. Como resultado, o número de avisos enviados por tais sinalizadores de confiança foi de zero (0) neste período.


Disputas extrajudiciais (artigo 24.1(a))

Para o período do nosso relatório de transparência mais recente (primeiro semestre de 2023), não houve órgãos apontados formalmente para resoluções de disputas extrajudiciais sob a DSA. Como resultado, o número de disputas enviadas a tais órgãos foi de zero (0) neste período.


Suspensões de conta de acordo com o artigo 23 (artigo 24.1(b))

Para o período do nosso relatório de transparência mais recente (primeiro semestre de 2023), não houve exigência de suspender contas de acordo com o artigo 23 da DSA para a disposição de conteúdo manifestamente ilegal, avisos infundados ou reclamações infundadas. Como resultado, o número de tais suspensões foi de zero (0). No entanto, a Snap toma as medidas de aplicação adequadas contra contas, conforme explicado em nosso Explicativo de Moderação, Aplicação e Recursos do Snapchat e as informações sobre o nível de aplicação de restrições de conta da Snap podem ser encontradas em nosso relatório de transparência (primeiro semestre de 2023).