União Europeia
1 de julho de 2023 – 31 de dezembro de 2023

Publicado em:

25 de abril de 2024

Atualizado em:

25 de abril de 2024

Boas-vindas à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei de Serviços Digitais da UE (DSA), pela Diretiva de Serviços de Mídia Audiovisual (AVMSD) e pela Lei de Mídia Holandesa (DMA). Observe que a versão mais atualizada deste relatório de transparência pode ser encontrada em inglês (en-US).

Representante legal 

A Snap Group Limited nomeou a Snap B.V. como seu representante legal para os objetivos da DSA. Você pode entrar em contato com o representante no endereço dsa-enquirie@snapchat.com, no endereço vsp-enquiries@snapchat.com para AVMSD e DMA, por meio de nosso Site de Suporte [aqui], ou em:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holanda

Se você for uma agência de aplicação da lei, siga os passos descritos aqui.

Autoridades reguladoras

Para a DSA, somos regulados pela Comissão Europeia e pela Autoridade Holandesa para Consumidores e Mercados (Authority for Consumers and Markets, ACM). Para a AVMSD e a DMA, somos regulamentados pela Autoridade de Mídia Holandesa (CvdM).

Relatório de transparência da DSA

A Snap é exigida pelos artigos 15, 24 e 42 da DSA a publicar relatórios contendo informações prescritas sobre a moderação de conteúdo da Snap para os serviços do Snapchat que são considerados “plataformas on-line”, ou seja, Spotlight, Para você, perfis públicos, mapas, Lentes e Publicidade. Este relatório precisa ser publicado a cada 6 meses, a partir de 25 de outubro de 2023.

A Snap publica relatórios de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap e a natureza e o volume do conteúdo denunciado em nossa plataforma. Nosso relatório mais recente para o segundo semestre de 2023 (1 de julho a 31 de dezembro) pode ser encontrado aqui. Métricas específicas para a Lei de Serviços Digitais podem ser encontradas nesta página.

Média de destinatários ativos mensais 
(Artigos 24.2 e 42.3 da DSA)

Em 1º de agosto de 2023, tivemos uma média de 90,9 milhões de destinatários ativos mensais (“AMAR”, em inglês) no nosso aplicativo do Snapchat na UE. Isso significa que, em média, nos últimos 6 meses, 90,9 milhões de usuários registrados na UE abriram o aplicativo do Snapchat pelo menos uma vez durante um determinado mês.

O valor detalhado por Estado-Membro é o seguinte:

Esses números foram calculados para atender às regras atuais da DSA e somente devem ser considerados para os objetivos da DSA. Mudamos a forma como contabilizamos esse número ao longo do tempo, inclusive em resposta a mudanças nas políticas internas, orientações e tecnologia de regulamentadores; portanto, os números não devem ser comparados entre períodos. Isso também pode diferir dos cálculos usados para outros números de usuário ativos que publicamos para outros fins.


Solicitações de autoridade dos Estados-Membros
(Artigo 15.1(a))

Solicitações de remoção 

Durante este período, não recebemos nenhuma solicitação de remoção de Estados-membros da UE de acordo com o Artigo 9. 

Solicitações de Informação 

Durante este período, recebemos as seguintes solicitações de informação de Estados-membros da UE em conformidade com o Artigo 10 da DSA:

O tempo médio de resposta para informar as autoridades sobre o recebimento de solicitações de informações é de 0 minutos. Nós fornecemos uma resposta automatizada confirmando o recebimento. Em média, o prazo para atender às solicitações de informações é de aproximadamente 10 dias. Essa métrica reflete o período entre o momento em que a Snap recebe uma solicitação de informação e o momento em que a Snap acredita que a solicitação foi totalmente resolvida. Em alguns casos, a duração deste processo depende, em parte, da velocidade com que as autoridades policiais respondem às solicitações de esclarecimento da Snap necessárias para o processamento da solicitação.

Moderação de conteúdo 


Todo o conteúdo no Snapchat precisa estar em conformidade com as nossas Diretrizes Comunitárias e Termos de Serviço, e com os termos, diretrizes e explicações de suporte. Mecanismos de detecção proativos e denúncias de conteúdo ou contas ilegais, ou de violação acionam uma revisão. Nesse ponto, nossos sistemas de ferramentas processam a solicitação, coletam metadados relevantes e encaminham o conteúdo relevante para nossa equipe de moderação por meio de uma interface de usuário estruturada projetada para facilitar operações de revisão eficazes e eficientes. Quando nossas equipes de moderação determinam, seja por meio de revisão humana ou meios automatizados, que um usuário violou nossos Termos, podemos remover o conteúdo ou conta ofensiva, rescindir ou limitar a visibilidade da conta relevante e/ou notificar as agências de aplicação da lei, conforme explicado em nosso Explicativo de Moderação, Aplicação e Recursos do Snapchat.  Os usuários que tiverem suas contas bloqueadas por nossa equipe de segurança por violações das Diretrizes Comunitárias podem enviar uma recursa de conta bloqueada e os usuários podem recorrer a determinadas imposições de conteúdo.

Notificações de conteúdo e contas (artigo 15.1(b))

A Snap implementou mecanismos para permitir que usuários e não usuários notifiquem a Snap sobre conteúdo e contas que violam nossas Diretrizes Comunitárias e os Termos de Serviço na plataforma, incluindo aqueles que eles consideram ilegais de acordo com os termos do artigo 16 da DSA.  Esses mecanismos de denúncia estão disponíveis no próprio aplicativo (ou seja, diretamente do conteúdo) e em nosso site.

Durante o período analisados, recebemos as seguintes notificações sobre conteúdo e contas na UE:

No segundo semestre de 2023, registramos 664.896 notificações exclusivamente por meios automatizados. Todas essas notificações foram realizadas com base em nossas Diretrizes Comunitárias, que estabelecem o que é considerado conteúdo ilegal. 

Além de conteúdo e contas geradas por usuários, moderamos anúncios se eles violarem as políticas da nossa plataforma. Abaixo está o total de anúncios que foram denunciados e removidos na UE. 

Notificações de sinalizadores confiáveis (artigo 15.1(b))

Para o período de nosso Relatório de Transparência mais recente (2º semestre de 2023), não tivemos nenhum sinalizador de confiança formalmente nomeado no âmbito da DSA. Como resultado, o número de notificações enviadas por tais sinalizadores de confiança foi zero (0) neste período.

Moderação Proativa de Conteúdo (artigo 15.1(c))

Durante o período analisado, a Snap restringiu o conteúdo e as contas a seguir na UE após a moderação de conteúdo por sua própria iniciativa:

Todos os esforços de moderação de iniciativa da Snap utilizaram recursos humanos ou automação. Em nossas superfícies de conteúdo público, o conteúdo geralmente passa por moderação automática e revisão humana antes de ser elegível para distribuição para um público amplo. No que diz respeito às ferramentas automatizadas, essas ferramentas incluem:

  • Detecção proativa de conteúdo ilegal e de violação usando aprendizado de máquina;

  • Ferramentas de correspondência de hash (como PhotoDNA e CSAI Match do Google);

  • Detecção de linguagem abusiva para rejeitar conteúdo com base em uma lista identificada e atualizada regularmente de palavras-chave abusivas, inclusive emojis.


Recursos (artigo 15.1(d))

Durante o período analisado, a Snap processou as seguintes contestações de conteúdo e conta na UE por meio de seus sistemas internos de gerenciamento de reclamações:


* Parar a exploração sexual infantil é uma prioridade. A Snap dedica fundos significativos para isso e tem tolerância zero para tal conduta.  É necessário treinamento especial para revisar os recursos de CSE, e há uma equipe limitada de agentes que lidam com essas análises devido à natureza gráfica do conteúdo.  Durante o outono de 2023, a Snap implementou alterações nas políticas que afetaram a consistência de determinadas imposições de CSE, e resolvemos essas inconsistências por meio de retreinamento de agentes e garantia de qualidade rigorosa.  Esperamos que o próximo relatório de transparência revele o progresso na melhoria dos tempos de resposta para recursos de CSE e melhorando a precisão das imposições iniciais. 

Meios automatizados para moderação de conteúdo (artigo 15.1(d))

Em nossas superfícies de conteúdo público, o conteúdo geralmente passa por moderação automática e revisão humana antes de ser elegível para distribuição para um público amplo. No que diz respeito às ferramentas automatizadas, essas ferramentas incluem:

  • Detecção proativa de conteúdo ilegal e de violação usando aprendizado de máquina;

  • Ferramentas de correspondência de hash (como PhotoDNA e CSAI Match do Google);

  • Detecção de idioma abusiva para rejeitar conteúdo com base em uma lista identificada e atualizada regularmente de palavras-chave abusivas, inclusive emojis.


A precisão das tecnologias de moderação automatizada para todos os danos foi de aproximadamente 96,61% e a taxa de erro foi de aproximadamente 3,39%.


Proteções de moderação de conteúdo (artigos 15.1(d))

Reconhecemos que há riscos associados à moderação de conteúdo, incluindo riscos para as liberdades de expressão e de forma discreta que possam ser causados por viés de moderador e humano e denúncias abusivas, incluindo governos, constituintes ou indivíduos bem organizados. O Snapchat geralmente não é um lugar para conteúdo político ou ativista, especialmente em nossos espaços públicos. 


No entanto, para se proteger contra esses riscos, a Snap tem testes e treinamento em vigor, além de procedimentos robustos e consistentes para lidar com denúncias de conteúdo ilegal ou de violação, incluindo de autoridades policiais e governamentais. Avaliamos e evoluímos continuamente nossos algoritmos de moderação de conteúdo. Embora sejam difíceis de detectar danos potenciais à liberdade de expressão, não estamos cientes de nenhum problema significativo e fornecemos caminhos para que nossos usuários denunciem erros se eles ocorrerem. 


Nossas políticas e sistemas promovem uma aplicação de restrições consistente e justa e, conforme descrito acima, fornecem aos Snapchatters uma oportunidade de disputa considerável por meio de processos de Notificações e Recursos que visam proteger os interesses da nossa comunidade e os direitos individuais do Snapchatter.

Fazemos esforços contínuos para melhorar nossas políticas e processos de aplicação. Por isso, demos grandes passos no combate ao conteúdo e atividades potencialmente prejudiciais e ilegais no Snapchat. Isso se reflete em uma tendência ascendente em nossos números de denúncias e aplicação de restrições mostrados em nosso Relatório de Transparência mais recente e na diminuição das taxas de prevalência de violações no Snapchat em geral.


Soluções extrajudiciais de litígio (artigo 24.1(a))

Para o período de nosso Relatório de Transparência mais recente (2º semestre de 2023), não tivemos órgão de solução extrajudicial de litígios formalmente nomeado no âmbito da DSA. Como resultado, o número de disputas enviadas a tais órgãos foi zero (0) neste período, e não somos capazes de fornecer os resultados, os tempos de resposta medianos para acordos e a participação de disputas em que implementamos as decisões do órgão. 



Suspensões de conta (artigo 24.1(a))

Durante o segundo semestre de 2023, não tivemos nenhuma suspensão de conta imposta de acordo com o artigo 23. A equipe de Confiança e Segurança da Snap tem procedimentos para limitar a possibilidade de as contas de usuários enviarem notificações ou reclamações que são obviamente infundadas. Esses procedimentos incluem a restrição da criação de denúncias duplicadas e o uso de filtros de e-mail para evitar que usuários que enviaram denúncias obviamente infundadas continuem a fazê-lo. A Snap toma as medidas de aplicação adequadas contra contas, conforme explicado em nosso Explicativo de Moderação, Aplicação e Recursos do Snapchat, as informações sobre o nível de aplicação de restrições de conta da Snap podem ser encontradas em nosso Relatório de Transparência (segundo semestre de 2023). Tais medidas continuarão a ser revisadas e iteradas.


Recursos, experiência e suporte de moderador (artigo 42.2)

Nossa equipe de moderação de conteúdo opera em todo o mundo, o que nos permite ajudar a manter a segurança dos Snapchatters 24 horas por dia, 7 dias por semana. Abaixo, você encontrará o detalhamento dos nossos recursos de moderação humana pelos idiomas dos moderadores (observe que alguns moderadores são especializados em vários idiomas) a partir de 31 de dezembro de 2023:

A tabela acima inclui todos os moderadores que suportam idiomas dos Estados-membros da UE a partir de 31 de dezembro de 2023. Em situações em que precisamos de suporte adicional de idiomas, usamos serviços de tradução.

Os moderadores são recrutados usando uma descrição de trabalho padrão que inclui um requisito de idioma (dependendo da necessidade). O requisito de idioma afirma que o candidato deve ser capaz de demonstrar fluência escrita e de fala no idioma e ter pelo menos um ano de experiência de trabalho para cargos de nível de entrada. Os candidatos também devem atender aos requisitos educacionais e de histórico para serem considerados. Os candidatos também devem demonstrar um entendimento dos eventos atuais para o país ou região e conteúdo de moderação nos quais trabalharão.

Nossa equipe de moderação aplica nossas políticas e medidas de restrição para ajudar a proteger nossa comunidade do Snapchat. O treinamento é realizado ao longo de um período de várias semanas, no qual os novos membros da equipe são educados sobre as políticas, ferramentas e procedimentos de encaminhamento da Snap. Após o treinamento, cada moderador deve passar um exame de certificação antes de ter a permissão para revisar conteúdo. Nossa equipe de moderação participa regularmente do treinamento de atualização relevante para os fluxos de trabalho, especialmente quando encontramos casos de restrições e dependentes de contexto. Também realizamos programas de melhora das qualificações profissionais, sessões de certificação e questionários para garantir que todos os moderadores estejam em conformidade com todas as políticas atualizadas. Por fim, quando as tendências de conteúdo urgentes surgem com base em eventos atuais, divulgamos rapidamente esclarecimentos de políticas para que as equipes possam responder de acordo com as políticas da Snap.

Fornecemos à nossa equipe de moderação de conteúdo — os “primeiros socorristas digitais” da Snap — com suporte e recursos significativos, incluindo suporte de bem-estar no trabalho e fácil acesso a serviços de saúde mental. 

Relatório de monitoramento de mídia sobre exploração e abuso sexual infantil (CSEA)


Fundamentos

A exploração sexual de qualquer membro da nossa comunidade, especialmente menores, é ilegal, repugnante e proibida pelas nossas Diretrizes Comunitárias. A prevenção, detecção e erradicação de Imagens de Exploração Sexual e Abuso Infantil (CSEAI) em nossa plataforma é uma prioridade para o Snap, e evoluímos continuamente nossas capacidades para combater esses e outros tipos de crimes.


Usamos o método robusto de detecção de hash-matching do PhotoDNA e a tecnologia de detecção de Imagens de Abuso Sexual Infantil (CSAI) da Google para identificar imagens e vídeos contendo abuso infantil e denunciamos ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, se articula com as autoridades nacionais ou internacionais, conforme necessário.


Relatório

Os dados abaixo são fundamentados no resultado de uma varredura proativa usando PhotoDNA e/ou CSAI Match de mídias enviadas pelo rolo da câmera de um usuário no Snapchat.

Parar a exploração sexual infantil é de alta prioridade. A Snap dedica fundos significativos para isso e tem tolerância zero para tal conduta.  É necessário treinamento especial para revisar os recursos de CSE, e há uma equipe limitada de agentes que lidam com essas análises devido à natureza gráfica do conteúdo.  Durante o outono de 2023, a Snap implementou alterações nas políticas que afetaram a consistência de determinadas imposições de CSE, e resolvemos essas inconsistências por meio de retreinamento de agentes e garantia de qualidade rigorosa.  Esperamos que o próximo relatório de transparência revele o progresso na melhoria dos tempos de resposta para denúncias e recursos de abuso sexual infantil e melhorando a precisão das penalidades iniciais.  

Proteções de moderação de conteúdo

As proteções aplicadas para o escaneamento de mídia CSEA estão estabelecidas na seção “Proteções de moderação de conteúdo” acima em nosso Relatório de DSA.


Relatório de monitoramento de mídia sobre exploração e abuso sexual infantil (CSEA)


Fundamentos

A exploração sexual de qualquer membro da nossa comunidade, especialmente menores, é ilegal, repugnante e proibida pelas nossas Diretrizes Comunitárias. A prevenção, detecção e erradicação de Imagens de Exploração Sexual e Abuso Infantil (CSEAI) em nossa plataforma é uma prioridade para o Snap, e evoluímos continuamente nossas capacidades para combater esses e outros tipos de crimes.


Usamos o método robusto de detecção de hash-matching do PhotoDNA e a tecnologia de detecção de Imagens de Abuso Sexual Infantil (CSAI) da Google para identificar imagens e vídeos contendo abuso infantil e denunciamos ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, se articula com as autoridades nacionais ou internacionais, conforme necessário.


Relatório

Os dados abaixo são fundamentados no resultado de uma varredura proativa usando PhotoDNA e/ou CSAI Match de mídias enviadas pelo rolo da câmera de um usuário no Snapchat.

Parar a exploração sexual infantil é de alta prioridade. A Snap dedica fundos significativos para isso e tem tolerância zero para tal conduta.  É necessário treinamento especial para revisar os recursos de CSE, e há uma equipe limitada de agentes que lidam com essas análises devido à natureza gráfica do conteúdo.  Durante o outono de 2023, a Snap implementou alterações nas políticas que afetaram a consistência de determinadas imposições de CSE, e resolvemos essas inconsistências por meio de retreinamento de agentes e garantia de qualidade rigorosa.  Esperamos que o próximo relatório de transparência revele o progresso na melhoria dos tempos de resposta para denúncias e recursos de abuso sexual infantil e melhorando a precisão das penalidades iniciais.  

Proteções de moderação de conteúdo

As proteções aplicadas para o escaneamento de mídia CSEA estão estabelecidas na seção “Proteções de moderação de conteúdo” acima em nosso Relatório de DSA.


Parar a exploração sexual infantil é de alta prioridade. A Snap dedica fundos significativos para isso e tem tolerância zero para tal conduta.  É necessário treinamento especial para revisar os recursos de CSE, e há uma equipe limitada de agentes que lidam com essas análises devido à natureza gráfica do conteúdo.  Durante o outono de 2023, a Snap implementou alterações nas políticas que afetaram a consistência de determinadas imposições de CSE, e resolvemos essas inconsistências por meio de retreinamento de agentes e garantia de qualidade rigorosa.  Esperamos que o próximo relatório de transparência revele o progresso na melhoria dos tempos de resposta para denúncias e recursos de abuso sexual infantil e melhorando a precisão das penalidades iniciais.  

Proteções de moderação de conteúdo

As proteções aplicadas para o escaneamento de mídia CSEA estão estabelecidas na seção “Proteções de moderação de conteúdo” acima em nosso Relatório de DSA.