Privacy, Safety, and Policy Hub
União Europeia
1º de janeiro de 2024 — 30 de junho de 2024

Publicado em:

25 de outubro de 2024

Atualizado em:

17 de dezembro de 2024

Boas-vindas à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pelo Regulamento dos Serviços Digitais (RSD), pela Diretiva Serviços de Comunicação Social Audiovisual (AVMSD), pela Lei de Mídia Neerlandesa (DMA) e pelo Regulamento Online de Conteúdo Terrorista (TCO). Observe que a versão mais atualizada deste relatório de transparência pode ser encontrada em inglês (en-US).

Representante legal 

A Snap Group Limited nomeou a Snap B.V. como seu representante legal para os objetivos do RSD. Você pode entrar em contato com o representante no endereço dsa-enquirie@snapchat.com para o RSD, no endereço vsp-enquiries@snapchat.com para AVMSD e DMA, no endereço tco-enquiries@snapchat.com para o TCO, por meio de nosso Site de Suporte [aqui], ou em:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Baixos

Se você for uma agência de aplicação da lei, siga os passos descritos aqui.

Comunique-se em inglês ou neerlandês ao entrar em contato conosco.

Autoridades reguladoras

Para o RSD, somos regulados pela Comissão Europeia e pela Autoridade Neerlandesa para Consumidores e Mercados (Authority for Consumers and Markets, ACM). Para o AVMSD e o DMA, somos regulamentados pela Autoridade de Mídia Neerlandesa (CvdM). Para o TCO, somos regulamentados pela Autoridade Neerlandesa para a prevenção de conteúdo terrorista online e material de abuso sexual infantil (ATKM).

Relatório de transparência do RSD

Última atualização: 25 de outubro de 2024

Publicamos este relatório sobre nossos esforços de moderação de conteúdo no Snapchat em conformidade com os requisitos de transparência de denúncia previstos nos Artigos 15, 24 e 42 da Lei de Serviços Digitais da União Europeia (UE) (Regulamento (UE) 2022/2065) (“RSA”). Exceto quando indicado de outra forma, as informações contidas neste relatório são referentes ao período de 1º de janeiro de 2024 a 30 de junho de 2024 (primeiro semestre de 2024), abrangendo a moderação de conteúdo das funcionalidades do Snapchat regulamentadas pelo RSD. 

Nos esforçamos continuamente para aprimorar nossos meios de denúncia. Para este período do relatório (primeiro semestre de 2024), fizemos alterações na estrutura do nosso relatório, com quadros novos e mais diferenciados para apresentar uma melhor visão de nossos esforços de moderação de conteúdo. 

1. Média de destinatários ativos mensais 
(Artigos 24.2 e 42.3 do RSD)


Em 1º de outubro de 2024, tivemos 92,9 milhões de destinatários ativos mensais ("AMAR") em média no aplicativo do Snapchat na UE. Isso significa que, em média, no período de 6 meses encerrado em 30 de setembro de 2024, 92,9 milhões de usuários registrados na UE abriram o aplicativo do Snapchat pelo menos uma vez durante um determinado mês.

Esse número se divide por Estado-Membro da seguinte forma:

Esses números foram calculados para atender aos requisitos atuais do RSD e somente devem ser considerados para os objetivos do RSD. Mudamos a forma como contabilizamos esse número ao longo do tempo, inclusive em resposta a mudanças nas políticas internas, orientações dos regulamentadores e tecnologia; dessa forma, esses números não devem ser utilizados para comparações entre períodos. Esse número pode também ser diferente dos cálculos usados para outros números de usuário ativos que publicamos para outros fins.

2. Solicitações de Autoridades dos Estados-Membros
(Artigo 15.1(a) do RSD)
a) Ordens de ação contra conteúdo ilegal


Durante o período desse relatório (primeiro semestre de 2024), recebemos zero (0) ordens de ação contra conteúdos ilegais identificados especificamente pelas autoridades dos Estados-Membros da UE, incluindo aqueles emitidos de acordo com o Artigo 9 do RSD. 

Como esse número é zero (0), não podemos fornecer uma discriminação por tipo de conteúdo ilegal em questão, por Estado-Membro emissor do pedido, ou tempos médios de confirmação do recebimento, ou de efetivação dos pedidos.

b) Ordens de fornecimento de informações 


Durante o período desse relatório (primeiro semestre de 2024), recebemos as seguintes ordens de fornecimento de dados de usuários das autoridades dos Estados-Membros da UE, incluindo aquelas emitidas de acordo com o Artigo 10 do RSD:


O tempo médio para informar as autoridades responsáveis sobre o recebimento desses pedidos de fornecimento de informações foi de 0 minutos — fornecemos uma resposta automatizada confirmando o recebimento. 

O tempo médio de atendimento a esses pedidos de fornecimento de informações foi de aproximadamente 7 dias. Essa métrica reflete o intervalo de tempo entre o momento em que a Snap recebeu um pedido até o momento em que a Snap considerou o assunto como sendo totalmente resolvido, o que, em casos individuais, pode depender em parte do tempo de resposta da autoridade do Estado-Membro em questão à solicitação de esclarecimento da Snap necessária para processar o pedido.

Observe que não fornecemos um detalhamento desses pedidos de fornecimento de informação por categoria de tipo de conteúdo ilegal em questão, pois, de forma geral, essas informações não estão disponíveis para nós.

3. Moderação de conteúdo 


Todo o conteúdo presente no Snapchat deve obedecer às nossas Diretrizes comunitárias e aos Termos de serviço. Determinados tipos de conteúdo devem também estar em conformidade com diretrizes e políticas adicionais. Por exemplo, qualquer conteúdo enviado para recomendação algorítmica a um público mais amplo em nossas plataformas de divulgação pública deve atender a padrões adicionais mais elevados fornecidos em nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações, enquanto os anúncios devem estar em conformidade com nossas Políticas de Publicidade.

Nós aplicamos essas políticas usando tecnologia e revisão humana. Fornecemos também mecanismos para que os Snapchatters denunciem violações, incluindo conteúdo e atividades ilegais, diretamente no aplicativo ou pelo nosso site. Mecanismos proativos de detecção e denúncias e notificações abrem uma revisão, que então utiliza uma combinação de ferramentas automatizadas e moderadores humanos para tomar medidas adequadas em conformidade com as nossas políticas. 

Fornecemos mais informações sobre nossa moderação de conteúdo em nossas plataformas públicas no primeiro semestre de 2024 abaixo.

a) Notificações enviadas de acordo com o Artigo 16 do Regulamento dos Serviços Digitais (RSD) 
(Artigo 15.1(b) do RSD)

Em conformidade com o Artigo 16 do RSD, a Snap implementou mecanismos que permitem que usuários e não usuários notifiquem a Snap sobre a presença no Snapchat de informações específicas que considerem conteúdo ilegal. Essa notificação pode ser feita por denúncia de conteúdos específicos ou contas, seja diretamente no aplicativo do Snapchat ou em nosso site. 

Durante o período do relatório (primeiro semestre de 2024), recebemos as seguintes notificações enviadas de acordo com o Artigo 16 do RSD na UE:


A seguir, fornecemos mais detalhes sobre como essas denúncias foram processadas — ou seja, por um processo que inclui revisão humana ou exclusivamente por meios automatizados: 

Quando forem enviar notificações no aplicativo ou pelo nosso site, os denunciantes podem escolher o motivo específico da denúncia em um menu de opções que mostra as categorias de violação relacionadas em nossas Diretrizes comunitárias (por exemplo, discurso de ódio, uso ou venda de drogas). Nossas Diretrizes comunitárias proíbem conteúdos e atividades ilegais na UE; dessa forma, esses motivos de denúncia refletem em grande parte as categorias específicas de conteúdo ilegal na UE. Entretanto, caso um denunciante na UE acredite que o conteúdo ou a conta que está denunciando seja ilegal por motivos não especificamente mencionados em nosso menu, poderá classificar sua denúncia como “outro conteúdo ilegal” e explicar por que acredita que o que está denunciando é ilegal. 

Se, após revisão, determinarmos que o conteúdo ou a conta denunciada viola nossas Diretrizes comunitárias (inclusive por motivos de ilegalidade), podemos (i) remover o conteúdo ofensivo, (ii) advertir o titular da conta em questão e aplicar uma penalidade contra a conta e/ou (iii) bloquear a conta em questão, conforme descrito em maiores detalhes em nossas Explicações sobre moderação, aplicação e recursos do Snapchat

No primeiro semestre de 2024, aplicamos as seguintes sanções após o recebimento de notificações enviadas de acordo com o Artigo 16 do Regulamento dos Serviços Digitais (RSD) na UE:

No primeiro semestre de 2024, todas as denúncias indicadas como “outro conteúdo ilegal” que tratamos foram aplicadas sob nossas Diretrizes comunitárias porque estas Diretrizes comunitárias proibiram este tipo de conteúdo ou atividade. Dessa forma, categorizamos essas sanções sob a categoria adequada de violação das Diretrizes comunitárias no quadro acima.

Além das sanções acima, podemos agir contra o conteúdo notificado a nós em conformidade com outras políticas e diretrizes aplicáveis da Snap: 

  • Com relação ao conteúdo em nossas plataformas de divulgação pública, se determinarmos que o conteúdo denunciado não atende aos padrões mais elevados de nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações, podemos rejeitar o conteúdo para recomendação algorítmica (se o conteúdo não atender aos nossos critérios de elegibilidade) ou limitar a distribuição do conteúdo para excluir públicos sensíveis (se o conteúdo atender aos nossos critérios de elegibilidade a recomendações, mas for sensível ou provocador).  

No primeiro semestre de 2024, tomamos as seguintes medidas com relação ao conteúdo nas plataformas de divulgação pública do Snapchat que nos foi denunciado na UE, de forma consistente com nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações:

  • Se determinarmos que um anúncio denunciado viola nossas Políticas de Publicidade, podemos removê-lo após revisão. 


No primeiro semestre de 2024, tomamos as seguintes medidas em relação aos anúncios denunciados a nós na UE:


b) Moderação de conteúdo realizada por iniciativa própria da Snap 
(Artigo 15.1(c))


Além de analisar as notificações enviadas em conformidade com o Artigo 16 do RSD, a Snap realiza, por sua própria iniciativa, a moderação do conteúdo nas plataformas públicas do Snapchat (por exemplo, Spotlight e Discover). A seguir, fornecemos informações sobre a moderação de conteúdo realizada por iniciativa própria da Snap, incluindo o uso de ferramentas automatizadas, as medidas tomadas para fornecer treinamento e assistência às pessoas responsáveis pela moderação de conteúdo e a quantidade e tipos de restrições impostas como resultado desses esforços proativos de moderação de conteúdo.


  • Uso de ferramentas automatizadas na moderação por iniciativa própria da Snap


Implantamos ferramentas automatizadas para detectar proativamente e, em alguns casos, aplicar penalidades às violações de nossos termos e políticas em nossas plataformas de conteúdo público. Isso inclui ferramentas de correspondência de hash (incluindo PhotoDNA e Google CSAI Match), modelos de Detecção de Linguagem Abusiva (que detectam e rejeitam conteúdo com base em uma lista identificada e atualizada regularmente de palavras-chave e emojis abusivos) e tecnologia de inteligência artificial/aprendizado de máquina. Nossas ferramentas automatizadas são projetadas para detectar violações de nossas Diretrizes Comunitárias (que, entre outras coisas, proíbem conteúdo ilegal) e, quando aplicável, nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações e Políticas de Publicidade. 


No primeiro semestre de 2024, a totalidade de nossa detecção proativa utilizou ferramentas automatizadas. Quando nossas ferramentas automatizadas detectam uma possível violação de nossas políticas, executam automaticamente as medidas previstas em nossas políticas ou criam uma tarefa para revisão humana. A quantidade e os tipos de restrições impostas como resultado desse processo estão descritos abaixo. 


  • Quantidade e tipos de restrições impostas por iniciativa própria da Snap


No primeiro semestre de 2024, a Snap realizou as seguintes sanções após detectar proativamente, por ferramentas automatizadas, violações de nossas Diretrizes comunitárias (incluindo violações que representam conteúdo e atividades ilegais sob as leis da UE e dos Estados-Membros):

Além disso, no primeiro semestre de 2024, no tocante ao conteúdo em nossos espaços de divulgação pública, tomamos as seguintes medidas em caso de detecção proativa no Snapchat, pelo uso de ferramentas automatizadas, de violações das nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações:

* Conforme declarado em nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações, contas que violem repetida ou flagrantemente nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações podem ser desqualificadas de forma temporária ou permanente das recomendações de nossas plataformas de divulgação pública. Nós aplicamos essa ação no contexto de nossos esforços proativos de moderação.

Além disso, no primeiro semestre de 2024, tomamos as seguintes medidas após detecção proativa no Snapchat de violações de nossas Políticas de Publicidade, utilizando ferramentas automatizadas:

  • Medidas tomadas para fornecer treinamento e assistência às pessoas responsáveis pela moderação de conteúdo


Nossas equipes de moderação de conteúdo aplicam nossas políticas de moderação de conteúdo para ajudar a proteger nossa comunidade do Snapchat. Essas equipes são treinadas por um período de várias semanas, durante o qual os novos membros da equipe aprendem sobre as políticas, ferramentas e procedimentos de encaminhamento da Snap. Nossas equipes de moderação participam regularmente de treinamentos de atualização relevantes para os seus fluxos de trabalho, especialmente para casos limite e que dependam de interpretação do contexto. Realizamos também programas de melhora das qualificações profissionais, sessões de certificação e questionários para garantir que todos os moderadores estejam em conformidade com todas as políticas atualizadas. Por fim, na ocorrência de tendências de conteúdo urgentes baseadas em eventos do momento, divulgamos rapidamente esclarecimentos de políticas para que as equipes possam responder de acordo com as políticas da Snap.


Fornecemos às nossas equipes de moderação de conteúdo um conjunto significativo de apoio e recursos, incluindo apoio ao bem-estar no trabalho e acesso facilitado a serviços de saúde mental. 

c) Reclamações recebidas pelos sistemas internos de tratamento de reclamações (ou seja, recursos) da Snap 
(Artigo 15.1(d))


Os usuários que tiverem suas contas bloqueadas por nossas equipes de segurança devido a violações das Diretrizes comunitárias (incluindo conteúdo e atividades ilegais) podem apresentar um recurso contra bloqueio de conta. Os usuários podem também recorrer contra decisões de moderação de conteúdo.

Durante o período do relatório (primeiro semestre de 2024), a Snap processou os seguintes recursos (incluindo recursos contra bloqueio de contas e decisões de moderação de conteúdo) enviados por seus sistemas internos de tratamento de reclamações na UE:

d) Uso de meios automatizados para fins de moderação de conteúdo 
(Artigos 15.1(e) e 42.2(c))

  • Descrição qualitativa e fins


Conforme explicado acima na Seção 3(b), nós implantamos ferramentas automatizadas para detectar proativamente e, em alguns casos, penalizar violações de nossos termos e políticas em nossas plataformas de conteúdo público. Isso inclui ferramentas de correspondência de hash (incluindo PhotoDNA e Google CSAI Match), modelos de Detecção de Linguagem Abusiva (que detectam e rejeitam conteúdo com base em uma lista identificada e atualizada regularmente de palavras-chave e emojis abusivos) e tecnologia de inteligência artificial/aprendizado de máquina. Nossas ferramentas automatizadas são projetadas para detectar violações de nossas Diretrizes Comunitárias (que, entre outras coisas, proíbem conteúdo ilegal) e, quando aplicável, nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações e Políticas de Publicidade. 

Quando nossas ferramentas automatizadas detectam uma possível violação de nossas políticas, elas automaticamente executam as medidas previstas em nossas políticas ou criam uma tarefa para revisão humana. 

  • Indicadores de precisão e possível taxa de erro, discriminados por Estado-Membro


Monitoramos a precisão de nossas ferramentas automatizadas de moderação selecionando amostras aleatórias das tarefas processadas por nossas ferramentas automatizadas em nossas plataformas públicas e enviando-as para revisão adicional por nossas equipes de moderação humana. A taxa de precisão é a porcentagem de tarefas dessas amostras aleatórias confirmadas por nossos moderadores humanos após nova revisão. A taxa de erro é a diferença entre 100% e a taxa de precisão calculada, conforme descrito acima. 

Com base nas amostragens, no primeiro semestre de 2024, os indicadores de precisão dos meios automatizados usados em todas as categorias de violação foram de aproximadamente 93%, com taxa de erro de aproximadamente 7%. 

De forma geral, não rastreamos o idioma do conteúdo que moderamos no Snapchat; dessa forma, não podemos fornecer a discriminação das taxas de precisão e erro de nossas ferramentas automatizadas de moderação para cada idioma oficial dos Estados-Membros.  Como medida indireta dessa informação, fornecemos abaixo uma discriminação das nossas taxas de precisão e erro para conteúdo automaticamente moderado proveniente de cada Estado-Membro. 

  • Salvaguardas


Estamos cientes do impacto potencial das ferramentas automatizadas de moderação sobre os direitos fundamentais e implantamos proteções para minimizar esse impacto.

Nossas ferramentas automatizadas de moderação de conteúdo são testadas antes de serem implantadas no Snapchat. Os modelos têm seu desempenho testado offline e são implantados por meio de testes A/B para garantir o seu funcionamento adequado antes de serem totalmente integrados à produção. Realizamos revisões de Garantia de Qualidade (QA) anteriores à implantação, revisões na implantação e verificações contínuas de QA durante implantações parciais (por fases). 

Após a implantação de nossas ferramentas automatizadas, avaliamos seu desempenho e precisão de forma contínua, fazendo ajustes conforme necessário. Esse processo envolve uma nova revisão de amostras das tarefas automatizadas por nossos moderadores humanos, com o objetivo de identificar modelos que exijam ajustes para a melhoria da precisão. Monitoramos também a prevalência de danos específicos no Snapchat fazendo amostragens diárias aleatórias de histórias públicas, usando essas informações para identificar áreas que possam ser melhoradas ainda mais. 

Nossas políticas e sistemas promovem uma aplicação consistente e justa das sanções, inclusive por nossas ferramentas automatizadas, e fornecem aos Snapchatters a oportunidade de contestar essas sanções justificadamente por processos de notificação e recurso que visam proteger os interesses da nossa comunidade e, ao mesmo tempo, os direitos do Snapchatter.

Nos esforçamos para melhorar continuamente as nossas ferramentas automatizadas de moderação de conteúdo para melhorar sua precisão e dar suporte à aplicação consistente e justa de nossas políticas.

e) Contestações enviadas aos órgãos extrajudiciais de resolução de litígios conforme o Artigo 21
(Artigo 24.1(a))

Durante o período do relatório (primeiro semestre de 2024), a quantidade de contestações enviadas aos órgãos de solução extrajudicial de litígios formalmente certificados de acordo com o Artigo 21 do RSD foi zero (0); dessa forma, não podemos apresentar uma discriminação de resultados, dos tempos médios de conclusão ou da participação em litígios nos quais a Snap tenha implementado decisões de um órgão de solução extrajudicial de litígios. 

Observe que, no primeiro semestre de 2024, recebemos duas (2) notificações de litígio enviadas a um órgão que busca a certificação como órgão extrajudicial de solução de litígios sob o Artigo 21 da RSD. Não incluímos essas contestações na contagem acima porque o órgão que enviou essas notificações de litígio não conseguiu comprovar seu status de certificação após nossa solicitação.

f) Suspensões impostas em conformidade com o Artigo 23 
(Artigo 24.1(b))
  • Suspensões previstas no Artigo 23.1: suspensão de contas que fornecem frequentemente conteúdo manifestamente ilegal 

Conforme descrito em nossas Explicações sobre moderação, aplicação e recursos do Snapchat, as contas que identificarmos como sendo usadas principalmente para violar nossas Diretrizes comunitárias (incluindo o fornecimento de conteúdo manifestamente ilegal) e as contas que perpetrarem danos graves serão desativadas de imediato. Para outras violações de nossas Diretrizes comunitárias, a Snap geralmente aplica um processo de aplicação de sanções em três partes:

  • Passo um: o conteúdo em violação é removido.

  • Passo dois: o Snapchatter recebe uma notificação que indica que houve uma violação de nossas Diretrizes comunitárias, que esse conteúdo foi removido e que violações repetidas resultarão em sanções adicionais, incluindo a desativação de sua conta.

  • Passo três: nossa equipe registra um strike contra a conta do Snapchatter.

Informações sobre a quantidade de strikes (ou seja, advertências) e bloqueios impostos no primeiro semestre de 2024 a contas na UE em relação a conteúdo ou atividades nas plataformas públicas do Snapchat podem ser encontradas acima, nas Seções 3(a) e 3(b).

  • Suspensões previstas no Artigo 23.2: suspensão relacionada ao processamento de notificações e reclamações de indivíduos, entidades e reclamantes que frequentemente enviam notificações ou reclamações manifestamente infundadas

A aplicação da nossa definição interna de notificações e reclamações “manifestamente infundadas”, e nossos limites internos para o que consideramos ser o envio frequente de tais notificações e reclamações, a quantidade de suspensões pelo processamento de notificações e reclamações impostas no primeiro semestre de 2024 de acordo com o Artigo 23.2 do RSD é a seguinte:

4. Informações sobre nossas equipes de moderação de conteúdo 
a) Recursos humanos dedicados à moderação de conteúdo, inclusive para conformidade com os Artigos 16, 20 e 22 do RSD, discriminados por idiomas oficiais dos Estados-Membros
(Artigo 42.2(a))


Nossas equipes de moderação de conteúdo operam em todo o mundo, o que nos permite ajudar a manter a segurança dos Snapchatters 24 horas por dia, 7 dias por semana. Abaixo, você encontrará o detalhamento dos nossos recursos de moderação humana por idioma dos moderadores (observe que alguns moderadores são especializados em vários idiomas) a partir de 30 de junho de 2024:

O quadro acima inclui todos os recursos humanos dedicados à moderação de conteúdo que dão suporte às línguas oficiais dos Estados-Membros da UE a partir de 30 de junho de 2024. Em situações nas quais precisamos de suporte adicional de idiomas, usamos serviços de tradução.

b) Qualificações e experiência linguística dos moderadores de conteúdo; treinamento e apoio fornecidos
(Artigo 42.2(b))


Os moderadores são recrutados conforme uma descrição de trabalho padrão, que inclui o requisito do idioma (dependendo da necessidade). O requisito de idioma afirma que o candidato deve ser capaz de demonstrar fluência escrita e de fala no idioma e ter pelo menos um ano de experiência de trabalho para cargos de nível de entrada. Os candidatos também devem atender aos requisitos educacionais e de histórico para serem considerados. Os candidatos também devem demonstrar um entendimento dos eventos atuais do país ou região onde oferecerão suporte à moderação de conteúdo.

Veja acima as informações sobre o treinamento e o apoio que a Snap fornece aos moderadores de conteúdo, exigido separadamente pelo Artigo 15(1)(c) do RSA e, dessa forma, incluído na Seção 3(b), na subseção final: “Medidas tomadas para fornecer treinamento e assistência às pessoas responsáveis pela moderação de conteúdo

Relatório de monitoramento de mídia sobre exploração e abuso sexual infantil


Fundamentos

A exploração sexual de qualquer membro da nossa comunidade, especialmente menores, é ilegal, repugnante e proibida pelas nossas Diretrizes Comunitárias. A prevenção, detecção e erradicação de Exploração Sexual e Abuso Infantil em nossa plataforma é uma prioridade para o Snap, e evoluímos continuamente nossas capacidades para combater esses e outros tipos de crimes.


Usamos o método robusto de detecção de hash-matching do PhotoDNA e a tecnologia de detecção de Imagens de Abuso Sexual Infantil (CSAI) da Google para identificar imagens e vídeos contendo abuso infantil e denunciamos ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, se articula com as autoridades nacionais ou internacionais, conforme necessário.


Relatório

Os dados abaixo são fundamentados no resultado de uma varredura proativa usando PhotoDNA e/ou CSAI Match de mídias enviadas pelo rolo da câmera de um usuário no Snapchat.

Parar a exploração sexual infantil é de alta prioridade. A Snap dedica fundos significativos para isso e tem tolerância zero para tal conduta.  É necessário treinamento especial para revisar os recursos de exploração sexual infantil, e há uma equipe limitada de agentes que lidam com essas análises devido à natureza gráfica do conteúdo.  Durante o outono de 2023, a Snap implementou alterações nas políticas que afetaram a consistência de determinadas imposições contra esse tipo de exploração, e resolvemos essas inconsistências por meio de retreinamento de agentes e garantia de qualidade rigorosa.  Esperamos que o próximo relatório de transparência revele o progresso na melhoria dos tempos de resposta para denúncias e recursos de abuso sexual infantil e melhorando a precisão das penalidades iniciais.  

Proteções de moderação de conteúdo

As proteções aplicadas para o escaneamento de mídia de abuso sexual infantil estão estabelecidas na seção “Proteções de moderação de conteúdo” acima em nosso Relatório do RSD.


Relatório de transparência online sobre conteúdo terrorista da União Europeia

Publicado em: 17 de junho de 2024

Última atualização: 17 de junho de 2024

Este Relatório de transparência é publicado em conformidade com os artigos 7(2) e 7(3) do Regulamento 2021/784 do Parlamento Europeu e do Conselho da UE, abordando a disseminação de conteúdo terrorista online (o Regulamento). O relatório abrange o período de 1º de janeiro a 31 de dezembro de 2023


Informações gerais
  • Artigo 7(3)(a): informações sobre as medidas do provedor de serviços de hospedagem sobre a identificação e remoção ou desabilitação de acesso a conteúdo terrorista

  • Artigo 7(3)(b): informações sobre as medidas tomadas pelo provedor de serviços de hospedagem para lidar com o reaparecimento online de material anteriormente removido ou que teve seu a acesso desabilitado por ser considerado conteúdo terrorista, em especial quando tiverem sido usadas ferramentas automatizadas


Terroristas, organizações terroristas e extremistas violentos são proibidos de usar o Snapchat. Conteúdo que defenda, promova, glorifique ou apoie terrorismo ou outros atos criminosos violentos é proibido sob nossas Diretrizes comunitárias. Os usuários podem denunciar conteúdo que viole nossas Diretrizes comunitárias pelo nosso menu de denúncia do aplicativo e pelo nosso site de suporte. Usamos também detecção proativa para tentar identificar conteúdo infrator em plataformas públicas como ​​Spotlight e Descubra. 


Independentemente da forma como tomamos conhecimento do conteúdo infrator, nossas equipes de Confiança e Segurança, utilizando uma combinação de automação e moderação humana, revisam prontamente o conteúdo identificado e tomam decisões sobre a medida a ser tomada. As sanções podem incluir a remoção do conteúdo, advertência ou o bloqueio da conta infratora e, se justificada, a denúncia da conta às autoridades policiais. Para evitar o reaparecimento de conteúdo terrorista ou outro conteúdo extremista violento no Snapchat, além de trabalhar com as autoridades policiais, tomamos medidas para bloquear o dispositivo associado à conta infratora e impedir que o usuário crie outra conta do Snapchat. 


Detalhes adicionais sobre nossas medidas de identificação e remoção de conteúdo terrorista podem ser encontrados em nossas Explicações sobre conteúdo de ódio, terrorismo e extremismo violento e nossas Explicações sobre moderação, aplicação e recursos



Relatórios e sanções 
  • Artigo 7(3)(c): a quantidade de itens de conteúdo terrorista removidos ou aos quais o acesso foi desabilitado após ordens de remoção ou medidas específicas, e a quantidade de ordens de remoção que não causaram a remoção do conteúdo ou a desabilitação do acesso nos termos da primeira alínea do artigo 3(7) e a primeira alínea do artigo 3(8), juntamente com os motivos para isso


Durante o período do relatório, a Snap não recebeu nenhuma ordem de remoção, nem fomos obrigados a implementar quaisquer medidas específicas previstas no Artigo 5 do Regulamento. Dessa forma, não fomos obrigados a impor sanções sob o Regulamento.


O quadro a seguir descreve as sanções impostas com base em denúncias de usuários e detecção proativa de conteúdo e contas, tanto na UE quanto em outras áreas do mundo, que tenham violado nossas Diretrizes comunitárias com relação a conteúdo de terrorismo e extremismo violento

Recursos contra sanções
  • Artigo 7(3)(d): a quantidade e o resultado das reclamações tratadas pelo provedor de serviços de hospedagem em conformidade com o Artigo 10

  • Artigo 7(3)(g): a quantidade de casos em que o provedor de serviços de hospedagem reintegrou conteúdo ou acesso a ele após uma reclamação do provedor de conteúdo


Como não tivemos nenhuma sanção exigida sob o Regulamento durante o período do relatório, conforme observado acima, não tratamos nenhuma reclamação prevista no Artigo 10 do Regulamento e não tivemos nenhuma reintegração associada.


O quadro a seguir contém informações relacionadas a recursos e reintegrações, tanto na UE quanto em outras áreas do mundo, envolvendo conteúdo terrorista e extremista violento penalizado sob nossas Diretrizes comunitárias.

Ações e recursos judiciais
  • Artigo 7(3)(e): a quantidade e os resultados dos processos de revisão administrativa ou judicial movidos pelo provedor de serviços de hospedagem

  • Artigo 7(3)(f): a quantidade de casos nos quais o provedor de serviços de hospedagem foi obrigado a reintegrar conteúdo ou acesso a ele como resultado de processos de revisão administrativa ou judicial


Como não tivemos nenhuma sanção exigida sob o Regulamento durante o período do relatório, conforme observado acima, não tivemos nenhum processo administrativo ou judicial de revisão associado, nem fomos obrigados a reintegrar conteúdo como resultado de qualquer processo desse tipo.

Avaliação de risco do RSD

Esse relatório foi preparado para atender às obrigações da Snap sob os Artigos 34 e 35 do Regulamento (UE) 2022/2065 e fornece os resultados da nossa avaliação de riscos do sistema decorrentes do design, função e uso das plataformas online do Snapchat, juntamente com a metodologia usada para avaliar esses riscos e as medidas de mitigação adotadas para lidar com eles.


Relatório de avaliação e mitigação de riscos do RSD | Snapchat | agosto de 2023 (PDF)


Auditoria do RSD e implementação da auditoria

Esses relatórios foram preparados para atender às obrigações da Snap sob o Artigo 37 do Regulamento (UE) 2022/2065 e fornecem: (i) os resultados da auditoria independente de conformidade da Snap com as obrigações estabelecidas no Capítulo III do Regulamento (UE) 2022/2065 e (ii) as medidas tomadas para implementar as recomendações operacionais dessa auditoria independente.

Relatório de auditoria independente do RSD | Snapchat | agosto de 2024 (PDF)

Relatório de implementação da auditoria do RSD| Snapchat | setembro de 2024 (PDF)



Código de Práticas de PCV da UE

A Snap é uma provedora de “serviço de plataforma de compartilhamento de vídeos” (”PCV”) nos termos do Artigo 1(1)(aa) da AVMSD. Este Código de Conduta (“Código”) foi preparado para descrever como a Snap cumpre suas obrigações como PCV sob a Lei de Mídia Holandesa (“DMA”) e a Diretiva (UE) 2010/13 (conforme alterada pela Diretiva (UE) 2018/1808 (a “Diretiva de Serviços de Mídia Audiovisual” ou “AVMSD”)). O Código é aplicável em toda a União Europeia, bem como no Espaço Econômico Europeu.

Código de Conduta de PCV da UE | Snapchat | dezembro de 2024 (PDF)