Boas-vindas à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pelo Regulamento dos Serviços Digitais (RSD), pela Diretiva Serviços de Comunicação Social Audiovisual (AVMSD), pela Lei de Mídia Neerlandesa (DMA) e pelo Regulamento Online de Conteúdo Terrorista (TCO). Observe que a versão mais atualizada deste relatório de transparência pode ser encontrada em inglês (en-US).
A Snap Group Limited nomeou a Snap B.V. como sua representante legal para os objetivos do RSD. Você pode entrar em contato com a representante no endereço dsa-enquirie@snapchat.com para o RSD, no endereço vsp-enquiries@snapchat.com para AVMSD e DMA, no endereço tco-enquiries@snapchat.com para o TCO, por meio de nosso Site de Suporte [aqui], ou em:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Baixos
Se você for uma agência de aplicação da lei, siga os passos descritos aqui.
Comunique-se em inglês ou neerlandês ao entrar em contato conosco.
Para o RSD, somos regulados pela Comissão Europeia e pela Autoridade Neerlandesa para Consumidores e Mercados (Authority for Consumers and Markets, ACM). Para o AVMSD e o DMA, somos regulamentados pela Autoridade de Mídia Neerlandesa (CvdM). Para o TCO, somos regulamentados pela Autoridade Neerlandesa para a prevenção de conteúdo terrorista online e material de abuso sexual infantil (ATKM).
Publicado: 29 de agosto de 2025
Última atualização: 29 de agosto de 2025
Ciclo de denúncia: de 1 de janeiro de 2025 a 30 de junho de 2025
Publicamos este relatório de acordo com os requisitos de transparência de denúncia fornecidos nos Artigos 15, 24 e 42 da Lei de Serviços Digitais da União Europeia (UE) [Regulamento (UE) 2022/2065] (“DSA”). Exceto quando indicado em contrário, as informações contidas neste relatório são para o período de denúncia de 1º de janeiro de 2025 a 30 de junho de 2025 (primeiro semestre de 2025).
Em 30 de junho de 2025, tivemos 94,7 milhões de destinatários ativos mensais ("AMAR") em média em nosso aplicativo Snapchat na UE. Isso significa que, em média, no período de seis meses encerrado em 30 de junho de 2025, 94,7 milhões de usuários registrados na UE abriram o aplicativo Snapchat pelo menos uma vez durante um determinado mês.
Esse número se divide por Estado-Membro da seguinte forma:
Esses números foram calculados para cumprir os requisitos atuais da DSA e somente devem ser considerados para os objetivos da DSA. Mudamos a forma como contabilizamos esse número ao longo do tempo, inclusive em resposta a mudanças nas políticas internas, orientações dos reguladores e tecnologia; dessa forma, esses números não devem ser utilizados para comparações entre períodos. Esse número pode também ser diferente dos cálculos usados para outros números de usuário ativos que publicamos para outros fins.
Durante o período de denúncia (primeiro semestre de 2025), recebemos zero (0) pedidos de ação contra conteúdos ilegais identificados especificamente pelas autoridades dos Estados-membros da UE, incluindo aqueles emitidos de acordo com o Artigo 9 da DSA.
Como esse número é zero (0), não podemos fornecer uma discriminação por tipo de conteúdo ilegal em questão, por Estado-membro emissor do pedido, ou tempos médios de confirmação do recebimento ou de efetivação dos pedidos.
Durante esse período de denúncia (primeiro semestre de 2025), recebemos o seguinte número de solicitações (não incluindo solicitações de divulgação de emergência) para divulgação de dados de usuários das autoridades dos Estados-membros da UE, incluindo aquelas emitidas de acordo com o Artigo 10 da DSA:
O tempo médio para informar as autoridades responsáveis sobre o recebimento desses pedidos de fornecimento de informações foi de menos de um minuto — fornecemos uma resposta automatizada confirmando o recebimento.
O tempo médio de atendimento a esses pedidos de fornecimento de informações foi de menos de 14 dias. Essa métrica reflete o intervalo de tempo entre o momento em que a Snap recebeu um pedido até o momento em que a Snap considerou o assunto como sendo totalmente resolvido, o que, em casos individuais, pode depender em parte do tempo de resposta da autoridade do Estado-Membro em questão à solicitação de esclarecimento da Snap necessária para processar o pedido.
Observe que não fornecemos um detalhamento desses pedidos de fornecimento de informação por categoria de tipo de conteúdo ilegal em questão, pois, de forma geral, essas informações não estão disponíveis para nós.
Todo o conteúdo presente no Snapchat deve obedecer às nossas Diretrizes Comunitárias e aos nossos Termos de Serviço. Determinados tipos de conteúdo devem também estar em conformidade com diretrizes e políticas adicionais. Por exemplo, qualquer conteúdo enviado para recomendação algorítmica a um público mais amplo em nossas plataformas de divulgação pública deve atender a padrões adicionais mais elevados em nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações, enquanto os anúncios devem estar em conformidade com nossas Políticas de Publicidade.
Nós aplicamos essas políticas usando tecnologia e revisão humana. Fornecemos também mecanismos para que usuários e não usuários denunciem violações, incluindo conteúdo e atividades ilegais, diretamente no aplicativo ou pelo nosso site. Também usamos tecnologia proativa de detecção de danos. Mecanismos proativos de detecção e denúncias levam a uma revisão, que pode, então, usar uma combinação de ferramentas automatizadas e moderadores humanos para adotar as medidas apropriadas de acordo com nossas políticas.
A seguir, fornecemos mais informações sobre nossa moderação de conteúdo no primeiro semestre de 2025.
Em conformidade com o Artigo 16 do RSD, a Snap implementou mecanismos que permitem que usuários e não usuários notifiquem a Snap sobre a presença no Snapchat de informações específicas que considerem conteúdo ilegal. Essa notificação pode ser feita por denúncia de conteúdos específicos ou contas, seja diretamente no aplicativo Snapchat ou em nosso site.
Quando forem enviar notificações no aplicativo ou pelo nosso site, os denunciantes podem escolher o motivo específico da denúncia em um menu de opções que mostra as categorias de violação relacionadas em nossas Diretrizes Comunitárias (por exemplo, discurso de ódio, drogas). Nossas Diretrizes Comunitárias, que são baseadas em nossos valores, geralmente abrangem categorias de conteúdo e atividades ilegais na UE. Portanto, nossas opções de denúncia, em alguns casos, incluem categorias de conteúdo ilegal na UE. Entretanto, caso um denunciante na UE acredite que o conteúdo ou a conta que está denunciando seja ilegal por motivos não especificamente mencionados em nosso menu, poderá classificar sua denúncia como “outro conteúdo ilegal” e explicar por que acredita que o que está denunciando é ilegal.
Durante o período de denúncia (primeiro semestre de 2025), recebemos as seguintes denúncias de usuários que acreditamos que estão na UE:
A seguir, fornecemos mais detalhes sobre como essas denúncias foram processadas — ou seja, por um processo que inclui revisão humana ou exclusivamente por meios automatizados:
Se, após revisão, determinarmos que o conteúdo ou a conta denunciada viola nossas Diretrizes Comunitárias ou foi considerado ilegal por outro motivo, podemos (i) remover o conteúdo ofensivo, (ii) advertir o titular da conta em questão e aplicar um strike contra a conta e/ou (iii) bloquear a conta em questão, conforme descrito em maiores detalhes em nossas Explicações sobre Moderação, Execução e Recursos do Snapchat.
No primeiro semestre de 2025, adotamos as seguintes medidas punitivas após o recebimento de notificações enviadas de usuários que acreditamos que estão na UE:
Observação: o total de notificações enviadas, discriminadas por tipo de violação no gráfico acima, não inclui todas as denúncias feitas por meio de nosso Site de Suporte. O Site de Suporte informa que atribuímos aos denunciantes da UE aproximadamente 0,4% do volume total de notificações da UE. Pretendemos incluir esses relatos do Site de Suporte em nossos cálculos no futuro.
No primeiro semestre de 2025, todas as denúncias indicadas como “outro conteúdo ilegal” que tratamos foram executadas sob nossas Diretrizes Comunitárias porque essas Diretrizes Comunitárias proibiram o conteúdo ou atividade relevante. Dessa forma, categorizamos essas execuções sob a categoria relevante de violação das Diretrizes Comunitárias na tabela acima.
Além das sanções acima, podemos agir contra o conteúdo notificado a nós em conformidade com outras políticas e diretrizes aplicáveis da Snap:
Com relação ao conteúdo em nossas superfícies de transmissão pública, se determinarmos que o conteúdo denunciado não atende aos critérios de Diretrizes de Conteúdo para Elegibilidade a Recomendações, podemos rejeitar o conteúdo para recomendação algorítmica ou podemos limitar a distribuição do conteúdo para excluir certos públicos (se o conteúdo atender aos nossos critérios de elegibilidade a recomendações, mas for confidencial ou sugestivo de outra forma).
No primeiro semestre de 2025, adotamos as seguintes medidas com relação ao conteúdo nas plataformas de divulgação pública do Snapchat que nos foi denunciado na UE, de forma consistente com nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações:
Se determinarmos que um anúncio denunciado viola nossas Políticas de Publicidade, podemos removê-lo após revisão.
No primeiro semestre de 2025, adotamos as seguintes medidas com relação a anúncios denunciados a nós por usuários que acreditamos que estão na UE:
Além de revisar avisos enviados de acordo com o Artigo 16 do RSD, a Snap também realiza moderação de conteúdo por iniciativa própria. A seguir, fornecemos informações sobre a moderação de conteúdo realizada por iniciativa própria da Snap, incluindo o uso de ferramentas automatizadas, as medidas tomadas para fornecer treinamento e assistência às pessoas responsáveis pela moderação de conteúdo e a quantidade e tipos de restrições impostas como resultado desses esforços proativos de moderação de conteúdo.
Uso de ferramentas automatizadas na moderação por iniciativa própria da Snap
Implantamos ferramentas automatizadas para detectar proativamente e, em alguns casos, aplicar medidas contra violações de nossos termos e políticas. Essas ferramentas incluem ferramentas de correspondência de hash (incluindo o PhotoDNA e o Google CSAI Match), a API de Segurança de Conteúdo do Google, modelos de Detecção de Linguagem Abusiva (que detectam e rejeitam conteúdo com base em uma lista identificada e regularmente atualizada de palavras-chave e emojis abusivos), outras tecnologias personalizadas projetadas para detectar textos e emojis abusivos e tecnologias que aproveitam a inteligência artificial, incluindo o aprendizado de máquina e grandes modelos de linguagem. Nossas ferramentas automatizadas são projetadas para detectar violações de nossas Diretrizes Comunitárias e, quando aplicável, nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações e Políticas de Publicidade.
No primeiro semestre de 2025, praticamente toda a nossa detecção proativa utilizou ferramentas automatizadas. (Em alguns casos, nossa equipe de Confiança e Segurança detectou manualmente conteúdo que era ilegal e/ou violava as políticas da Snap, que foi investigado e executado de acordo com as políticas da Snap e/ou leis relevantes.) Quando nossas ferramentas automatizadas detectam uma possível violação de nossas políticas, executam automaticamente as medidas previstas em nossas políticas ou criam uma tarefa para revisão humana. A quantidade e os tipos de restrições impostas como resultado desse processo estão descritos abaixo.
Quantidade e tipos de restrições impostas por iniciativa própria da Snap
No primeiro semestre de 2025, a Snap tomou as seguintes medidas de execução após detectar proativamente violações de nossas Diretrizes Comunitárias:
Além disso, no primeiro semestre de 2025, com relação ao conteúdo em nossas plataformas de divulgação pública, adotamos as seguintes medidas após detectar proativamente violações de nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações com o uso de ferramentas automatizadas:
* Conforme declarado em nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações, contas que violem repetida ou flagrantemente nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações podem ser desqualificadas de forma temporária ou permanente das recomendações de nossas plataformas de divulgação pública. Nós aplicamos essa ação no contexto de nossos esforços proativos de moderação.
Além disso, no primeiro semestre de 2025, adotamos as seguintes medidas após detectar proativamente violações de nossas Políticas de Publicidade com o uso de ferramentas automatizadas:
Medidas tomadas para fornecer treinamento e assistência às pessoas responsáveis pela moderação de conteúdo
Nossas equipes de moderação de conteúdo aplicam nossas políticas de moderação de conteúdo para ajudar a proteger nossa comunidade do Snapchat. Essas equipes são treinadas por um período de várias semanas, durante o qual os novos membros da equipe aprendem sobre as políticas, ferramentas e procedimentos de encaminhamento da Snap. Nossas equipes de moderação participam de treinamentos de atualização relevantes para os seus fluxos de trabalho, especialmente para casos limite e que dependam de interpretação do contexto. Também realizamos programas de melhora das qualificações profissionais e sessões de certificação, e administramos questionários para garantir que todos os moderadores estejam em conformidade com todas as políticas atualizadas. Por fim, na ocorrência de tendências de conteúdo urgentes baseadas em eventos do momento, divulgamos rapidamente esclarecimentos de políticas para que as equipes possam responder de acordo com as políticas da Snap.
Fornecemos às nossas equipes de moderação de conteúdo um conjunto significativo de apoio e recursos, incluindo apoio ao bem-estar no trabalho e acesso facilitado a serviços de saúde mental
Os usuários que tiverem suas contas bloqueadas por nossas equipes de segurança devido a violações das Diretrizes Comunitárias (incluindo conteúdo e atividades ilegais) podem apresentar um recurso contra bloqueio de conta. Os usuários podem também recorrer contra decisões de moderação de conteúdo.
Durante o período de denúncia (primeiro semestre de 2025), a Snap processou os seguintes recursos (incluindo recursos contra bloqueio de contas e decisões de moderação de conteúdo) enviados por seus sistemas internos de tratamento de reclamações na UE:
Descrição qualitativa e fins
Conforme explicado acima na Seção 3(b), nós implantamos ferramentas automatizadas para detectar proativamente e, em alguns casos, penalizar violações de nossos termos e políticas. Essas ferramentas incluem ferramentas de correspondência de hash (incluindo o PhotoDNA e o Google CSAI Match), a API de Segurança de Conteúdo do Google, modelos de Detecção de Linguagem Abusiva (que detectam e rejeitam conteúdo com base em uma lista identificada e regularmente atualizada de palavras-chave e emojis abusivos), outras tecnologias personalizadas projetadas para detectar textos e emojis abusivos e tecnologias que aproveitam a inteligência artificial, incluindo o aprendizado de máquina e grandes modelos de linguagem. Nossas ferramentas automatizadas são projetadas para detectar violações de nossas Diretrizes Comunitárias (que, entre outras coisas, proíbem conteúdo ilegal) e, quando aplicável, nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações e Políticas de Publicidade.
Quando nossas ferramentas automatizadas detectam uma possível violação de nossas políticas, elas automaticamente executam as medidas previstas em nossas políticas ou criam uma tarefa para revisão humana.
Indicadores de precisão e possível taxa de erro, discriminados por Estado-Membro
Monitoramos indicadores da precisão e da possível taxa de erro de nossas ferramentas de moderação automatizada selecionando amostras aleatórias de tarefas processadas por nossas ferramentas automatizadas e enviando-as para reavaliação por nossas equipes de moderação humana. A taxa de precisão é o percentual de tarefas dessas amostras aleatórias que estão confirmadas como tendo as decisões de moderação corretas quando reavaliadas por moderadores humanos. A taxa de erro é a diferença entre 100% e a taxa de precisão calculada, conforme descrito acima.
Monitoramos a precisão e a possível taxa de erro para duas amplas categorias de ferramentas de moderação automatizada, a saber:
Ferramentas automatizadas que detectam e/ou penalizam violações de nossas Diretrizes Comunitárias e podem levar a sanções contra a conta de um usuário (por exemplo, avisos aplicados contra a conta ou o bloqueio da conta). Com base em amostragem, no primeiro semestre de 2025, a taxa de precisão dessas ferramentas automatizadas foi de aproximadamente 96%, e a taxa de erro foi de aproximadamente 4%.
Ferramentas automatizadas que detectam e/ou adotam medidas em relação ao conteúdo em nossas transmissões públicas com base em nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações. Com base em amostragem, no primeiro semestre de 2025, a taxa de precisão dessas ferramentas automatizadas foi de aproximadamente 88%, e a taxa de erro foi de aproximadamente 12%.
Com base em amostragem, no primeiro semestre de 2025, a taxa de precisão combinada das ferramentas automatizadas usadas em ambas as categorias descritas acima foi de aproximadamente 90%, e a taxa de erro foi de aproximadamente 10%.
De forma geral, não rastreamos o idioma do conteúdo que moderamos no Snapchat; dessa forma, não podemos fornecer a discriminação das taxas de precisão e erro de nossas ferramentas automatizadas de moderação para cada idioma oficial dos Estados-membros. Como indicador dessas informações, fornecemos a seguir um detalhamento de nossas taxas de precisão e de erro combinadas para conteúdo moderado automaticamente (tanto em nossas Diretrizes de Conteúdo para Elegibilidade a Recomendações) que acreditamos que é originário de cada Estado-membro.
Salvaguardas
Estamos cientes do impacto potencial das ferramentas automatizadas de moderação sobre os direitos fundamentais e implantamos proteções para ajudar a minimizar esse impacto.
Nossas ferramentas automatizadas de moderação de conteúdo são testadas antes de serem implantadas. Os modelos têm seu desempenho testado offline e são implantados por meio de testes A/B para garantir o seu funcionamento adequado antes de serem totalmente integrados à produção. Realizamos revisões de Garantia de Qualidade (QA) anteriores à implantação, revisões na implantação e verificações contínuas de QA durante implantações.
Após a implantação de nossas ferramentas automatizadas, avaliamos seu desempenho e precisão de forma contínua, fazendo ajustes conforme necessário. Esse processo envolve uma nova revisão de amostras das tarefas automatizadas por nossos moderadores humanos, com o objetivo de identificar modelos que exijam ajustes para a melhoria da precisão. Monitoramos também a predominância de danos específicos no Snapchat fazendo amostragens diárias aleatórias de determinado conteúdo público, usando essas informações para identificar áreas que possam ser melhoradas ainda mais.
Nossas políticas e sistemas promovem uma aplicação consistente e justa das sanções, inclusive por nossas ferramentas automatizadas, e fornecem aos Snapchatters a oportunidade de contestar essas sanções justificadamente por processos de notificação e recurso que visam proteger os interesses da nossa comunidade e, ao mesmo tempo, os direitos do Snapchatter.
Nós nos esforçamos para evoluir continuamente as nossas ferramentas automatizadas de moderação de conteúdo para melhorar sua precisão e dar apoio à execução consistente e justa de nossas políticas.
Para o período de denúncia (primeiro semestre de 2025), fornecemos as seguintes informações sobre disputas enviadas contra a Snap aos órgãos extrajudiciais de resolução de disputas mencionados no Artigo 21 da DSA:
A tabela acima reflete o status em 30 de junho de 2025 das disputas enviadas a órgãos extrajudiciais de resolução de disputas certificados, nos termos do Artigo 21 do DSA, durante o período de relatório (primeiro semestre de 2025). Em todas as métricas, incluímos casos recebidos pelo Snap, mesmo que fossem total ou parcialmente informações ausentes que o Snap solicitou e não recebeu até uma data posterior. No que diz respeito às disputas nas quais foi emitida uma decisão, incluímos apenas as decisões recebidas durante o período de denúncia. Da mesma forma, das três decisões a favor do reclamante, duas estão pendentes de recurso. Um recurso foi enviado com sucesso em um caso; no entanto, como a decisão revisada a favor do Snap foi emitida fora do período de denúncia relevante, esse caso continua a ser denunciado como uma decisão a favor do reclamante.
O tempo médio necessário para concluir os procedimentos de resolução de disputa foi calculado a partir da data em que o Snap recebe uma reclamação até a data em que a decisão do órgão do ODS é recebida.
Observe que não incluímos na tabela acima as reclamações que foram enviadas a um órgão certificado nos termos do Artigo 21, mas que o órgão relevante considerou inadmissíveis antes de transmiti-las ao Snap. Não podemos confirmar o número de disputas que se enquadram nessa categoria porque alguns, mas não todos, os órgãos certificados notificam a Snap sobre essas disputas. No entanto, estamos cientes de 28 reclamações que se enquadram nessa categoria no primeiro semestre de 2025.
Suspensões previstas no Artigo 23.1: suspensão de contas que fornecem frequentemente conteúdo manifestamente ilegal
Conforme descrito em nossas Explicações sobre Moderação, Execução e Recursos do Snapchat, as contas que identificarmos como sendo usadas principalmente para violar nossas Diretrizes Comunitárias (incluindo o fornecimento de conteúdo manifestamente ilegal) e as contas que perpetrarem danos graves serão prontamente desativadas. Para outras violações de nossas Diretrizes Comunitárias, a Snap geralmente aplica um processo de aplicação de sanções em três partes:
Passo um: o conteúdo em violação é removido.
Etapa dois: o usuário recebe uma notificação indicando que violou nossas Diretrizes Comunitárias, que seu conteúdo foi removido e que violações repetidas resultarão em ações de execução adicionais, incluindo a desativação de sua conta.
Etapa três: nossa equipe registra um strike contra a conta do usuário.
Informações sobre o número de strikes (ou seja, avisos) e bloqueios impostos em 2025 em contas na UE podem ser encontradas acima, nas Seções 3(a) e 3(b).
Suspensões previstas no Artigo 23.2: suspensão relacionada ao processamento de notificações e reclamações de pessoas físicas, pessoas jurídicas e reclamantes que frequentemente enviam notificações ou reclamações manifestamente infundadas
A aplicação da nossa definição interna de notificações e reclamações “manifestamente infundadas”, e nossos limites internos para o que consideramos ser o envio frequente de tais notificações e reclamações, a quantidade de suspensões pelo processamento de notificações e reclamações impostas no primeiro semestre de 2025 de acordo com o Artigo 23.2 do RSD é a seguinte:
Nossas equipes de moderação de conteúdo operam em todo o mundo, 24 horas por dia, 7 dias por semana, o que nos permite ajudar a manter nossa comunidade segura. Abaixo está o detalhamento de nossos recursos de moderação humana pelos idiomas dos moderadores (observe que alguns moderadores se especializam em vários idiomas, mas os moderadores multilíngues são contados apenas uma vez) em 30 de junho de 2025:
A tabela acima inclui todos os recursos humanos dedicados à moderação de conteúdo compatíveis com os idiomas oficiais dos Estados-membros da UE em 30 de junho de 2025. Em situações nas quais precisamos de suporte adicional de idiomas, usamos serviços de tradução.
Os moderadores são recrutados conforme uma descrição de trabalho padrão, que inclui o requisito do idioma (dependendo da necessidade). O requisito de idioma afirma que o candidato deve ser capaz de demonstrar fluência no idioma por escrito e falado e, para cargos de iniciante, os candidatos devem ter pelo menos um ano de experiência de trabalho. Os candidatos também devem atender aos requisitos educacionais e de histórico para serem considerados. Os candidatos também devem demonstrar um entendimento dos eventos atuais do país ou região onde oferecerão suporte à moderação de conteúdo.
Veja acima as informações sobre o treinamento e o apoio que a Snap fornece aos moderadores de conteúdo, exigido separadamente pelo Artigo 15(1)(c) da DSA e, dessa forma, incluído na Seção 3(b), na subseção final: “Medidas adotadas para fornecer treinamento e assistência às pessoas responsáveis pela moderação de conteúdo.”
Lançado em: 31 de janeiro de 2025
Última atualização: 31 de janeiro de 2025
Este relatório abrange o período que começa em 1º de janeiro de 2024 e termina em 31 de dezembro de 2024.
Fundamentos
A exploração sexual de qualquer membro da nossa comunidade, especialmente menores, é ilegal, repugnante e proibida pelas nossas Diretrizes Comunitárias. A prevenção, detecção e erradicação da exploração sexual e abuso infantil (do inglês, CSEA) em nossa plataforma é uma prioridade para a Snap, e evoluímos continuamente nossas capacidades no combate a esses e outros tipos de crimes.
As tecnologias que usamos incluem (a) a correspondência robusta de hash do PhotoDNA e a correspondência de imagens de abuso sexual infantil (CSAI) do Google para identificar imagens e vídeos ilegais conhecidos de CSEA, respectivamente; e (b) a API de Segurança de Conteúdo do Google para identificar imagens de CSEA novas e "nunca anteriormente usadas com hash". Denunciamos conteúdo relacionado a CSEA junto ao U.S. National Center for Missing and Exploited Children (NCMEC - Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA), conforme exigido por lei. A NCMEC, por sua vez, coordena com as autoridades policiais nos EUA e em outros países, conforme necessário.
Relatório
O gráfico abaixo inclui dados sobre detecção proativa e as sanções resultantes contra usuários da UE para imagens de CSEA durante 2024. (Observe que algumas sanções resultantes da dita varredura proativa em 2024 ainda podem estar sujeitas a recurso a partir do momento em que este relatório foi compilado e, portanto, não estariam refletidas nos dados de recursos e restabelecimentos abaixo).
*Esta categoria refere-se a sanções por violações das Diretrizes Comunitárias da Snap que proíbem a exploração sexual infantil. O conteúdo detectado proativamente, penalizado por outras violações das Diretrizes Comunitárias da Snap, não é abordado aqui.
**Uma penalização pode ser derrubada se determinarmos que ela estava errada com base em nossas políticas em vigor no momento da sua aplicação, ou se determinarmos que ela foi aplicada corretamente originalmente, mas nossa política aplicável mudou no momento de revisar a apelação.
Proteções de moderação de conteúdo
As salvaguardas aplicadas para a varredura de mídia CSEA estão estabelecidas acima, no Relatório de Transparência do DSA da UE.
Publicado: 28 de fevereiro de 2025
Última atualização: 28 de fevereiro de 2025
Ciclo de denúncia: 1 de janeiro de 2024 a 31 de dezembro de 2024
Este Relatório de transparência é publicado em conformidade com os artigos 7(2) e 7(3) do Regulamento 2021/784 do Parlamento Europeu e do Conselho da UE, abordando a disseminação de conteúdo terrorista online (o Regulamento). Ele cobre o período de denúncia de 1 de janeiro a 31 de dezembro de 2024.
Artigo 7(3)(a): informações sobre as medidas do provedor de serviços de hospedagem sobre a identificação e remoção ou desabilitação de acesso a conteúdo terrorista
Artigo 7(3)(b): informações sobre as medidas tomadas pelo provedor de serviços de hospedagem para lidar com o reaparecimento online de material anteriormente removido ou que teve seu a acesso desabilitado por ser considerado conteúdo terrorista, em especial quando tiverem sido usadas ferramentas automatizadas
O Snapchat tem uma incidência muito baixa de conteúdo terrorista e não recebeu uma ordem de remoção de acordo com o Regulamento em 2024.
Terroristas, organizações terroristas e extremistas violentos são proibidos de usar o Snapchat. Conteúdo que defenda, promova, glorifique ou apoie terrorismo ou outros atos criminosos violentos é proibido sob nossas Diretrizes comunitárias. Os usuários podem denunciar conteúdo que viole nossas Diretrizes comunitárias pelo nosso menu de denúncia do aplicativo e pelo nosso site de suporte. Usamos também detecção proativa para tentar identificar conteúdo infrator em plataformas públicas como Spotlight e Descubra.
Independentemente da forma como tomamos conhecimento do conteúdo infrator, nossas equipes de Segurança, utilizando uma combinação de automação e moderação humana, revisam prontamente o conteúdo identificado e tomam decisões sobre a medida a ser tomada. As sanções podem incluir a remoção do conteúdo, advertência ou o bloqueio da conta infratora e, se justificada, a denúncia da conta às autoridades policiais. Para evitar o reaparecimento de conteúdo terrorista ou outro conteúdo extremista violento no Snapchat, além de trabalhar com as autoridades policiais, tomamos medidas para bloquear o dispositivo associado à conta infratora e impedir que o usuário crie outra conta do Snapchat.
Detalhes adicionais sobre nossas medidas de identificação e remoção de conteúdo terrorista podem ser encontrados em nossas Explicações sobre conteúdo de ódio, terrorismo e extremismo violento e nossas Explicações sobre moderação, execução e recursos.
Artigo 7(3)(c): a quantidade de itens de conteúdo terrorista removidos ou aos quais o acesso foi desabilitado após ordens de remoção ou medidas específicas, e a quantidade de ordens de remoção que não causaram a remoção do conteúdo ou a desabilitação do acesso nos termos da primeira alínea do artigo 3(7) e a primeira alínea do artigo 3(8), juntamente com os motivos para isso
Durante o período do relatório, a Snap não recebeu nenhuma ordem de remoção, nem fomos obrigados a implementar quaisquer medidas específicas previstas no Artigo 5 do Regulamento. Dessa forma, não fomos obrigados a impor sanções sob o Regulamento.
O quadro a seguir descreve as sanções impostas com base em denúncias de usuários e detecção proativa de conteúdo e contas, tanto na UE quanto em outras áreas do mundo, que tenham violado nossas Diretrizes Comunitárias com relação a conteúdo de terrorismo e extremismo violento
Artigo 7(3)(d): a quantidade e o resultado das reclamações tratadas pelo provedor de serviços de hospedagem em conformidade com o Artigo 10
Artigo 7(3)(g): a quantidade de casos em que o provedor de serviços de hospedagem reintegrou conteúdo ou acesso a ele após uma reclamação do provedor de conteúdo
Como não tivemos nenhuma sanção exigida sob o Regulamento durante o período do relatório, conforme observado acima, não tratamos nenhuma reclamação prevista no Artigo 10 do Regulamento e não tivemos nenhuma reintegração associada.
O quadro a seguir contém informações relacionadas a recursos e reintegrações, tanto na UE quanto em outras áreas do mundo, envolvendo conteúdo terrorista e extremista violento penalizado sob nossas Diretrizes comunitárias.
Artigo 7(3)(e): a quantidade e os resultados dos processos de revisão administrativa ou judicial movidos pelo provedor de serviços de hospedagem
Artigo 7(3)(f): a quantidade de casos nos quais o provedor de serviços de hospedagem foi obrigado a reintegrar conteúdo ou acesso a ele como resultado de processos de revisão administrativa ou judicial
Como não tivemos nenhuma sanção exigida sob o Regulamento durante o período de denúncia, conforme observado acima, não tivemos nenhum processo administrativo ou judicial de revisão associado, nem fomos obrigados a reintegrar conteúdo como resultado de qualquer processo desse tipo.
Esse relatório foi preparado para atender às obrigações da Snap sob os Artigos 34 e 35 do Regulamento (UE) 2022/2065 e fornece os resultados da nossa avaliação de riscos do sistema decorrentes do design, função e uso das plataformas online do Snapchat, juntamente com a metodologia usada para avaliar esses riscos e as medidas de mitigação adotadas para lidar com eles.
Relatório de avaliação e mitigação de riscos do RSD | Snapchat | Agosto de 2023 (PDF)
Esses relatórios foram preparados para atender às obrigações da Snap sob o Artigo 37 do Regulamento (UE) 2022/2065 e fornecem: (i) os resultados da auditoria independente de conformidade da Snap com as obrigações estabelecidas no Capítulo III do Regulamento (UE) 2022/2065 e (ii) as medidas tomadas para implementar as recomendações operacionais dessa auditoria independente.
Relatório de auditoria independente do RSD | Snapchat | Agosto de 2024 (PDF)
Relatório de implementação da auditoria do RSD| Snapchat | Setembro de 2024 (PDF)
Código de Práticas de PCV da UE
A Snap é uma provedora de “serviço de plataforma de compartilhamento de vídeos” (”PCV”) nos termos do Artigo 1(1)(aa) da AVMSD. Este Código de Conduta (“Código”) foi preparado para descrever como a Snap cumpre suas obrigações como PCV sob a Lei de Mídia Holandesa (“DMA”) e a Diretiva (UE) 2010/13 (conforme alterada pela Diretiva (UE) 2018/1808 (a “Diretiva de Serviços de Mídia Audiovisual” ou “AVMSD”)). O Código é aplicável em toda a União Europeia, bem como no Espaço Econômico Europeu.
Código de Conduta de PCV da UE | Snapchat | Março de 2025 (PDF)
Búlgaro | Croata | Tcheco | Dinamarquês | Holandês | Estoniano | Finlandês | Francês | Alemão | Grego | Húngaro | Irlandês | Italiano | Letão | Lituano | Maltês | Polonês | Português | Romeno | Eslovaco | Esloveno | Espanhol | Sueco