Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pelo Regulamento dos Serviços Digitais (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD), pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA) e pelo Regulamento de Conteúdos Terroristas On-line (TCO). Informamos que a versão mais atualizada destes Relatórios de Transparência pode ser consultada na versão en-US.
A Snap Group Limited nomeou a Snap B.V. como sua Representante Legal para efeitos da DSA. Pode contactar o representante em dsa-enquiries [at] snapchat.com sobre a DSA, em vsp-enquiries [at] snapchat.com sobre a AVMSD e DMA e em tco-enquiries [at] snapchat.com sobre TCO, através do nosso Site de Suporte [aqui], ou em:
Snap B.V.
Keizersgracht 165, 1016 DP
Amesterdão, Países Baixos
Se pertencer a um organismo de autoridade, deve seguir os passos estabelecidosaqui.
Deve contactar-nos em inglês ou holandês.
No caso da DSA, somos regulados pela Comissão Europeia e pela Autoridade dos Países Baixos para os Consumidores e os Mercados (ACM). Para a AVMSD e a DMA, somos regulados pela Autoridade dos Meios de Comunicação Social dos Países Baixos (CvdM). Para o TCO, somos regulados pela Autoridade dos Países Baixos para a prevenção de Conteúdos Terroristas On-line e de Abuso Sexual Infantil (ATKM).
Publicado: 28 de fevereiro de 2025
Última atualização: 23 de abril de 2025 (versão 2.0)
Ciclo de denúncias: 1 de julho de 2024 a 31 de dezembro de 2024
Publicamos este relatório em conformidade com os requisitos de transparência previstos nos Artigos 15.º, 24.º e 42.º da Lei dos Serviços Digitais da União Europeia (UE) (Regulamento (UE) 2022/2065) (“DSA”). Salvo indicação em contrário, as informações contidas neste relatório referem-se ao período de denúncias compreendido entre 1 de julho de 2024 e 31 de dezembro de 2024 (segundo semestre de 2024).
A 1 de janeiro de 2024, temos uma média mensal de 93,7 milhões de destinatários ativos (“AMAR”) na nossa aplicação Snapchat na UE. Isto significa que, na média dos 6 meses que terminam em 31 de dezembro de 2024, 93,7 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.
Este valor divide-se por Estado-Membro do seguinte modo:
Estes valores foram calculados para satisfazer os requisitos atuais do DSA (Regulamento dos Serviços Digitais) e só devem ser considerados para fins do DSA. Ao longo do tempo, temos vindo a mudar a forma como fazemos este cálculo, incluindo como resposta a alterações na política interna e nas orientações e tecnologia das entidades reguladoras, e os números não se destinam a fazer a comparação entre períodos. Isto também pode diferir dos cálculos usados para outras estimativas de utilizadores ativos que publicamos para outros fins.
Durante este período de denúncia (segundo semestre de 2024), recebemos 0 (zero) instruções para atuar contra conteúdos ilegais especificamente identificados pelas autoridades dos Estados-Membros da UE, incluindo aqueles emitidos ao abrigo do Artigo 9º da DSA.
Uma vez que este número é nulo (zero), não é possível apresentarmos uma descrição detalhada por tipo de conteúdos ilegais ou pelo Estado-Membro que emitiu o pedido, nem pelo tempo médio para acusar a receção ou tomar medidas sobre as instruções
Durante este período de denúncia (segundo semestre de 2024), recebemos as seguintes instruções de divulgação de dados de utilizadores emitidas pelas autoridades dos Estados-Membros da UE, incluindo aquelas emitidas nos termos do Artigo 10º da DSA:
O tempo médio para informar as autoridades relevantes sobre a receção destes pedidos de informação foi de 0 minutos - fornecemos uma resposta automatizada a confirmar a receção.
O tempo médio para dar cumprimento a estas ordens de fornecimento de informação foi de aproximadamente 12 dias. Esta métrica reflete o período de tempo passado entre a receção do pedido por parte da Snap e o momento em que a Snap considerou o assunto como estando totalmente resolvido, o que, em casos individuais, pode depender em parte da velocidade com que a autoridade do Estado-Membro relevante responde a quaisquer pedidos de esclarecimento da Snap, necessários para processar o pedido.
Deve ser tido em conta que não disponibilizamos uma descrição quantitativa dos pedidos mencionados acima para fornecer informações categorizadas por tipo de conteúdo ilegal, uma vez que estas informações não estão geralmente disponíveis.
Todos os conteúdos no Snapchat devem aderir às Diretrizes da Comunidade e Termos de Serviço. Certos conteúdos devem também respeitar algumas diretrizes e políticas adicionais. Por exemplo, os conteúdos submetidos para recomendação algorítmica a um público mais vasto nas nossas plataformas de transmissão pública devem obedecer a padrões adicionais e mais restritos previstos nas nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação, enquanto os anúncios devem cumprir as nossas Políticas de Publicidade.
Aplicamos estas políticas usando análise humana e tecnológica. Também disponibilizamos mecanismos para que utilizadores e não-utilizadores denunciem violações, incluindo conteúdos e atividades ilegais, diretamente na aplicação ou através do nosso site. Também utilizamos tecnologia proativa de deteção de danos. Os mecanismos de deteção proativos e os relatórios motivam uma análise, onde depois são utilizados uma combinação de ferramentas automatizadas e moderadores humanos para tomar as medidas adequadas, de acordo com as nossas políticas.
Abaixo, fornecemos mais informações sobre a nossa moderação de conteúdos no segundo semestre de 2024.
Em conformidade com o Artigo 16º do DSA, a Snap estabeleceu mecanismos que permitem aos utilizadores e não-utilizadores notificar a Snap sobre a presença no Snapchat de itens específicos de informação que consideram ser conteúdos ilegais. Podem fazê-lo através da denúncia de conteúdos ou contas específicos, seja diretamente na aplicação Snapchat, seja no nosso site.
Ao submeterem denúncias na aplicação ou através do nosso site, quem denuncia pode selecionar o motivo específico da denúncia partir de um menu de opções que reflete as categorias das violações indicadas nas nossas Diretrizes da Comunidade (por exemplo, discurso de ódio, drogas). As nossas Diretrizes da Comunidade proíbem conteúdos e atividades consideradas ilegais na UE, pelo que as nossas razões de denúncia refletem as categorias específicas de conteúdos ilegais da UE. No entanto, na medida em que um denunciante na UE acredite que o conteúdo ou a conta que está a denunciar é ilegal por motivos não referidos especificamente no nosso menu de denúncias, poderá assinalar a opção “outros conteúdos ilegais” e terá a oportunidade de explicar por que considera que o que está a denunciar é ilegal.
Durante o período da denúncia (segundo semestre de 2024), recebemos as seguintes denúncias submetidas ao abrigo do Artigo 16º da DSA na UE:
Abaixo apresentamos uma descrição que reflete a forma como estes avisos foram processados, ou seja, se foi por um processo que inclui análise humana ou exclusivamente por meios automatizados:
Se, após a análise, determinarmos que o conteúdo ou a conta denunciados violam as nossas Diretrizes da Comunidade (incluindo por motivos de ilegalidade), podemos (i) remover o conteúdo ofensivo, (ii) avisar o titular da conta relevante e aplicar uma infração contra a conta e/ou (iii) bloquear a conta relevante, conforme explicado em maior detalhe no nosso Explicador de Moderação, Aplicação e Recursos do Snapchat.
No segundo semestre de 2024, tomámos as seguintes medidas de aplicação da lei aquando da receção de notificações ao abrigo do Artigo 16 da DSA na UE:
No segundo semestre de 2024, todas as denúncias sobre “outros conteúdos ilegais” efetuadas foram alvo de medidas ao abrigo das nossas Diretrizes da Comunidade, dado que as mesmas proíbem o conteúdo ou a atividade relevante. Neste sentido, categorizámos estas medidas na sua categoria relevante de violação das Diretrizes da Comunidade na tabela acima.
Para além das medidas acima referidas, podemos tomar medidas sobre os conteúdos que nos foram notificados, de acordo com outras políticas e diretrizes da Snap:
No que diz respeito ao conteúdo nas nossas plataformas de transmissão pública, se determinarmos que o conteúdo denunciado não cumpre os critérios das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação, podemos rejeitar o conteúdo para recomendação algorítmica ou limitar a distribuição do conteúdo pela exclusão de determinados públicos (caso o conteúdo cumpra os nossos critérios de elegibilidade para recomendação, mas é, de outro modo, sensível ou sugestivo).
No segundo semestre de 2024, tomámos as seguintes ações relativamente a conteúdos nas plataformas de transmissão pública do Snapchat que nos foram denunciados na UE, em conformidade com as nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação:
Se determinarmos que um anúncio denunciado viola as nossas Políticas de Publicidade, podemos removê-lo após análise.
No segundo semestre de 2024, tomámos as seguintes medidas relativamente a anúncios que nos foram denunciados na UE:
Para além de rever as notificações enviadas de acordo com o Artigo 16.º do DSA, a Snap também participa na moderação de conteúdos por iniciativa própria. Abaixo apresentamos informações sobre a moderação de conteúdos realizada por iniciativa própria da Snap, incluindo a utilização de ferramentas automatizadas, as medidas tomadas para dar formação e assistência às pessoas responsáveis pela moderação de conteúdos e o número e tipos de restrições impostas como resultado desses esforços de moderação proativa de conteúdos.
Utilização de ferramentas automatizadas na moderação por iniciativa própria da Snap
Implementamos ferramentas automatizadas para detetar proativamente e, em alguns casos, punir violações dos nossos termos e políticas. Estas ferramentas incluem mecanismos de correspondência de hash (nomeadamente o PhotoDNA e o Google CSAI Match), a API Google Content Safety, modelos de deteção de linguagem abusiva, que identificam e rejeitam conteúdos com base numa lista definida e periodicamente atualizada de palavras-chave e emojis abusivos, bem como tecnologias assentes em inteligência artificial, aprendizagem automática e grandes modelos de linguagem. As nossas ferramentas automatizadas foram concebidas para detetar violações das nossas Diretrizes da Comunidade (que, entre outras coisas, proíbem conteúdos ilegais) e, quando aplicável, das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação e Políticas de Publicidade.
No segundo semestre de 2024, toda a nossa deteção proativa foi realizada por ferramentas automatizadas. Quando as nossas ferramentas automatizadas detetam uma potencial violação das nossas políticas, estas tomam automaticamente medidas de acordo com as nossas políticas ou criam uma tarefa para subsequente análise humana. O número e tipos de restrições impostas como resultado deste processo estão descritos abaixo.
Número e tipos de restrições impostas por iniciativa própria da Snap
No segundo semestre de 2024, a Snap tomou as seguintes medidas de aplicação da lei após detetar proativamente violações das nossas Diretrizes da Comunidade (incluindo violações que correspondem a conteúdos e atividades ilegais ao abrigo da legislação da UE e dos Estados-Membros):
Além disso, no segundo semestre de 2024, relativamente ao conteúdo nas nossas plataformas de transmissão públicas, tomámos as seguintes ações após a deteção proativa no Snapchat, usando ferramentas automatizadas, de violações das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação:
* Conforme indicado nas nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação, contas que violem, de forma repetida ou flagrante, as nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação podem ser temporária ou permanentemente desqualificadas do sistema de recomendações nas nossas plataformas de transmissão públicas. Adotamos esta ação no contexto dos nossos esforços de moderação proativa.
Além disso, no segundo semestre de 2024, tomámos as seguintes ações após uma deteção proativa no Snapchat, através da utilização de ferramentas automatizadas, de violações das nossas Políticas de Publicidade:
Medidas tomadas para dar formação e assistência às pessoas responsáveis pela moderação de conteúdos
As nossas equipas de moderação de conteúdos aplicam as nossas políticas de moderação de conteúdos para ajudar a proteger a nossa comunidade Snapchat. A formação é realizada ao longo de um período de várias semanas, durante a qual os novos membros da equipa são educados sobre as políticas, ferramentas e procedimentos de escalação da Snap. As nossas equipas de moderação participam regularmente em formações de atualização relevantes para os seus fluxos de trabalho, especialmente quando encontramos casos sensíveis no que diz respeito a políticas e dependentes do contexto. Também realizamos programas de reconversão profissional, sessões de certificação e testes para garantir que todos os moderadores estão atualizados e em conformidade com todas as políticas atualizadas. Por fim, quando surgem tendências de conteúdos urgentes relacionadas com acontecimentos atuais, divulgamos rapidamente esclarecimentos sobre as políticas, permitindo que as equipas respondam de acordo com as políticas da Snap.
Oferecemos às nossas equipas de moderação de conteúdos apoio e recursos relevantes, incluindo um suporte de bem-estar no trabalho e um acesso facilitado aos serviços de saúde mental.
Os utilizadores com contas bloqueadas pelas nossas equipas de segurança por violações das Diretrizes da Comunidade (incluindo conteúdos e atividades ilegais) podem submeter um recurso de conta bloqueada. Os utilizadores também podem recorrer em determinadas decisões de moderação de conteúdos.
Durante o período da denúncia (primeiro semestre de 2024), a Snap procedeu ao tratamento dos seguintes recursos (abrangendo tanto recursos contra bloqueios de contas como contra decisões de moderação de conteúdos) submetidos através dos seus sistemas internos de gestão de denúncias na UE:
Descrição qualitativa e finalidades
Conforme explicado acima, na Secção 3(b), implementamos ferramentas automatizadas para detetar proativamente e, em alguns casos, aplicar medidas sobre violações dos nossos termos e políticas. Estas ferramentas incluem mecanismos de correspondência de hash (nomeadamente o PhotoDNA e o Google CSAI Match), a API Google Content Safety, modelos de deteção de linguagem abusiva, que identificam e rejeitam conteúdos com base numa lista definida e periodicamente atualizada de palavras-chave e emojis abusivos, bem como tecnologias assentes em inteligência artificial, aprendizagem automática e grandes modelos de linguagem. As nossas ferramentas automatizadas foram concebidas para detetar violações das nossas Diretrizes da Comunidade (que, entre outros, proíbem conteúdos ilegais) e, quando aplicável, das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação e Políticas de Publicidade.
Quando as nossas ferramentas automatizadas detetam uma potencial violação das nossas políticas, tomam automaticamente medidas em conformidade com as nossas políticas ou criam uma tarefa para subsequente análise humana. .
Indicadores de precisão e possível taxa de erro, discriminados por Estado-Membro
Monitorizamos os indicadores de precisão e a possível taxa de erro das nossas ferramentas de moderação automatizada selecionando amostras aleatórias de tarefas processadas pelas nossas ferramentas automatizadas e enviando-as para reavaliação pelas nossas equipas de moderação humana. A taxa de precisão corresponde à percentagem de tarefas, provenientes destas amostras aleatórias, que são confirmadas como tendo decisões de moderação corretas após nova reavaliação por moderadores humanos. A taxa de erro é a diferença entre 100% e a taxa de precisão calculada conforme descrito acima.
Monitorizamos a precisão e a possível taxa de erro em duas categorias amplas de ferramentas de moderação automatizadas, nomeadamente:
Ferramentas automatizadas que detetam e/ou aplicam medidas relativamente a violações das nossas Diretrizes da Comunidade, podendo resultar em ações contra a conta de um utilizador (por exemplo, avisos contra a conta ou o bloqueio da mesma). Com base na amostra, no segundo semestre de 2024, a taxa de precisão destas ferramentas automatizadas foi de aproximadamente 95% e a taxa de erro cerca de 5%.
Ferramentas automatizadas que detetam e/ou aplicam medidas relativamente a conteúdos nas nossas plataformas de transmissão pública com base nas nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação. Com base na amostra, no segundo semestre de 2024, a taxa de precisão destas ferramentas automatizadas foi de aproximadamente 85% e a taxa de erro cerca de 15%.
Com base na amostra, no segundo semestre de 2024, a taxa de precisão combinada das ferramentas automatizadas utilizadas em ambas as categorias acima descritas foi de aproximadamente 89% e a taxa de erro cerca de 11%.
De forma geral, não monitorizamos a linguagem dos conteúdos que moderamos no Snapchat e, por isso, não conseguimos fornecer uma descrição detalhada das taxas de precisão e erro das nossas ferramentas de moderação automatizadas para o idioma oficial de cada Estado-Membro. Como parâmetro indicativo destas informações, apresentamos uma discriminação das nossas taxas combinadas de precisão e erro para conteúdos moderados automaticamente (tanto nas nossas Diretrizes da Comunidade como nas Diretrizes de Conteúdo para Elegibilidade de Recomendação), originários de cada Estado-Membro.
Proteções
Estamos cientes do impacto potencial das ferramentas de moderação automatizadas sobre os direitos fundamentais e, por isso, implementamos salvaguardas para ajudar a minimizar esse impacto.
As nossas ferramentas automatizadas de moderação de conteúdo são testadas antes de serem implementadas. Os modelos são testados offline para verificar o desempenho e são implementados por testes A/B, para garantir o seu bom funcionamento antes de serem totalmente integrados na produção. Realizamos análises de garantia de qualidade (QA) pré-lançamento, análises de lançamento e verificações de QA de precisão contínuas durante as implementações parciais (faseadas).
Após o lançamento das nossas ferramentas automatizadas, avaliamos continuamente o seu desempenho e precisão e efetuamos os ajustes necessários. Este processo envolve a reavaliação, pelos nossos moderadores humanos, de amostras de tarefas automatizadas, para identificar modelos que requerem ajustes para melhorar a precisão. Monitorizamos igualmente a prevalência de determinados danos no Snapchat pela análise diária e aleatória de conteúdo público e utilizamos esta informação para identificar áreas suscetíveis de melhoria.
As nossas políticas e sistemas promovem uma aplicação consistente e justa das regras, incluindo pelas nossas ferramentas automatizadas, e oferecem aos Snapchatters uma oportunidade de contestarem, de forma significativa, os resultados da aplicação das regras, por processos de notificação e recursos que visam salvaguardar os interesses da nossa comunidade, ao mesmo tempo que protegem os direitos individuais dos Snapchatters.
Esforçamo-nos continuamente para melhorar as nossas ferramentas de moderação de conteúdo automatizadas, melhorando a sua precisão e apoiando a aplicação consistente e justa das nossas políticas.
Para o período abrangido pelo relatório (segundo semestre de 2024), fornecemos as seguintes informações sobre litígios submetidos contra a Snap junto de organismos de resolução extrajudicial de litígios referidos no Artigo 21 da DSA:
A tabela acima reflete o estado, a 31 de dezembro de 2024, dos litígios submetidos a organismos de resolução extrajudicial de litígios certificados ao abrigo do Artigo 21.º da DSA no período abrangido pelo relatório (segundo semestre de 2024). À data de 31 de dezembro de 2024, dos 20 litígios submetidos a esses organismos no segundo semestre de 2024, 15 estavam pendentes e 5 tinham sido resolvidos antes de ser emitida uma decisão.
Deve ainda notar-se que não foram incluídas na tabela acima as reclamações submetidas a um organismo certificado ao abrigo do Artigo 21.º que tenham sido consideradas inadmissíveis pelo mesmo organismo antes de serem encaminhadas para a Snap. Não é possível confirmarmos o número de litígios que se enquadram nesta categoria, uma vez que alguns, mas não todos, os organismos certificados notificam a Snap desses litígios. No entanto, temos conhecimento de 6 reclamações que se enquadram nesta categoria no segundo semestre de 2024.
Suspensões ao abrigo do Artigo 23º, n.º 1: suspensão de contas que frequentemente disponibilizam conteúdo manifestamente ilegal
Conforme explicado no nosso Explicador de Moderação, Aplicação e Recursos do Snapchat, as contas que determinamos serem usadas principalmente para violar as nossas Diretrizes da Comunidade (incluindo através da disponibilização de conteúdo manifestamente ilegal) e as contas que causam danos graves são imediatamente desativadas. Para todas as outras violações das nossas Diretrizes da Comunidade, a Snap aplica um processo de atuação repartido em três partes:
Passo um: o conteúdo transgressor é removido.
Passo dois: o utilizador recebe um aviso a informar que houve uma violação das nossas Diretrizes da Comunidade, que o seu conteúdo foi removido e que as violações repetidas resultarão em medidas adicionais, incluindo na desativação da conta.
Passo três: a nossa equipa regista a infração na conta do utilizador.
As informações sobre o número de infrações (ou seja, avisos) e bloqueios impostos no segundo semestre de 2024 em contas na UE podem ser consultadas acima, nas Secções 3 (a) e 3 (b).
As suspensões ao abrigo do Artigo 23.º, n.º 2: suspensão pelo processamento de avisos e queixas de indivíduos, entidades e reclamantes que submetem com frequência avisos ou queixas manifestamente infundados
Aplicando a nossa definição interna de avisos e queixas "manifestamente infundadas" e os nossos limites internos para o que consideramos ser o envio frequente de tais avisos e queixas, o número de suspensões sobre o tratamento de avisos e queixas impostos no segundo semestre de 2024 ao abrigo do Artigo 23.º, n.º 2 da DSA é o seguinte:
As nossas equipas de moderação de conteúdo operam em todo o mundo, nas 24 horas por dia e nos 7 dias por semana, permitindo-nos ajudar a manter a nossa comunidade segura. Abaixo consta a discriminação dos nossos recursos de moderação humana por especialidades linguísticas dos moderadores (note-se que alguns moderadores são especializados em vários idiomas) em 31 de dezembro de 2024:
A tabela acima inclui todos os recursos humanos dedicados à moderação de conteúdos que suportam os idiomas oficiais dos Estados-Membros da UE, a 31 de dezembro de 2024. Nas situações em que precisamos de apoio linguístico adicional, recorremos a serviços de tradução.
Os moderadores são recrutados usando uma descrição padrão do trabalho que inclui um requisito linguístico (dependendo da necessidade). O requisito linguístico estabelece que o candidato deve ser capaz de demonstrar uma fluência escrita e oral no idioma e, para cargos de nível inicial, os candidatos devem ter pelo menos um ano de experiência profissional. Para serem considerados, os candidatos devem satisfazer os requisitos de formação e experiência. Os candidatos também devem demonstrar compreensão dos eventos atuais para o país ou região da moderação de conteúdo que irão apoiar.
Consulte acima para obter informações sobre a formação e o apoio que a Snap oferece aos moderadores de conteúdos, que é exigida separadamente ao abrigo do Artigo 15º, n.º 1, alínea c) da DSA e, portanto, incluída na Secção 3(b), na subsecção final intitulada: “Medidas tomadas para dar formação e assistência às pessoas responsáveis pela moderação de conteúdos”
Lançado: 31 de janeiro de 2025
Última atualização: 31 de janeiro de 2025
O presente relatório abrange o período que começa em 1 de janeiro de 2024 e termina em 31 de dezembro de 2024.
Fundamentos
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abominável e proibida pelas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
As tecnologias que utilizamos incluem (a) correspondência de hash robusta da PhotoDNA e a correspondência de Imagens de Abuso Sexual Infantil (CSAI) da Google para identificar imagens e vídeos ilegais conhecidos de CSEA, respetivamente; e (b) a API de Segurança de Conteúdos da Google para identificar imagens de CSEA novas e "nunca antes hashadas". Denunciamos imagens de CSEA ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, coordena com as autoridades policiais nos EUA e noutros países, conforme necessário.
Denunciar
O quadro abaixo inclui dados sobre a deteção proativa e as medidas coercivas resultantes contra os utilizadores da UE de imagens de CSEA durante 2024. (Note-se que algumas medidas coercivas resultantes da referida deteção proativa em 2024 podem ainda estar sujeitas a recurso à data de compilação do presente relatório e, por conseguinte, não estariam refletidas nos dados de recursos e reintegrações abaixo.)
*Esta categoria denuncia medidas coercivas por violações das Diretrizes da Comunidade da Snap que proíbem a exploração sexual de crianças. O conteúdo detetado proativamente que é punido por outras violações das Diretrizes da Comunidade da Snap não é denunciado aqui.
**Uma medida coerciva pode ser anulada se determinarmos que foi errada com base nas nossas políticas em vigor no momento da execução, ou se determinarmos que foi inicialmente corretamente aplicada, mas a nossa política aplicável foi alterada no momento da análise do recurso.
Salvaguardas de moderação de conteúdo
As salvaguardas aplicadas para a Avaliação dos Meios Digitais de CSEA estão estabelecidas no Relatório de Transparência da DSA da UE acima.
Publicado: 28 de fevereiro de 2025
Última atualização: 28 de fevereiro de 2025
Ciclo de denúncias: 1 de janeiro de 2024 a 31 de dezembro de 2024
O presente Relatório de Transparência é publicado em conformidade com os Artigo 7º, n.º 2 e Artigo 7º, n.º 3 do Regulamento 2021/784 do Parlamento Europeu e do Conselho da UE, que aborda a divulgação online de conteúdos terroristas (o Regulamento). Abrange o período de denúncias compreendido entre 1 de janeiro e 31 de dezembro de 2024.
Artigo 7º, n.º 3, alínea a): informações sobre as medidas adotadas pelo prestador de serviços de alojamento virtual para a identificação e remoção de ou incapacitação do acesso a conteúdos terroristas
Artigo 7º, n.º 3, alínea b): informações sobre as medidas adotadas pelo prestador de serviços de alojamento virtual para abordar o reaparecimento online de material que foi previamente removido ou para o qual o acesso foi desativado, por ser considerado como sendo conteúdo terrorista, em especial aquando da utilização de ferramentas automatizadas
O Snapchat regista uma incidência muito baixa de conteúdos terroristas e não recebeu qualquer instrução para remoção ao abrigo do Regulamento em 2024.
Terroristas, organizações terroristas e extremistas violentos estão proibidos de utilizar o Snapchat. Os conteúdos que defendem, promovem, glorificam ou apoiam o terrorismo, ou outros atos violentos e criminosos são proibidos ao abrigo das nossas Diretrizes da Comunidade. Os utilizadores podem denunciar conteúdos que violam as nossas Diretrizes da Comunidade através do nosso menu de denúncias na aplicação e do nosso Site de Suporte. Também utilizamos ferramentas de deteção proativa para identificar conteúdos transgressivo em plataformas públicas, como o Destaque e o Descobrir.
Independentemente da forma como tomamos conhecimento de conteúdos infratores, as nossas equipas de segurança analisam prontamente o conteúdo identificado, recorrendo a uma combinação de automatização e moderação humana, e tomam decisões sobre a aplicação de medidas. As medidas podem incluir a remoção do conteúdo, a emissão de um aviso formal ou o bloqueio da conta transgressora e, se justificável, a denúncia da conta às autoridades competentes. Para evitar o reaparecimento de conteúdos terroristas ou outros conteúdos extremistas violentos no Snapchat, para além de trabalharmos com as autoridades policiais, tomamos medidas para bloquear o dispositivo associado à conta transgressora e impedir que o utilizador crie outra conta Snapchat.
Pode consultar mais detalhes sobre as nossas medidas de identificação e remoção de conteúdos terroristas no nosso Explicador sobre Conteúdos Odiosos, Terrorismo e Extremismo Violento e no nosso Explicador sobre Moderação, Aplicação e Recursos.
Artigo 7º, n.º 3, alínea c): o número de itens de conteúdos terroristas removidos ou aos quais o acesso foi desativado após ordens de remoção ou medidas específicas, e o número de ordens de remoção cujos conteúdos que não foram removidos ou o acesso não foi desativado, ao abrigo do primeiro parágrafo do Artigo 3º, n.º 7 e do primeiro parágrafo do Artigo 3º, n.º8, juntamente com os motivos para os mesmos
Durante o período reportado, a Snap não recebeu qualquer ordem de remoção, e não nos foi exigida a implementação de qualquer medida específica ao abrigo do Artigo 5º do Regulamento. Por conseguinte, não fomos obrigados a tomar quaisquer medidas de aplicação da lei ao abrigo do Regulamento.
A tabela seguinte descreve as ações de aplicação de medidas adotadas com base em denúncias de utilizadores e deteção proativa de conteúdos e contas, tanto na UE como noutros locais do mundo, que violaram as nossas Diretrizes da Comunidade relativas a conteúdos de terrorismo e extremismo violento.
Artigo 7º, n.º 3, alínea d): o número e o resultado das reclamações tratadas pelo prestador de serviços de alojamento virtual, de acordo com o Artigo 10º
Artigo 7º, n.º 3, alínea g): o número de casos em que o prestador de serviços de alojamento virtual reintegrou conteúdos ou o acesso aos mesmos após uma reclamação do fornecedor de conteúdos
Uma vez que não tivemos qualquer ação de aplicação da lei exigida ao abrigo do Regulamento durante o período de comunicação, conforme indicado acima, não tivemos qualquer reclamação ao abrigo do Artigo 10º do Regulamento e, consequentemente, não tivemos qualquer reintegração associada.
A tabela seguinte contém informações sobre recursos e reintegrações, tanto na UE como noutras partes do mundo, relativos a conteúdos terroristas e extremistas violentos aplicados ao abrigo das nossas Diretrizes da Comunidade.
Artigo 7º, n.º 3, alínea e): o número e o resultado da avaliação administrativa ou judicial instaurada pelo prestador de serviços de alojamento local
Artigo 7º, n.º 3, alínea f): o número de casos em que o prestador de serviços de alojamento local foi obrigado a restabelecer os conteúdos ou o acesso aos mesmo, como resultado do processo de avaliação administrativa ou judicial
Uma vez que não foram necessárias ações ao abrigo do Regulamento durante o período em causa, conforme referido acima, não existiram procedimentos administrativos ou judiciais associados, nem foi necessário restaurar qualquer conteúdo em consequência de tais procedimentos.
Este relatório foi preparado para cumprir as obrigações da Snap ao abrigo dos Artigos 34.º e 35.º do Regulamento (UE) 2022/2065, e disponibiliza os resultados da nossa avaliação de riscos do sistema decorrentes da conceção, função e utilização das plataformas online do Snapchat, juntamente com a metodologia usada para avaliar esses riscos e as medidas de mitigação adotadas para os enfrentar.
Relatório de Riscos e Mitigação da DSA | Snapchat | agosto de 2023 (PDF)
Estes relatórios foram preparados para cumprir as obrigações da Snap ao abrigo do Artigo 37.º do Regulamento (UE) 2022/2065 e disponibilizam: (i) os resultados da auditoria independente da conformidade da Snap com as obrigações estabelecidas no Capítulo III do Regulamento (UE) 2022/2065 e (ii) as medidas tomadas para implementar as recomendações operacionais dessa auditoria independente.
Relatório de Auditoria Independente da DSA | Snapchat | agosto de 2024 (PDF)
Relatório de Implementação da Auditoria da DSA | Snapchat | setembro de 2024 (PDF)
Código de Conduta da UE para VSP
A Snap é uma fornecedora de “serviços de plataforma de partilha de vídeo” (”VSP”) ao abrigo do Artigo 1(1)(aa) da AVMSD. Este Código de Conduta (“Código”) foi preparado para descrever a forma como a Snap cumpre as suas obrigações enquanto VSP ao abrigo da Lei dos Meios de Comunicação Social dos Países Baixos (“DMA”) e da Diretiva (UE) 2010/13 (conforme alterada pela Diretiva (UE) 2018/1808 (a “Diretiva dos Serviços de Comunicação Social Audiovisual” ou “AVMSD”)). O Código é aplicável em toda a União Europeia, bem como no Espaço Económico Europeu.
Código de Conduta da UE para VSP | Snapchat | março de 2025 (PDF)
Búlgaro | Croata | Checo | Dinamarquês | Holandês | Estónio | Finlandês | Francês | Alemão | Grego | Húngaro | Irlandês | Italiano | Letão | Lituano | Maltês | Polaco | Português | Romeno | Eslovaco | Esloveno | Espanhol | Sueco