25 de outubro de 2024
17 de dezembro de 2024
Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pelo Regulamento dos Serviços Digitais (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD), pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA) e pelo Regulamento de Conteúdos Terroristas Online (TCO). Tenha em atenção que a versão mais atualizada destes relatórios de transparência podem ser consultados na versão en-US.
A Snap Group Limited nomeou a Snap B.V. como sua Representante Legal para efeitos da DSA. Pode contactar o representante em dsa-enquiries [at] snapchat.com sobre a DSA, em vsp-enquiries [at] snapchat.com sobre a AVMSD e DMA e em tco-enquiries [at] snapchat.com sobre TCO, através do nosso Site de Suporte [aqui], ou em:
Snap B.V.
Keizersgracht 165, 1016 DP
Amesterdão, Países Baixos
Se pertencer uma agência de autoridade policial ou força de segurança, deve seguir os passos estabelecidosaqui.
Deve contactar-nos em inglês ou holandês.
Para a DSA, somos regulados pela Comissão Europeia e pela Autoridade dos Países Baixos para os Consumidores e os Mercados (ACM). Para a AVMSD e a DMA, somos regulados pela Autoridade dos Meios de Comunicação Social dos Países Baixos (CvdM). Para o TCO, somos regulados pela Autoridade dos Países Baixos para a prevenção de Conteúdos Terroristas Online e de Abuso Sexual Infantil (ATKM).
Última atualização: 25 de outubro de 2024
Publicamos este relatório sobre os nossos esforços de moderação de conteúdos no Snapchat, de acordo com os requisitos de comunicação de transparência estabelecidos nos Artigos 15º, 24º e 42º da Lei de Serviços Digitais da União Europeia (UE) (Regulamento (UE) 2022/2065) (“DSA”). Salvo indicação em contrário, as informações contidas no presente relatório destinam-se ao período de comunicação de 1 de janeiro de 2024 a 30 de junho de 2024 (primeiro semestre de 2024) e abrangem a moderação de conteúdos nas funcionalidades do Snapchat que são regulamentadas pela DSA.
Esforçamo-nos continuamente para melhorar as nossas comunicações. Para este período de comunicação de informações (primeiro semestre de 2024), fizemos alterações na estrutura das nossas comunicação, com tabelas novas e mais diferenciadas para fornecer informações melhoradas sobre os nossos esforços de moderação de conteúdos.
A 1 de outubro de 2024, temos uma média mensal de 92,9 milhões de destinatários ativos (“AMAR”) na nossa aplicação Snapchat na UE. Isto significa que, na média dos 6 meses que terminam em 30 de setembro de 2024, 92,9 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.
Este valor divide-se por Estado-Membro do seguinte modo:
Estes números foram calculados para satisfazer os requisitos atuais da DSA (Lei dos Serviços Digitais) e só devem ser considerados para fins da DSA. Ao longo do tempo, temos vindo a mudar a forma como fazemos este cálculo, incluindo como resposta a alterações na política interna e nas orientações e tecnologia das entidades reguladoras, e os números não se destinam a fazer a comparação entre períodos. Isto também pode diferir dos cálculos usados para outras estimativas de utilizadores ativos que publicamos para outros fins.
Durante este período de comunicação (primeiro semestre de 2024), recebemos zero (0) ordens para agir contra conteúdos ilegais especificamente identificados pelas autoridades dos Estados-Membros da UE, incluindo os emitidos de acordo com o Artigo 9º da DSA.
Uma vez que este número é zero (0), não podemos fornecer uma descrição detalhada por tipo de conteúdos ilegais ou Estado-Membro que emitiu o pedido, ou os tempos médios para reconhecer a receção ou tomar medidas sobre os pedidos.
Durante este período de comunicação (primeiro semestre de 2024), recebemos as seguintes ordens para divulgar dados de utilizadores das autoridades dos Estados-Membros da UE, incluindo as emitidas de acordo com o Artigo 10º da DSA:
O tempo médio para informar as autoridades relevantes sobre a receção destes pedidos de informação foi de 0 minutos - fornecemos uma resposta automatizada a confirmar a receção.
O tempo médio de aplicação destas ordens para fornecer informações foi de cerca de 7 dias. Esta métrica reflete o período de tempo passado entre a receção do pedido por parte da Snap e o momento em que a Snap considerou o assunto como estando totalmente resolvido, o que, em casos individuais, pode depender em parte da velocidade com que a autoridade do Estado-Membro relevante responde a quaisquer pedidos de esclarecimento da Snap, necessários para processar o pedido.
Deve ser tido em conta que não disponibilizamos uma descrição quantitativa dos pedidos mencionados acima para fornecer informações categorizadas por tipo de conteúdo ilegal, uma vez que estas informações não estão geralmente disponíveis.
Todos os conteúdos no Snapchat devem aderir às Diretrizes da Comunidade e Termos de Serviço. Certos conteúdos devem também respeitar algumas diretrizes e políticas adicionais. Por exemplo, os conteúdos submetidos para recomendação algorítmica para um público mais alargado nas nossas plataformas de transmissão públicas devem respeitar os padrões adicionais e mais restritos previstos nas nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação, enquanto os anúncios devem respeitar as nossas Políticas de Publicidade.
Aplicamos estas políticas usando análise humana e tecnológica. Também oferecemos mecanismos para os Snapchatters denunciarem violações, incluindo conteúdos e atividades ilegais, diretamente na aplicação ou através do nosso website. Os mecanismos de deteção proativos e os relatórios motivam uma análise, onde depois são utilizados uma combinação de ferramentas automatizadas e moderadores humanos para tomar as medidas adequadas, de acordo com as nossas políticas.
Oferecemos mais informações sobre a nossa moderação de conteúdos nas nossas plataformas públicas do primeiro semestre de 2024 apresentadas abaixo.
Em conformidade com o Artigo 16º da DSA, a Snap estabeleceu mecanismos que permitem aos utilizadores e não utilizadores notificar a Snap sobre a presença no Snapchat de itens específicos de informação que consideram ser conteúdos ilegais. Isto pode ser feito denunciando contas ou conteúdos específicos diretamenta na aplicação do Snapchat, ou no nosso website.
Durante o período de comunicação de informações (primeiro semestre de 2024), recebemos as seguintes notificações submetidas de acordo com o Artigo 16º da DSA na UE:
Abaixo apresentamos uma descrição que reflete a forma como estes avisos foram processados, ou seja, se foi por um processo que inclui análise humana ou exclusivamente por meios automatizados:
Ao submeterem notificações na aplicação ou através do nosso website, os denunciantes podem selecionar um motivo de denúncia específico a partir de um menu de opções que refletem as categorias de violações indicadas nas nossas Diretrizes da Comunidade (por exemplo, discurso de ódio, consumo ou venda de drogas). As nossas Diretrizes da Comunidade proíbem conteúdos e atividades consideradas ilegais na UE, pelo que as nossas razões de denúncia refletem as categorias específicas de conteúdos ilegais da UE. No entanto, na medida em que um denunciante na UE acredite que o conteúdo ou a conta que está a denunciar são ilegais por razões não especificamente referenciadas no nosso menu de denúncias, este pode fazer a denúncia por “outros conteúdos ilegais” e tem a oportunidade de explicar a razão pela qual acredita que o que está a denunciar é ilegal.
Se, após a análise, determinarmos que o conteúdo ou a conta denunciados violam as nossas Diretrizes da Comunidade (incluindo por motivos de ilegalidade), podemos (i) remover o conteúdo ofensivo, (ii) avisar o titular da conta relevante e aplicar uma infração contra a conta e/ou (iii) bloquear a conta relevante, conforme explicado em maior detalhe no nosso Explicador de Moderação, Aplicação e Recursos do Snapchat.
No primeiro semestre de 2024, tomámos as seguintes ações de aplicação da lei após a receção de notificações enviadas de acordo com o Artigo 16 da DSA na UE:
No primeiro semestre de 2024, todas as denúncias sobre “outros conteúdos ilegais” que foram efetuadas foram alvo de medidas ao abrigo das nossas Diretrizes da Comunidade, uma vez que estas proibiram o conteúdo ou a atividade relevante. Assim, categorizámos estas medidas de aplicação na categoria relevante de violação das Diretrizes da Comunidade na tabela acima.
Para além das medidas acima referidas, podemos tomar medidas sobre os conteúdos que nos foram notificados, de acordo com outras políticas e diretrizes da Snap:
No que diz respeito ao conteúdo nas nossas plataformas de transmissão públicas, se determinarmos que os conteúdos denunciados não se encontram em conformidade com os altos padrões das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação, podemos rejeitar o conteúdo para recomendação algorítmica (se o conteúdo não se encontra em conformidade com os nossos critérios de elegibilidade) ou podemos limitar a distribuição destes conteúdos para excluir audiências sensíveis (se o conteúdo satisfizer os nossos critérios de elegibilidade para recomendação, mas for de outra forma sensível ou sugestivo).
No primeiro semestre de 2024, tomámos as seguintes ações relativamente a conteúdos nas plataformas de transmissão públicas do Snapchat que nos foram denunciados na UE, de acordo com as nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação:
Se determinarmos que um anúncio denunciado viola as nossas Políticas de Publicidade, podemos removê-lo após análise.
No primeiro semestre de 2024, tomámos as seguintes ações relativamente aos anúncios que nos foram denunciados na UE:
Para além de rever as notificações enviadas de acordo com o Artigo 16º da DSA, a Snap modera, por sua própria iniciativa, conteúdos nas plataformas públicas do Snapchat (por exemplo, Destaque e Descobrir). Abaixo apresentamos informações sobre a moderação de conteúdos realizada por iniciativa própria da Snap, incluindo a utilização de ferramentas automatizadas, as medidas tomadas para dar formação e assistência às pessoas responsáveis pela moderação de conteúdos e o número e tipos de restrições impostas como resultado desses esforços de moderação proativa de conteúdos.
Utilização de ferramentas automatizadas na moderação por iniciativa própria da Snap
Implementamos ferramentas automatizadas para detetar proativamente e, em alguns casos, aplicar medidas sobre as violações dos nossos termos e políticas nas nossas plataformas de conteúdos públicos. Isto inclui ferramentas de correspondência de hash (incluindo PhotoDNA e Google CSAI Match), modelos de Deteção de Linguagem Abusiva (que detetam e rejeitam conteúdos com base numa lista identificada e regularmente atualizada de palavras-chave e emojis abusivos) e tecnologias de inteligência artificial/aprendizagem automática. As nossas ferramentas automatizadas foram concebidas para detetar violações das nossas Diretrizes da Comunidade (que, entre outras coisas, proíbem conteúdos ilegais) e, quando aplicável, das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação e Políticas de Publicidade.
No primeiro semestre de 2024, toda a nossa deteção proativa foi realizada por ferramentas automatizadas. Quando as nossas ferramentas automatizadas detetam uma potencial violação das nossas políticas, estas tomam automaticamente medidas de acordo com as nossas políticas ou criam uma tarefa para subsequente análise humana. O número e tipos de restrições impostas como resultado deste processo estão descritos abaixo.
Número e tipos de restrições impostas por iniciativa própria da Snap
No primeiro semestre de 2024, a Snap tomou as seguintes ações de aplicação da lei após ter detetado proativamente, através da utilização de ferramentas automatizadas, violações das nossas Diretrizes da Comunidade (incluindo violações que constituem conteúdos e atividades ilegais ao abrigo das leis da UE e dos Estados-Membros):
Além disso, no primeiro semestre de 2024, relativamente ao conteúdo nas nossas plataformas de transmissão públicas, tomámos as seguintes ações após a deteção proativa no Snapchat, usando ferramentas automatizadas, de violações das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação:
* Conforme indicado nas nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação, as contas que violam, de forma repetida ou flagrante, as nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação podem ser temporária ou permanentemente desqualificadas do sistema de recomendações nas nossas plataformas de transmissão públicas. Aplicamos esta ação no contexto dos nossos esforços de moderação proativa.
Além disso, no primeiro semestre de 2024, tomámos as seguintes ações após uma deteção proativa no Snapchat, através da utilização de ferramentas automatizadas, de violações das nossas Políticas de Publicidade:
Medidas tomadas para dar formação e assistência às pessoas responsáveis pela moderação de conteúdos
As nossas equipas de moderação de conteúdos aplicam as nossas políticas de moderação de conteúdos para ajudar a proteger a nossa comunidade Snapchat. A formação é realizada ao longo de um período de várias semanas, durante a qual os novos membros da equipa são educados sobre as políticas, ferramentas e procedimentos de escalação da Snap. As nossas equipas de moderação participam regularmente em formações de atualização relevantes para os seus fluxos de trabalho, especialmente quando encontramos casos sensíveis no que diz respeito a políticas e dependentes do contexto. Também realizamos programas de reconversão profissional, sessões de certificação e testes para garantir que todos os moderadores estão atualizados e em conformidade com todas as políticas atualizadas. Finalmente, quando surgem tendências de conteúdo urgentes com base em eventos atuais, divulgamos rapidamente esclarecimentos de políticas para que as equipas possam responder de acordo com as políticas da Snap.
Oferecemos às nossas equipas de moderação de conteúdos apoio e recursos significativos, incluindo suporte de bem-estar no trabalho e fácil acesso a serviços de saúde mental.
Os utilizadores com contas bloqueadas pelas nossas equipas de segurança por violações das Diretrizes da Comunidade (incluindo conteúdos e atividades ilegais) podem submeter um recurso de conta bloqueada. Os utilizadores também podem recorrer em determinadas decisões de moderação de conteúdos.
Durante o período reportado (primeiro semestre de 2024), a Snap processou os seguintes recursos (incluindo recursos contra o bloqueio de contas e decisões de moderação ao nível de conteúdos), apresentados através dos seus sistemas internos de tratamento de reclamações na UE:
Descrição qualitativa e finalidades
Conforme explicado acima, na Secção 3(b), implementamos ferramentas automatizadas para detetar proativamente e, em alguns casos, aplicar medidas sobre violações dos nossos termos e políticas nas nossas plataformas de conteúdos públicas. Isto inclui ferramentas de correspondência de hash (incluindo PhotoDNA e Google CSAI Match), modelos de Deteção de Linguagem Abusiva (que detetam e rejeitam conteúdos com base numa lista identificada e regularmente atualizada de palavras-chave e emojis abusivos) e tecnologias de inteligência artificial/aprendizagem automática. As nossas ferramentas automatizadas foram concebidas para detetar violações das nossas Diretrizes da Comunidade (que, entre outras coisas, proíbem conteúdos ilegais) e, quando aplicável, das nossas Diretrizes de Conteúdo para Elegibilidade de Recomendação e Políticas de Publicidade.
Quando as nossas ferramentas automatizadas detetam uma potencial violação das nossas políticas, estas tomam automaticamente medidas de acordo com as nossas políticas ou criam uma tarefa para subsequente análise humana.
Indicadores de precisão e possível taxa de erro, discriminados por Estado-Membro
Monitorizamos a precisão das nossas ferramentas de moderação automatizadas, selecionando amostras aleatórias de tarefas processadas pelas nossas ferramentas automatizadas nas nossas plataformas públicas e enviando-as para reavaliação pelas nossas equipas de moderação humana. A taxa de precisão é a percentagem de tarefas destas amostras aleatórias que foram confirmadas pelos nossos moderadores humanos após a reavaliação. A taxa de erro é a diferença entre 100% e a taxa de precisão calculada conforme descrito acima.
Com base na amostragem, no primeiro semestre de 2024, os indicadores de precisão e possível taxa de erro dos meios automatizados utilizados em todas as categorias de violações foram de aproximadamente 93%, e a taxa de erro foi de aproximadamente 7%.
De forma geral, não monitorizamos a linguagem dos conteúdos que moderamos no Snapchat e, por isso, não podemos fornecer uma descrição detalhada das taxas de precisão e erro das nossas ferramentas de moderação automatizadas para o idioma oficial de cada Estado-Membro. Como representação destas informações, fornecemos abaixo uma descrição detalhada das nossas taxas de precisão e erro para conteúdos automaticamente moderados provenientes de cada Estado-Membro.
Proteções
Temos consciência do potencial impacto das ferramentas de moderação automatizadas sobre os direitos fundamentais e, por isso, implementamos medidas de segurança para o minimizar.
As nossas ferramentas de moderação de conteúdo automatizadas são testadas antes de serem implementadas no Snapchat. Os modelos são testados offline para verificar o desempenho e são implementados por testes A/B, para garantir o seu bom funcionamento antes de serem totalmente integrados na produção. Realizamos análises de garantia de qualidade (QA) pré-lançamento, análises de lançamento e verificações de QA de precisão contínua durante as implementações parciais (faseadas).
Após o lançamento das nossas ferramentas automatizadas, avaliamos continuamente o seu desempenho e precisão e efetuamos os ajustes necessários. Este processo envolve a reavaliação, pelos nossos moderadores humanos, de amostras de tarefas automatizadas, para identificar modelos que requerem ajustes para melhorar a precisão. Também monitorizamos a prevalência de riscos específicos no Snapchat por uma amostragem diária aleatória de Histórias Públicas, e utilizamos estas informações para identificar áreas de melhoria.
As nossas políticas e sistemas promovem uma aplicação consistente e justa das regras, incluindo pelas nossas ferramentas automatizadas, e oferecem aos Snapchatters uma oportunidade de contestarem, de forma significativa, os resultados da aplicação das regras, por processos de notificação e recursos que visam salvaguardar os interesses da nossa comunidade, ao mesmo tempo que protegem os direitos individuais dos Snapchatters.
Esforçamo-nos continuamente para melhorar as nossas ferramentas de moderação de conteúdo automatizadas, melhorando a sua precisão e apoiando a aplicação consistente e justa das nossas políticas.
Para o período reportado (primeiro semestre de 2024), o número de litígios submetidos a organismos de resolução de litígios extrajudiciais, de acordo como Artigo 21º da DSA, foi zero (0), e não nos é possível partilhar uma descrição dos resultados, tempos médios de resolução ou a fração dos litígios na qual a Snap implementou as decisões tomadas por um organismo de resolução de litígios extrajudicial.
De notar que, no primeiro semestre de 2024, recebemos dois (2) avisos de litígios enviados para um organismo que aguarda pela certificação como organismo de resolução extrajudicial de litígios ao abrigo do Artigo 21º da DSA. Não incluímos estes litígios na contagem acima referida, uma vez que o organismo que transmitiu estes avisos de litígios não foi capaz de confirmar o seu estatuto de certificação, mediante o nosso pedido.
Suspensões ao abrigo do Artigo 23º, n.º 1: suspensão de contas que frequentemente disponibilizam conteúdo manifestamente ilegal
Conforme explicado no nosso Explicador de Moderação, Aplicação e Recursos do Snapchat, as contas que determinamos que são usadas principalmente para violar as nossas Diretrizes da Comunidade (incluindo através da disponibilização de conteúdo manifestamente ilegal) e as contas que cometem danos graves são imediatamente desativadas. Para todas as outras violações das nossas Diretrizes da Comunidade, a Snap aplica um processo de atuação repartido em três partes:
Passo um: o conteúdo transgressor é removido.
Passo dois: o Snapchatter recebe uma notificação, indicando que violou as nossas Diretrizes da Comunidade, que o seu conteúdo foi removido e que as violações repetidas resultarão em ações adicionais de atuação, incluindo a conta ser desativada.
Passo três: a nossa equipa regista uma infração na conta do Snapchatter.
As informações relativas ao número de infrações (ou seja, avisos) e bloqueios impostos no primeiro semestre de 2024 nas contas da UE, relativamente a conteúdos ou atividades nas plataformas públicas do Snapchat, podem ser consultadas acima, nas Secções 3(a) e 3(b).
Suspensões ao abrigo do Artigo 23º, n.º 2: suspensão sobre o tratamento de notificações e reclamações de indivíduos, entidades e queixosos que frequentemente enviam notificações ou queixas manifestamente infundadas
Aplicando a nossa definição interna de notificações e queixas "manifestamente infundadas" e os nossos limites internos para o que consideramos ser o envio frequente de tais notificações e queixas, o número de suspensões sobre o tratamento de notificações e queixas impostas no primeiro semestre de 2024 ao abrigo do Artigo 23º, n.º 2 da DSA é o seguinte:
As nossas equipas de moderação de conteúdo operam em todo o mundo, permitindo-nos ajudar a manter os Snapchatters seguros 24 horas por dia, 7 dias por semana. Abaixo pode encontrar uma descrição detalhada dos nossos recursos de moderação humana, discriminada de acordo com as especialidades linguísticas dos moderados (tendo em conta que existem alguns moderadores especializados em vários idiomas), a partir de 30 de junho de 2024:
A tabela acima inclui todos os recursos humanos dedicados à moderação de conteúdos que suportam os idiomas oficiais dos Estados-Membros da UE, a 30 de junho de 2024. Nas situações em que precisamos de apoio linguístico adicional, recorremos a serviços de tradução.
Os moderadores são recrutados usando uma descrição padrão do trabalho que inclui um requisito linguístico (dependendo da necessidade). O requisito linguístico indica que o candidato deve poder demonstrar fluência escrita e oral no idioma em causa e ter pelo menos um ano de experiência profissional para funções de iniciado. Para serem considerados, os candidatos devem satisfazer os requisitos de formação e experiência. Os candidatos também devem demonstrar compreensão dos eventos atuais para o país ou região da moderação de conteúdo que irão apoiar.
Consulte acima para obter informações sobre a formação e o apoio que a Snap oferece aos moderadores de conteúdos, que é exigida separadamente ao abrigo do Artigo 15º, n.º 1, alínea c) da DSA e, portanto, incluída na Secção 3(b), na subsecção final intitulada: “Medidas tomadas para dar formação e assistência às pessoas responsáveis pela moderação de conteúdos”
Fundamentos
A exploração sexual de qualquer membro da nossa comunidade, especialmente os menores, é ilegal, abominável e proibida pelas Diretrizes da Comunidade. A prevenção, deteção e eliminação de imagens de abuso e exploração sexual de crianças (CSEA) na nossa plataforma é uma prioridade para a Snap, e desenvolvemos continuamente as nossas capacidades para combater estes e outros crimes.
Recorremos a ferramentas tecnológicas de deteção ativa, tais como a robusta correspondência de assinaturas digitais, conhecido como hash, da PhotoDNA e a Correspondência de Imagens de Abuso Sexual de Crianças (CSAI) da Google, para identificar imagens e vídeos ilegais de exploração sexual de crianças, respetivamente, e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. Já a NCMEC, em contrapartida, coordena com a aplicação da lei nacional ou internacional, conforme necessário.
Denunciar
Os dados abaixo têm por base o resultado de uma digitalização proativa usando a ferramenta PhotoDNA e/ou a correspondência CSAI de conteúdos carregados pelo rolo da câmara do utilizador no Snapchat.
Travar a exploração sexual infantil é uma prioridade máxima. A Snap investe meios significativos nesta causa com uma tolerância zero para esse tipo de condutas. É necessária uma formação especial para analisar pedidos de ajuda de abuso sexual infantil, havendo uma equipa limitada de agentes que gere estas análises devido à natureza gráfica do conteúdo. No outono de 2023, a Snap implementou alterações à sua política que tiveram repercussões na consistência de determinadas imposições ao abuso sexual infantil. Desde então, já resolvemos estas incongruências com uma nova formação dos agentes e um controlo de qualidade rigoroso. Esperamos que o próximo relatório de transparência revele o progresso no sentido de melhorar o tempo de resposta aos pedidos de ajuda de exploração e abuso sexual infantil e a precisão na tomada de medidas iniciais.
Salvaguardas de moderação de conteúdo
As salvaguardas, ou medidas de segurança, aplicadas na Avaliação dos Meios Digitais quanto à Exploração e Abuso Sexual Infantil estão estabelecidas na secção acima “Salvaguardas na moderação de conteúdo” do nosso Relatório da DSA.
Publicação: 17 de junho de 2024
Última atualização: 17 de junho de 2024
O presente Relatório de Transparência é publicado em conformidade com os Artigo 7º, n.º 2 e Artigo 7º, n.º 3 do Regulamento 2021/784 do Parlamento Europeu e do Conselho da UE, que aborda a divulgação online de conteúdos terroristas (o Regulamento). Este abrange o período de comunicação de 1 de janeiro a 31 de dezembro de 2023.
Artigo 7º, n.º 3, alínea a): informações sobre as medidas adotadas pelo prestador de serviços de alojamento virtual para a identificação e remoção de ou incapacitação do acesso a conteúdos terroristas
Artigo 7º, n.º 3, alínea b): informações sobre as medidas adotadas pelo prestador de serviços de alojamento virtual para abordar o reaparecimento online de material que foi previamente removido ou para o qual o acesso foi desativado, por ser considerado como sendo conteúdo terrorista, em especial aquando da utilização de ferramentas automatizadas
Terroristas, organizações terroristas e extremistas violentos estão proibidos de utilizar o Snapchat. Os conteúdos que defendem, promovem, glorificam ou apoiam o terrorismo, ou outros atos violentos e criminosos são proibidos ao abrigo das nossas Diretrizes da Comunidade. Os utilizadores podem denunciar conteúdos que violam as nossas Diretrizes da Comunidade através do nosso menu de denúncias na aplicação e do nosso Site de Suporte. Também utilizamos ferramentas de deteção proativa para identificar conteúdos transgressivo em plataformas públicas, como o Destaque e o Descobrir.
Independentemente da forma como tomamos conhecimento de conteúdos transgressivos, as nossas equipas de Confiança e Segurança analisam prontamente os conteúdos identificados, por uma combinação de automação e moderação humana., e tomam decisões sobre a aplicação das regras. As medidas podem incluir a remoção do conteúdo, o aviso ou o bloqueio da conta transgressora e, caso seja necessário, a denúncia da mesma às autoridades policiais. Para evitar o reaparecimento de conteúdos terroristas ou outros conteúdos extremistas violentos no Snapchat, para além de trabalharmos com as autoridades policiais, tomamos medidas para bloquear o dispositivo associado à conta transgressora e impedir que o utilizador crie outra conta Snapchat.
Pode consultar mais detalhes sobre as nossas medidas de identificação e remoção de conteúdos terroristas no nosso Explicador sobre Conteúdos Odiosos, Terrorismo e Extremismo Violento e no nosso Explicador sobre Moderação, Aplicação e Recursos.
Artigo 7º, n.º 3, alínea c): o número de itens de conteúdos terroristas removidos ou aos quais o acesso foi desativado após ordens de remoção ou medidas específicas, e o número de ordens de remoção cujos conteúdos que não foram removidos ou o acesso não foi desativado, ao abrigo do primeiro parágrafo do Artigo 3º, n.º 7 e do primeiro parágrafo do Artigo 3º, n.º8, juntamente com os motivos para os mesmos
Durante o período reportado, a Snap não recebeu qualquer ordem de remoção, e não nos foi exigida a implementação de qualquer medida específica ao abrigo do Artigo 5º do Regulamento. Por conseguinte, não fomos obrigados a tomar quaisquer medidas de aplicação da lei ao abrigo do Regulamento.
A tabela seguinte descreve as ações de aplicação da lei tomadas com base em denúncias de utilizadores e na deteção proativa de conteúdos e contas, tanto na UE como noutras partes do mundo, que violaram as nossas Diretrizes da Comunidade relativas ao terrorismo e ao extremismo violento
Artigo 7º, n.º 3, alínea d): o número e o resultado das reclamações tratadas pelo prestador de serviços de alojamento virtual, de acordo com o Artigo 10º
Artigo 7º, n.º 3, alínea g): o número de casos em que o prestador de serviços de alojamento virtual reintegrou conteúdos ou o acesso aos mesmos após uma reclamação do fornecedor de conteúdos
Uma vez que não tivemos qualquer ação de aplicação da lei exigida ao abrigo do Regulamento durante o período de comunicação, conforme indicado acima, não tivemos qualquer reclamação ao abrigo do Artigo 10º do Regulamento e, consequentemente, não tivemos qualquer reintegração associada.
A tabela seguinte contém informações sobre recursos e reintegrações, tanto na UE como noutras partes do mundo, relativos a conteúdos terroristas e extremistas violentos aplicados ao abrigo das nossas Diretrizes da Comunidade.
Artigo 7º, n.º 3, alínea e): o número e o resultado da avaliação administrativa ou judicial instaurada pelo prestador de serviços de alojamento local
Artigo 7º, n.º 3, alínea f): o número de casos em que o prestador de serviços de alojamento local foi obrigado a restabelecer os conteúdos ou o acesso aos mesmo, como resultado do processo de avaliação administrativa ou judicial
Uma vez que não nos foi exigida qualquer ação de aplicação da lei ao abrigo do Regulamento durante o período reportado, conforme referido acima, não existiram processos de avaliação administrativa ou judicial associados e não fomos obrigados a reintegrar conteúdos como resultado de qualquer processo.
Este relatório foi preparado para cumprir as obrigações da Snap ao abrigo dos Artigos 34.º e 35.º do Regulamento (UE) 2022/2065, e disponibiliza os resultados da nossa avaliação de riscos do sistema decorrentes da conceção, função e utilização das plataformas online do Snapchat, juntamente com a metodologia usada para avaliar esses riscos e as medidas de mitigação adotadas para os enfrentar.
Relatório de Riscos e Mitigação da DSA | Snapchat | agosto de 2023 (PDF)
Estes relatórios foram preparados para cumprir as obrigações da Snap ao abrigo do Artigo 37.º do Regulamento (UE) 2022/2065 e disponibilizam: (i) os resultados da auditoria independente da conformidade da Snap com as obrigações estabelecidas no Capítulo III do Regulamento (UE) 2022/2065 e (ii) as medidas tomadas para implementar as recomendações operacionais dessa auditoria independente.
Relatório de Auditoria Independente da DSA | Snapchat | agosto de 2024 (PDF)
Relatório de Implementação da Auditoria da DSA | Snapchat | setembro de 2024 (PDF)
Código de Conduta da UE para VSP
A Snap é uma fornecedora de “serviços de plataforma de partilha de vídeo” (”VSP”) ao abrigo do Artigo 1(1)(aa) da AVMSD. Este Código de Conduta (“Código”) foi preparado para descrever a forma como a Snap cumpre as suas obrigações enquanto VSP ao abrigo da Lei dos Meios de Comunicação Social dos Países Baixos (“DMA”) e da Diretiva (UE) 2010/13 (conforme alterada pela Diretiva (UE) 2018/1808 (a “Diretiva dos Serviços de Comunicação Social Audiovisual” ou “AVMSD”)). O Código é aplicável em toda a União Europeia, bem como no Espaço Económico Europeu.
Código de Conduta da UE para VSP | Snapchat | dezembro de 2024 (PDF)