Bem-vindo à nossa página de transparência da União Europeia (UE), onde publicamos informações específicas da UE exigidas pela Lei dos Serviços Digitais da UE (DSA), pela Diretiva dos Serviços de Comunicação Social Audiovisual (AVMSD) e pela Lei dos Meios de Comunicação Social dos Países Baixos (DMA).
À data de 1 de agosto de 2023, temos 102 milhões de destinatários ativos médios mensais (“AMAR”) da nossa aplicação do Snapchat na UE. Isto significa que, em média nos últimos 6 meses, 102 milhões de utilizadores registados na UE abriram a aplicação do Snapchat pelo menos uma vez num determinado mês.
Este valor divide-se por Estado-Membro do seguinte modo:
Estes números foram calculados para satisfazer as regras atuais da DSA (Lei dos Serviços Digitais) e só devem ser considerados para fins da DSA. Poderemos alterar a forma de cálculo deste número ao longo do tempo, incluindo para responder a uma mudança na orientação e tecnologia do regulador. Isto também pode diferir dos cálculos usados para outras estimativas do utilizador ativo que publicamos para outros fins.
A Snap Group Limited nomeou a Snap B.V. como o seu Representante Legal. Pode contactar o representante em dsa-enquiries [at] snapchat.com para a DSA, em vsp-enquiries [at] snapchat.com para AVMSD e DMA, através do nosso Site de Suporte [aqui], ou em:
Snap B.V.
Keizersgracht 165, 1016 DP
Amesterdão, Países Baixos
Se for uma agência de aplicação da lei, devem ser seguidos os passos descritos aqui.
Para a DSA, somos regulados pela Comissão Europeia e pela Autoridade Holandesa de Consumidores e Mercados (ACM).
Para a AVMSD e a DMA, somos regulados pela Autoridade Neerlandesa para os Meios de Comunicação Social (CvdM).
A Snap é obrigada pelos Artigos 15, 24 e 42 da DSA a publicar relatórios que contêm informações prescritas sobre a moderação de conteúdo da Snap para os serviços do Snapchat que são considerados plataformas “on-line”, ou seja, Destaque, Para ti, perfis públicos, Mapas, Lentes e Publicidade. Este relatório deve ser publicado a cada 6 meses, a partir de 25 de outubro de 2023.
A Snap publica relatórios de transparência duas vezes por ano para fornecer informações sobre os esforços de segurança da Snap e a natureza e o volume do conteúdo denunciado na nossa plataforma. O nosso relatório mais recente para o primeiro semestre de 2023 (1 de janeiro a 30 de junho) pode ser encontrado aqui. Esse relatório contém as seguintes informações:
Pedidos governamentais, que incluem pedidos de informação e remoção de conteúdo;
Violações de conteúdo, que inclui ações tomadas em relação a conteúdo ilegal e tempo de resposta mediano;
Recursos, recebidos e tratados através do nosso processo de tratamento de reclamações internas.
Essas secções são relevantes para as informações exigidas pelo Artigo 15.1(a), (b) e (d) da DSA. Note que ainda não contêm um conjunto de dados completo porque o relatório mais recente abrange o primeiro semestre de 2023, que antecede a entrada em vigor da DSA.
Fornecemos abaixo algumas informações adicionais sobre aspetos não cobertos pelo nosso relatório de transparência para o primeiro semestre de 2023:
Moderação de conteúdo (Artigo 15.1(c) e (e), Artigo 42.2)
Todo o conteúdo no Snapchat deve aderir às nossas Diretrizes da Comunidade e Termos de Serviço, bem como aos termos, diretrizes e explicadores de apoio. Os mecanismos de deteção proativos e relatórios de conteúdo ou contas ilegais ou infratoras suscitam uma revisão, na qual os nossos sistemas de ferramentas processam o pedido, recolhem metadados relevantes e encaminham o conteúdo relevante para a nossa equipa de moderação através de uma interface de utilizador estruturada concebida para facilitar operações de revisão eficazes e eficientes. Quando as nossas equipas de moderação determinam, seja através de revisão humana ou meios automatizados, que um utilizador violou os nossos Termos, podemos remover o conteúdo ou conta ofensiva, rescindir ou limitar a visibilidade da conta relevante e/ou notificar as autoridades conforme explicado no nosso Explicador de Moderação, Fiscalização e Recursos do Snapchat. Os utilizadores com contas bloqueadas pela nossa equipa de segurança por violações das Diretrizes da Comunidade podem solicitar um pedido de recurso de conta bloqueada e podem recorrer a determinadas fiscalizações de conteúdo.
Ferramentas automatizadas de moderação de conteúdo
Nas nossas plataformas de conteúdo público, o conteúdo passa geralmente pela moderação automática e revisão humana antes de ser elegível para distribuição para uma audiência alargada. No que diz respeito a ferramentas automatizadas, estas incluem:
Deteção proativa de conteúdo ilegal e violador usando aprendizagem automática;
Ferramentas de correspondência de hash (como o PhotoDNA e a CSAI Match da Google);
Deteção de linguagem abusiva para rejeitar conteúdo com base numa lista identificada e regularmente atualizada de palavras-chave abusivas, incluindo emojis.
Para o período do nosso relatório de transparência mais recente (primeiro semestre de 2023), não foi necessário agrupar indicadores formais / taxas de erro para estes sistemas automatizados. No entanto, monitorizamos regularmente estes sistemas para detetar problemas e as nossas decisões de moderação humana são regularmente avaliadas quanto à sua precisão.
Moderação humana
A nossa equipa de moderação de conteúdo opera em todo o mundo, permitindo-nos ajudar a manter os Snapchatters seguros 24 horas por dia, 7 dias por semana. Abaixo, encontrará a repartição dos nossos recursos de moderação humana pelas especialidades linguísticas dos moderadores (note que alguns moderadores são especializados em vários idiomas) a partir de agosto de 2023:
Os números acima flutuam frequentemente em função das tendências do volume de entrada ou dos envios por idioma/país. Nas situações em que precisamos de apoio linguístico adicional, recorremos a serviços de tradução.
Os moderadores são recrutados usando uma descrição padrão do trabalho que inclui um requisito linguístico (dependendo da necessidade). O requisito linguístico indica que o candidato deve poder demonstrar fluência escrita e oral no idioma em causa e ter pelo menos um ano de experiência profissional para funções de iniciante. Para serem considerados, os candidatos devem também satisfazer os requisitos de ensino e formação. Os candidatos também devem demonstrar compreensão dos eventos atuais para o país ou região da moderação de conteúdo que irão apoiar.
A nossa equipa de moderação aplica as nossas políticas e medidas de fiscalização para ajudar a proteger a nossa comunidade Snapchat. A formação é realizada durante um período de várias semanas, em que os novos membros da equipa são instruídos sobre as políticas, ferramentas e procedimentos de escalação da Snap. Depois da formação, cada moderador deve passar um exame de certificação antes de poder rever conteúdo. A nossa equipa de moderação participa regularmente em formações de atualização relevantes para os seus fluxos de trabalho, especialmente quando encontramos casos de limite de política e dependentes do contexto. Também realizamos programas de reconversão profissional, sessões de certificação e testes para garantir que todos os moderadores estão atualizados e em conformidade com todas as políticas atualizadas. Finalmente, quando surgem tendências de conteúdo urgentes com base em eventos atuais, divulgamos rapidamente esclarecimentos de políticas para que as equipas possam responder de acordo com as políticas da Snap.
Fornecemos à nossa equipa de moderação de conteúdo – os “primeiros socorristas digitais” da Snap – apoio e meios significativos, incluindo apoio de bem-estar no trabalho e fácil acesso a serviços de saúde mental.
Salvaguardas de moderação de conteúdo
Reconhecemos que existem riscos associados à moderação de conteúdos, incluindo riscos para as liberdades de expressão e reunião, e que podem ser causados pela parcialidade de moderadores humanos e automatizados e por denúncias abusivas, incluindo por governos, constituições políticas ou indivíduos bem organizados. Geralmente, o Snapchat não é local de conteúdo político ou ativista, especialmente nos nossos espaços públicos.
No entanto, como salvaguarda contra estes riscos, a Snap realiza testes e formação e segue procedimentos robustos e consistentes para o tratamento de denúncias de conteúdo ilegal ou infrator, incluindo de autoridades policiais e governamentais. Avaliamos e desenvolvemos continuamente os nossos algoritmos de moderação de conteúdo. Embora seja difícil detetar potenciais danos à liberdade de expressão, não temos conhecimento de quaisquer problemas significativos e fornecemos caminhos para os nossos utilizadores denunciarem erros, caso ocorram.
As nossas políticas e sistemas promovem uma fiscalização consistente e justa e, conforme descrito acima, fornecem aos Snapchatters uma oportunidade de contestar significativamente os resultados da fiscalização através de processos de Notificação e Recursos que visam salvaguardar os interesses da nossa comunidade, protegendo os direitos individuais dos Snapchatters.
Esforçamo-nos continuamente por melhorar as nossas políticas e processos de fiscalização e demos grandes passos no combate a conteúdos e atividades potencialmente prejudiciais e ilegais no Snapchat. Isto reflete-se numa tendência ascendente dos nossos números de denúncia e fiscalização mostrados no nosso relatório de transparência mais recente e na diminuição das taxas de prevalência de violações no Snapchat em geral.
Notificações de Sinalizadores de Confiança (Artigo 15.1(b))
Para o período do nosso relatório de transparência mais recente (1º semestre de 2023), não foram formalmente nomeados Sinalizadores de Confiança ao abrigo da DSA. Como resultado, o número de notificações enviadas por esses Sinalizadores de Confiança foi zero (0) neste período.
Litígios extrajudiciais (Artigo 24.1(a))
Para o período do nosso relatório de transparência mais recente (1º semestre de 2023), não foram formalmente nomeados organismos de resolução extrajudicial de litígios ao abrigo da DSA. Como resultado, o número de litígios enviados para tais organismos foi zero (0) neste período.
Suspensões de conta nos termos do Artigo 23 (Artigo 24.1(b))
Para o período do nosso relatório de transparência (1º semestre de 2023) não foi necessário suspender contas nos termos do Artigo 23 da DSA pelo fornecimento de conteúdo manifestamente ilegal, notificações infundadas ou reclamações infundadas. Como resultado, o número de tais suspensões foi zero (0). No entanto, a Snap toma as medidas coercivas adequadas contra as contas, conforme explicado no nosso Explicador de Moderação, Fiscalização e Recursos do Snapchat e as informações sobre o nível de fiscalização de contas da Snap podem ser encontradas no nosso relatório de transparência (1º semestre de 2023).