O nosso relatório de transparência para o primeiro semestre de 2021

22 de novembro de 2021

Hoje, estamos a lançar o relatório de transparência para o primeiro semestre de 2021, que abrange o período de 1 de janeiro a 30 de junho deste ano. Tal como em relatórios recentes, esta parcela partilha dados sobre violações das nossas Diretrizes da Comunidade a nível global durante o período; o número de denúncias de conteúdo que recebemos e contra os quais agimos em categorias específicas de violações; como respondemos aos pedidos das autoridades policiais e governamentais; as nossas ações discriminadas por país; a Taxa de Visualização Violada do conteúdo do Snapchat; e as incidências de informações falsas na plataforma. 

Estamos a acrescentar várias atualizações ao nosso relatório deste período, incluindo a anotação do nosso tempo médio de resposta em minutos de horas para fornecer mais detalhes sobre as nossas práticas operacionais e eficácia.

Em média, todos os dias são criados mais de cinco mil milhões de Snaps com a nossa câmara Snapchat. De 1 de janeiro a 30 de junho de 2021, impusemos o cumprimento de 6 629 165 conteúdos, a nível mundial, que infringiam as nossas Diretrizes. Durante este período, a nossa Taxa de Visualização Violada (VVR) foi de 0,10 por cento, o que significa que de cada 10 000 visualizações de conteúdo no Snap, 10 continham conteúdos que violaram as nossas Diretrizes. Além disso, melhoramos significativamente o nosso tempo de resposta a relatórios de violações, em particular para conteúdos sexualmente explícitos, assédio e bullying, drogas ilegais e falsificadas e outros produtos regulamentados. 

O nosso trabalho para combater o abuso sexual infantil 

A segurança da nossa comunidade é uma prioridade máxima. Como plataforma construída para comunicar com amigos reais, concebemos intencionalmente o Snapchat para tornar mais difícil a estranhos encontrarem jovens. Por exemplo, os Snapchatters não podem ver as listas de amigos uns dos outros e, por definição, não podem receber uma mensagem de alguém que não seja já amigo.

Temos tolerância zero para abuso dirigido a qualquer membro da nossa comunidade, especialmente a menores, que é ilegal, inaceitável e proibido pelas Diretrizes da Comunidade. Trabalhamos diligentemente para combater estas violações evoluindo as nossas capacidades para prevenir, detetar e erradicar o abuso na nossa plataforma, incluindo o Material de Abuso Sexual Infantil (CSAM) e outros tipos de conteúdos de exploração sexual de crianças.

As nossas equipas de Confiança e Segurança utilizam ferramentas de deteção proativa, como o PhotoDNA e a tecnologia Child Sexual Abuse Imagery (CSAI) Match para identificar imagens e vídeos ilegais conhecidos do CSAM e denunciá-las ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC). O NCMEC, por sua vez, coordena com a autoridade policial nacional ou internacional. 

No primeiro semestre de 2021, 5,43 por cento do número total de contas contra as quais agimos a nível mundial continham CSAM. Destas, detetámos e agimos proativamente em 70 por cento das violações de CSAM. Este aumento da capacidade proativa de deteção combinada com um aumento dos ataques de spam coordenados de disseminação do CSAM resultou num aumento notável nesta categoria para este período de denúncia. 

Continuamos a expandir as nossas parcerias com especialistas de segurança, bem como as funcionalidades na nossa aplicação, para ajudar a instruir os Snapchatters sobre os riscos dos contactos com estranhos e como devem usar a denúncia na aplicação para alertar as nossas equipas de Confiança e Segurança para qualquer tipo de preocupação com abuso. Além disso, continuámos a adicionar parceiros ao nosso Programa Moderador de Confiança, que proporciona aos peritos de segurança aprovados um canal confidencial para reportar situações de emergência, tais como uma ameaça iminente à vida ou um caso que envolva CSAM. Trabalhamos em estreita colaboração com estes parceiros para fornecer ensinamentos sobre segurança, recursos de bem-estar e outras diretrizes de denúncias para que possam prestar assistência à comunidade Snapchat.

A nossa abordagem à disseminação de informações falsas

O período de tempo coberto por este relatório de transparência sublinha ainda mais o quão fundamental é garantir que o público tenha acesso a informações precisas e credíveis. Avaliamos e investimos regularmente em novos meios para proteger a nossa comunidade de Snapchatters da disseminação de informações falsas relacionadas com processos democráticos, saúde pública e COVID-19.

No primeiro semestre de 2021, tomamos medidas, a nível mundial, contra um total combinado de 2 597 contas e conteúdos por violações das nossas diretrizes de informações falsas, quase metade do número de violações do período de denúncia anterior. Como o conteúdo do Descobrir e do Destaque é proativamente moderado para evitar a distribuição de conteúdos violadores em escala, a maioria destas violações veio de Snaps e Histórias privadas, e a maioria destas violações veio ao nosso conhecimento através dos nossos esforços de moderação ativos, bem como de denúncias de utilizadores do Snapchat.  

Sempre acreditámos que quando se trata de conteúdos nocivos, não basta pensar apenas sobre políticas e imposições — as plataformas precisam de considerar o fundamental da sua arquitetura e design de produto. Desde o início, o Snapchat foi construído de forma diferente das plataformas das redes sociais tradicionais, para apoiar o nosso modo de utilização principal de falar com amigos próximos - em vez de um feed de notícias onde qualquer pessoa tem o direito de distribuir qualquer coisa a todos. O design do Snapchat limita a viralidade, que elimina os incentivos para conteúdos que apelam aos piores instintos das pessoas, limitando assim as preocupações associadas à disseminação de conteúdos ilegais e nocivos.

Esta abordagem também se aplica ao nosso trabalho para evitar a propagação de conteúdos extremistas. Durante o período de denúncias, removemos cinco contas por violações da nossa proibição de conteúdo terrorista e extremista, uma ligeira diminuição em relação ao último ciclo de denúncias. Na Snap monitorizamos regularmente os desenvolvimentos neste espaço, procurando mitigar quaisquer potenciais vetores para abuso na nossa plataforma. Tanto a arquitetura da nossa plataforma como o design da funcionalidade do nosso Chat em Grupo ajudam a limitar a disseminação de conteúdos prejudiciais e oportunidades de organização. Oferecemos Chats em Grupo, mas são de tamanho limitado, não são recomendadas pelos algoritmos e não são detetáveis na nossa plataforma a não ser por membros desse Grupo. 

Durante este período, continuámos a promover proativamente à nossa comunidade informações factuais de segurança pública sobre a COVID-19, incluindo através da cobertura fornecida pelos nossos parceiros editoriais do Descobrir, através de anúncios de serviço público (PSAs), bem como de perguntas e respostas com funcionários da saúde pública, agências e peritos médicos, e através de ferramentas criativas, tais como Lentes e Filtros de Realidade Aumentada - tudo isto concebido para lembrar aos Snapchatters a orientação especializada em saúde pública. No início deste ano, como as vacinas se tornaram disponíveis para os jovens nos EUA, lançamos uma nova iniciativa com a Casa Branca para ajudar os Snapchatters a responder a perguntas comuns e, em julho, associamo-nos ao Serviço Nacional de Saúde do Reino Unido num esforço semelhante. 

Prosseguindo, estamos empenhados em continuar a tornar os nossos relatórios de transparência mais abrangentes e útil para os muitos intervenientes que se preocupam profundamente com a segurança, a transparência e a responsabilidade multissetorial. Estamos constantemente a avaliar como podemos reforçar os nossos esforços abrangentes para combater conteúdos nocivos e maus agentes, e estamos gratos aos muitos parceiros e colaboradores de segurança e protecção que nos ajudam regularmente a melhorar.

Voltar às notícias