O Facebook mostra-se confiante com a deteção pró-ativa de maiores volumes daquilo que considera ser discurso do ódio e outros conteúdos que não têm lugar nas suas redes sociais. Ilações apresentadas no mais recente relatório publicado pela empresa.
Com efeito, no último relatório de transparência, o grupo empresarial Facebook aponta um aumento significativo dos conteúdos nocivos removidos das suas redes sociais, algo que se deve à implementação de novas ferramentas de moderação.
O combate ao discurso do ódio é uma das prioridades do Facebook
A empresa de Mark Zuckerberg partilha vários detalhes das mais recentes diretivas que pautam os conteúdos aceites pelas suas plataformas. Em particular, é dada grande atenção à monitorização e remoção ativa do discurso do ódio.
O relatório afirma que entre 0,10 a 0,11% de tudo o que o utilizador padrão do Facebook vê violará as diretivas e normas da comunidade relativamente ao discurso do ódio. Conclusões que se baseiam num estudo efetuado com amostras aleatórias e publicações diversas, medindo o alcance de cada conteúdo, ao invés de avaliar as métricas de cada publicação isolada. Isto permite à empresa melhor avaliar o efeito das publicações virais e tirar as devidas ilações.
A empresa norte-americana realça que a remoção eficaz do discurso do ódio é feita de forma proativa, mesmo antes de alguém o denunciar. Especifica ainda que nos últimos três meses, cerca de 95% das remoções de conteúdo enquadrado como discurso do ódio foi pró-ativamente removido no Facebook e no Instagram.
Os valores apresentados dão conta de um salto muito significativo desde 2017 em que apenas 24% deste conteúdo é removido pró-ativamente. De igual modo, a taxa de remoção geral (ativa e reativa) aumentou muito consideravelmente.
Note-se que só no terceiro trimestre de 2020 terão sido removidos cerca de 6,5 milhões de publicações e conteúdo relacionado. A plataforma aponta ainda uma maior remoção ativa de grupos organizados cujas publicações violaram as políticas do Facebook.
As IA aperfeiçoou as ferramentas de moderação do Facebook
Guy Rosen, executivo responsável pelo departamento de integridade do Facebook, diz que grande parte destas remoções deveram-se a melhorias na Inteligência Artificial. Mais concretamente, o novo leque de ferramentas de moderação das redes sociais.
Após ter lançado uma competição, em maio último, para a deteção de "memes" impróprios, que já estará a aplicar as suas capacidades de análise e sinalização de imagens inadequadas.
Contudo, tal como o próprio Facebook reconhece, apesar das atuais ferramentas de IA serem eficazes na deteção de um padrão de conteúdos, assim que este mude, a taxa de sucesso diminuirá. A volatilidade da cultura online, onde novas tendências surgem a cada par de dias, torna esta tarefa num estudo e análise contínua dos conteúdos.
A pandemia COVID 19 interrompeu a atividade dos moderadores humanos
A isto soma-se a especificidade regional, com cada país, cultura e idioma a introduzirem diversas variáveis. Para fazer frente a esta realidade o Facebook conta com uma vasta equipa de moderadores humanos espalhados pelo mundo e que, como é facilmente compreensível, sentiram o impacto da pandemia COVID19.
Agora a trabalhar a partir de casa, a atividade dos moderadores volta gradualmente a níveis registados antes da pandemia, graças também ao auxílio das ferramentas de moderação baseadas na IA. Por outras palavras, os "filtros" de IA ajudam os moderadores humanos.
Ainda assim, a empresa está ciente das dificuldades que esta tarefa acarreta, sobretudo enquanto durarem efeitos da pandemia que continua perturbar o normal ritmo laboral. O objetivo, contudo, permanece bem definido, tornar o Facebook e Instagram em espaços mais seguros e idóneos para qualquer utilizador bem-intencionado.
Editores 4gnews recomendam:
- Xiaomi Mi 11 Pro: detalhes de câmara e ecrã são revelados
- WhatsApp prepara 3 novidades em futura atualização. Conhece os detalhes
- Samsung pode surpreender tudo e todos, sendo a primeira com um smartphone "rolável"