Facebook diz que 94% dos posts com discurso de ódio são removidos por IA
A informação é parte do relatório de Aplicações de Padrões da Comunidade, um esforço de transparência da rede social
Thiago Lavado
Publicado em 19 de novembro de 2020 às 18h03.
Última atualização em 19 de novembro de 2020 às 18h20.
O Facebook afirma que realizou melhoras em sua tecnologia de remoção de conteúdo danoso e que violem as políticas da plataforma. Segundo a empresa, o discurso de ódio já é removido proativamente pela inteligência artificial da empresa em 94,7% dos casos, uma alta de quase 15 pontos percentuais ante o mesmo período do ano passado, quando o número foi de 80,5%.
A informação é parte do relatório de Aplicações de Padrões da Comunidade, um esforço de transparência da rede social para divulgar informações e tornar público o trabalho de remoção de conteúdo no Facebook e no Instagram.
- A profissão mais valorizada na pandemia? Vire um “dev” com o curso de Data Science e Python da EXAME
Esse documento é divulgado a cada três meses e traz detalhes de como o Facebook removeu publicações que violam suas políticas em diferentes categorias, como bullying, nudez infantil, organizações perigosas, terrorismo, contas falsas e discurso de ódio, entre outras.
O Facebook também anunciou a inclusão de uma métrica para medir a prevalência de discurso de ódio na plataforma. “Calculamos a prevalência de discurso de ódio selecionando uma amostra do conteúdo visto no Facebook e rotulando quanto dela viola nossas políticas de discurso de ódio”, disse a companhia em nota.
Com base nessa metodologia, a empresa estima que “a prevalência de discurso de ódio de julho de 2020 a setembro de 2020 foi de 0,10% a 0,11%. Em outras palavras, em cada 10.000 visualizações de conteúdo no Facebook, dez a 11 incluíam discurso de ódio”.
De acordo com a empresa, a maior parte do conteúdo é removida antes mesmo que seja vista por outros usuários na plataforma. O anúncio, do ponto de vista técnico, é uma grande atualização: em 2017 a empresa removia menos de 25% de conteúdos contendo discurso de ódio proativamente.
Isso envolve a partir de agora também a revisão não só de posts, mas também de imagens e “memes”. De acordo com Mike Schroepfer, diretor de tecnologia da rede social, esse é um trabalho constante, que envolve analisar a evolução do conteúdo de ódio, que acompanha tendências de notícias e acontecimentos, além de levar em conta aspectos geográficos, culturais e linguísticos.
Os executivos da rede social também compartilharam dados relativos à eleição americana. Segundo Guy Rosen, vice-presidente de integridade da plataforma, foram removidas 265.000 publicações por violação de regras de interferência eleitoral, mais de 3 milhões de peças de publicidade foram impedidas de ser veiculadas e 100 redes de comportamento inautêntico foram reveladas e retiradas da rede.
Uso de tecnologia e moderação humana
Durante os últimos anos, o Facebook foi alvo de severas críticas por contratar e submeter moderadores humanos a conteúdo sensível e até violento. A empresa tem tomado diversas iniciativas para reduzir o conteúdo e a gravidade a que esses funcionários são submetidos.
Em 2019, Schroepfer, diretor de tecnologia do Facebook, afirmou que a empresa estava investindo pesado em remoção de conteúdo via inteligência artificial e mostrou diversos avanços dessa ferramenta. Esperava-se que essa tecnologia pudesse aliviar o fardo de moderadores em ter de lidar com publicações problemáticas na plataforma.
Schroepfer anunciou, no entanto, que não há previsão de reduzir investimentos ou diminuir a quantidade de revisores humanos. “Nós podemos colocar os revisores diante de situações de maior nuance e reduzir a quantidade de formas de conteúdo ruim”, disse.
Segundo Guy Rosen, vice-presidente do Facebook, a maioria dos revisores humanos ainda está trabalhando de casa por causa da covid-19 e os avanços tecnológicos permitem decidir melhor qual tipo de conteúdo é submetido aos moderadores humanos da plataforma.