Facebook avisa: não será possível eliminar 100% de conteúdo tóxico
Facebook, Twitter e YouTube, controlado pelo Google, têm sido criticadas por não fazer o suficiente para evitar a propagação de discursos de ódio


Lucas Agrela
Publicado em 20 de junho de 2019 às 08h55.
Última atualização em 20 de junho de 2019 às 08h56.
O Facebook está sob pressão para eliminar discursos de ódio e notícias falsas, mas a empresa alerta que não pode construir uma plataforma impermeável à natureza humana."Este não é um problema totalmente solucionável", disse Carolyn Everson, vice-presidente de marketing da gigante de redes sociais, em um painel realizado na última terça-feira no festival de publicidade Cannes Lions, no sul da França. "A humanidade tem algumas partes ruins, e as plataformas são um reflexo disso."
Empresas de tecnologia como Facebook , Twitter e YouTube , controlado pelo Google , têm sido criticadas por não fazer o suficiente para evitar a propagação de discursos de ódio, propaganda terrorista e desinformação em suas plataformas.
No entanto, o Facebook está se mexendo: segundo a empresa, 2,2 bilhões de contas falsas foram bloqueadas apenas no primeiro trimestre.
Everson disse que o Facebook tem uma equipe de 30 mil pessoas dedicadas à questão da segurança da plataforma, um número que se compara aos menos de três mil nesse grupo há dois anos. Agora, o Facebook bloqueia 99,8% do conteúdo terrorista antes de que seja visto por algum usuário e 65% do conteúdo de discurso de ódio, disse.
"É um jogo de gato e rato", disse Everson. “É um trabalho que não vai acabar nunca. Está em andamento."