Facebook: ao todo, foram 583 milhões de perfis falsos removidos pela empresa entre janeiro e março de 2018 (Dado Ruvic/Illustration/Reuters)
Estadão Conteúdo
Publicado em 17 de maio de 2018 às 16h22.
Última atualização em 17 de maio de 2018 às 20h53.
São Paulo - O Facebook anunciou na terça-feira, 15, que removeu diariamente, em média, 6,5 milhões de contas falsas automaticamente de sua plataforma durante o primeiro trimestre de 2018 - ao todo, foram 583 milhões de perfis falsos removidos pela empresa entre janeiro e março de 2018. Os dados fazem parte do primeiro relatório de transparência sobre remoção de conteúdo publicado pelo Facebook.
No relatório, o Facebook explica e dá números sobre como remove conteúdos com discurso de ódio, nudez ou conteúdo adulto e terrorismo, por exemplo. "O melhor jeito de lidar com os nossos problemas é ter métricas e dados para seguir em frente. São os números que podem fazer nosso time entender as experiências da comunidade", disse Alex Schultz, vice-presidente de análise de dados do Facebook, em entrevista a jornalistas na semana passada - o jornal "O Estado de S. Paulo" participou da mesa-redonda.
O relatório também dá continuidade ao esforço recente da empresa de ser mais clara sobre suas políticas e práticas nos últimos meses, depois da revelação do uso ilícito de dados de 87 milhões de usuários da rede social pela consultoria Cambridge Analytica. "Acreditamos que o aumento da transparência tende a levar a uma maior prestação de contas e responsabilidade ao longo do tempo, e publicar essas informações nos levará a melhorar mais rapidamente", disse Guy Rosen, vice-presidente de gerenciamento de produtos do Facebook.
Há três semanas, por exemplo, o Facebook publicou pela primeira vez as diretrizes internas que utiliza para analisar se uma publicação infringe suas políticas - uma foto do seio de uma mulher, por exemplo, pode ser publicada se estiver em um contexto de amamentação, mas não em uma imagem erótica
O relatório abrange os esforços do Facebook para revisar conteúdo em seis áreas diferentes: violência gráfica, nudez, propaganda terrorista, discurso de ódio, spam e contas falsas. Todas as categorias são classificadas em três quesitos diferentes: o porcentual de conteúdo que viola padrões visto pelos usuários; o quanto dele foi removido, e o porcentual que o Facebook conseguiu remover proativamente com uso de inteligência artificial, antes de usuários terem de relatar problemas à plataforma.
Nos dados, chama a atenção a capacidade da inteligência artificial do Facebook em remover proativamente quase 100% imagens de nudez ou de conteúdo terrorista; o mesmo, porém, não acontece com publicações que envolvam discurso de ódio. Segundo Rosen, isso acontece porque o sistema do Facebook consegue monitorar a plataforma a partir de exemplos de dados.
Para imagens, seja de nudez ou de terrorismo, o sistema é um só, capaz de reconhecer figuras. Já com discurso de ódio, cujas publicações costumam acontecer por texto, há duas dificuldades: além do fato das publicações acontecerem em diferentes línguas, necessitando de diferentes algoritmos para cada idioma, há também nuances. "Precisamos treinar cada sistema para cada língua. Português é um sistema, inglês é outro", disse Rosen. "A tecnologia tem dificuldade de entender contextos e espaços de linguagem."
Durante a entrevista, o executivo usou essas questões para justificar a existência da equipe de análise de conteúdo da rede social. Hoje, o Facebook tem 10 mil pessoas analisando publicações todos os dias, em 50 idiomas diferentes - a meta é que o time aumente para 20 mil pessoas até o final do ano.
Violência gráfica é outra área que a inteligência artificial do Facebook tem demonstrado dificuldades para lidar - até porque é difícil para as máquinas distinguirem, hoje, o que é um vídeo fazendo apologia à violência de uma reportagem que mostra a barbárie de um crime. Por conta disso, a empresa diz que, além de utilizar a revisão humana, costuma remover menos conteúdo dessa categoria - e sim sinalizá-lo como impróprio para determinados tipos de usuários, avisando a quem quiser visualizá-los antes de clicar.
Por outro lado, uma área que a rede social demonstrou ter facilidade para remover conteúdo proativamente foi em spams: ao longo do primeiro trimestre, praticamente 100% dos 837 milhões de publicações que continham esse tipo de conteúdo foram removidas pela inteligência artificial do Facebook, antes que chegassem aos olhos de um único usuário.