Exame Logo

Facebook removeu 6,5 milhões de contas falsas por dia no 1º trimestre

Empresa explicou e deu números sobre como remove conteúdos com discurso de ódio, nudez ou conteúdo adulto e terrorismo, por exemplo

Facebook: ao todo, foram 583 milhões de perfis falsos removidos pela empresa entre janeiro e março de 2018 (Dado Ruvic/Illustration/Reuters)
EC

Estadão Conteúdo

Publicado em 17 de maio de 2018 às 16h22.

Última atualização em 17 de maio de 2018 às 20h53.

São Paulo - O Facebook anunciou na terça-feira, 15, que removeu diariamente, em média, 6,5 milhões de contas falsas automaticamente de sua plataforma durante o primeiro trimestre de 2018 - ao todo, foram 583 milhões de perfis falsos removidos pela empresa entre janeiro e março de 2018. Os dados fazem parte do primeiro relatório de transparência sobre remoção de conteúdo publicado pelo Facebook.

No relatório, o Facebook explica e dá números sobre como remove conteúdos com discurso de ódio, nudez ou conteúdo adulto e terrorismo, por exemplo. "O melhor jeito de lidar com os nossos problemas é ter métricas e dados para seguir em frente. São os números que podem fazer nosso time entender as experiências da comunidade", disse Alex Schultz, vice-presidente de análise de dados do Facebook, em entrevista a jornalistas na semana passada - o jornal "O Estado de S. Paulo" participou da mesa-redonda.

O relatório também dá continuidade ao esforço recente da empresa de ser mais clara sobre suas políticas e práticas nos últimos meses, depois da revelação do uso ilícito de dados de 87 milhões de usuários da rede social pela consultoria Cambridge Analytica . "Acreditamos que o aumento da transparência tende a levar a uma maior prestação de contas e responsabilidade ao longo do tempo, e publicar essas informações nos levará a melhorar mais rapidamente", disse Guy Rosen, vice-presidente de gerenciamento de produtos do Facebook.

Há três semanas, por exemplo, o Facebook publicou pela primeira vez as diretrizes internas que utiliza para analisar se uma publicação infringe suas políticas - uma foto do seio de uma mulher, por exemplo, pode ser publicada se estiver em um contexto de amamentação, mas não em uma imagem erótica

Imagens e texto

O relatório abrange os esforços do Facebook para revisar conteúdo em seis áreas diferentes: violência gráfica, nudez, propaganda terrorista, discurso de ódio, spam e contas falsas. Todas as categorias são classificadas em três quesitos diferentes: o porcentual de conteúdo que viola padrões visto pelos usuários; o quanto dele foi removido, e o porcentual que o Facebook conseguiu remover proativamente com uso de inteligência artificial, antes de usuários terem de relatar problemas à plataforma.

Nos dados, chama a atenção a capacidade da inteligência artificial do Facebook em remover proativamente quase 100% imagens de nudez ou de conteúdo terrorista; o mesmo, porém, não acontece com publicações que envolvam discurso de ódio. Segundo Rosen, isso acontece porque o sistema do Facebook consegue monitorar a plataforma a partir de exemplos de dados.

Para imagens, seja de nudez ou de terrorismo, o sistema é um só, capaz de reconhecer figuras. Já com discurso de ódio, cujas publicações costumam acontecer por texto, há duas dificuldades: além do fato das publicações acontecerem em diferentes línguas, necessitando de diferentes algoritmos para cada idioma, há também nuances. "Precisamos treinar cada sistema para cada língua. Português é um sistema, inglês é outro", disse Rosen. "A tecnologia tem dificuldade de entender contextos e espaços de linguagem."

Durante a entrevista, o executivo usou essas questões para justificar a existência da equipe de análise de conteúdo da rede social. Hoje, o Facebook tem 10 mil pessoas analisando publicações todos os dias, em 50 idiomas diferentes - a meta é que o time aumente para 20 mil pessoas até o final do ano.

Violência gráfica é outra área que a inteligência artificial do Facebook tem demonstrado dificuldades para lidar - até porque é difícil para as máquinas distinguirem, hoje, o que é um vídeo fazendo apologia à violência de uma reportagem que mostra a barbárie de um crime. Por conta disso, a empresa diz que, além de utilizar a revisão humana, costuma remover menos conteúdo dessa categoria - e sim sinalizá-lo como impróprio para determinados tipos de usuários, avisando a quem quiser visualizá-los antes de clicar.

Por outro lado, uma área que a rede social demonstrou ter facilidade para remover conteúdo proativamente foi em spams: ao longo do primeiro trimestre, praticamente 100% dos 837 milhões de publicações que continham esse tipo de conteúdo foram removidas pela inteligência artificial do Facebook, antes que chegassem aos olhos de um único usuário.

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Tecnologia

Mais na Exame