Exame Logo

Facebook publica balanço de esforços contra conteúdo repreensível

Em cerca de 86% dos casos, imagens impróprias foram detectadas pela rede antes de serem denunciadas

(Andrew Harrer/Bloomberg)
A

AFP

Publicado em 15 de maio de 2018 às 18h41.

O Facebook publicou pela primeira vez, nesta terça-feira (15), um balanço de seus esforços para remover de sua plataforma os conteúdos que violam as regras de utilização, sejam imagens de natureza sexual, comentários de ódio ou propaganda terrorista.

De acordo com este relatório inédito, que faz parte dos esforços de transparência do grupo desde o escândalo envolvendo a empresa de consultoria Cambrige Analytica, 3,4 milhões de imagens violentas foram suprimidas, ou acompanhadas de um aviso durante o primeiro trimestre de 2018, quase o triplo em relação ao trimestre anterior.

Veja também

Um aumento que se deve, em grande parte, segundo a rede social, a uma melhoria em suas tecnologias de análise, que cada vez mais recorrem à Inteligência artificial.

Em cerca de 86% dos casos, essas imagens foram detectadas pela rede antes de serem denunciadas por terceiros e representaram menos de 0,3% do conteúdo visualizado em sua plataforma entre janeiro e março.

Quanto às imagens de nudez, ou de atividade sexual (com exceção da pornografia infantil), o grupo afirma ter eliminado 21 milhões de elementos durante o primeiro trimestre, tanto quanto no anterior.

Isso é menos de 0,1% do conteúdo visualizado e, em quase 96% dos casos, as imagens são excluídas antes de qualquer denúncia. Às vezes com muito zelo, como quando a rede social censurou obras de arte como a tela "A Liberdade guiando o povo" do pintor francês Delacroix.

Quanto à propaganda terrorista, o grupo confirmou dados do final de abril: 1,9 milhão de conteúdos foram eliminados no primeiro trimestre, 73% a mais do que no quarto trimestre de 2017, graças a melhorias tecnológicas. Desses, 99,5% dos conteúdos foram eliminados antes de serem sinalizados.

Em contrapartida, o Facebook tem dificuldade em detectar mensagens de ódio. O grupo afirma ter apagado 2,5 milhões dessas mensagens no primeiro trimestre (56% a mais do que no trimestre anterior), mas apenas 38% foram detectadas antes de serem sinalizadas. O Facebook não forneceu qualquer estimativa de sua prevalência na plataforma.

O grupo explica que é difícil para ele administrar essas mensagens, porque a Inteligência artificial ainda tem dificuldade em separar o joio do trigo.

Algumas minorias, por exemplo, podem "reapropriar" os insultos racistas, ou homofóbicos, contra elas para denunciá-las, o que, em princípio, é autorizado pela plataforma. E somente os ataques contra pessoas são proibidos, não aqueles que são dirigidos contra uma ideologia, ou uma instituição.

Acompanhe tudo sobre:FacebookRedes sociais

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Ciência

Mais na Exame