Cebola: Facebook derrubou foto do alimento por achar que ele continha "nudez" (Owen Franken/Getty Images)
Tamires Vitorio
Publicado em 9 de outubro de 2020 às 09h07.
Última atualização em 9 de outubro de 2020 às 09h10.
Vez ou outra a inteligência artificial adotada pelas redes sociais causa alguns problemas --- outrora mais sérios, outrora engraçados. Foi o caso do Facebook.
Nesta semana, uma foto de cebola foi notificada por quebrar as regras da rede social, que não permite que "produtos sejam divulgados com posições sexuais".
A foto, publicada por uma fazenda canadense, no entanto, não tinha nada demais e era simplesmente... uma cebola.
O Facebook, em entrevista ao site CBC News, afirmou que a foto já voltou a ser veiculada na página da fazenda e que "o erro foi cometido pela tecnologia de moderação de IA, que automaticamente derruba qualquer conteúdo que contém nudez".
Mas essa não foi a primeira (e nem a última) vez que a inteligência artificial da rede de Mark Zuckerberg pregou peças. Em 2018, a tecnologia derrubou um post que continha citações da Declaração da Independência por "conter discursos de ódio" --- e o erro teve de ser consertado por moderadores humanos.
Mas, apesar do problema, o erro da IA do Facebook deu bons resultados para o vendedor de cebolas. Segundo a BBC, o gerente da loja Jackson McLean, afirmou que "vendemos mais nos últimos três dias do que nos últimos cinco anos". McLean também adicionou o alimento a uma lista de "cebolas sexy" no site da companhia.
O Facebook não é a única rede social que teve problemas com a inteligência artificial nos últimos anos. Recentemente, diversos vídeos estavam sendo excluídos do YouTube pela tecnologia adotada pelo site de vídeos, mesmo sem burlarem nenhuma regra de conteúdo. Por conta da pandemia, o braço do Google ensinou seus algoritmos a ter mais autonomia para excluir conteúdos que continham discurso de ódio, incitação de violência ou desinformação.
Mas não deu tão certo assim. A autonomia da IA saiu pela culatra e cerca de 11 milhões de vídeos foram retirados do ar --- alguns nem tinham a ver com o que a máquina foi ensinada. A decisão tomada pelo YouTube foi simples: contratar humanos para conferir o trabalho dos algoritmos e reverter a situação em casos em que vídeos foram retirados do ar sem motivo aparente.
Um erro mais grave em relação à Inteligência Artificial acontece no Twitter. Em um teste, os usuários repararam que, não importava a posição das pessoas nas fotos, elas sempre davam preferência para brancos em detrimento de negros.
Trying a horrible experiment...
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
— Tony "Abolish ICE" Arcieri 🦀🌹 (@bascule) September 19, 2020
Pouco tempo depois, o Twitter Brasil se posicionou sobre o assunto afirmando que "fez uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero". Mesmo após a desculpa, a rede social trocou a forma de decidir qual foto apareceria na miniatura na linha do tempo das pessoas --- agora, elas mesmas podem escolher.
A inteligência artificial ajuda as redes sociais (e diversas outras empresas) a facilitarem processos que seriam muito complicados para humanos --- com tantas pessoas postando coisas ao mesmo tempo, ainda não foi encontrada uma forma melhor de moderar os conteúdos.
Se todo mundo comete erros e ninguém é perfeito, a IA também não é. E ela, assim como os humanos, está em constante aprendizado.