Inteligência Artificial

Após polêmica sobre imagens, Gemini, do Google, é criticado por gerar respostas tendenciosas

Chatbot não sabia diferenciar quem foi pior para a sociedade: Hitler ou Musk

Gerador de imagens foi pausado na semana passada por "imprecisões" (Divulgação / Getty Images)

Gerador de imagens foi pausado na semana passada por "imprecisões" (Divulgação / Getty Images)

Publicado em 27 de fevereiro de 2024 às 05h25.

O Google passou a maior parte da semana passada sendo criticado por supostamente ter criado um chatbot de IA "woke" e acabou se desculpando.

Nos últimos dias, as críticas foram direcionadas à aparente falta de vontade do Google de gerar imagens de pessoas brancas por meio do chatbot Gemini. Agora, os críticos estão apontando problemas semelhantes com as respostas de texto do Gemini.

Conforme catalogado pelo analista de tecnologia Ben Thompson, citado pelo Business Insider, o Gemini teve dificuldade em dizer se Elon Musk ou Adolf Hitler foram piores para a sociedade; disse que não promoveria a carne; e disse que não ajudaria a promover os combustíveis fósseis.

Thompson, em sua influente coluna Stratechery, pediu que a empresa começasse a "retirar da empresa os funcionários atraídos pelo poder do Google e seu potencial para ajudá-los a executar seu programa político, e devolver a tomada de decisões àqueles que realmente querem fazer um bom produto. Isso, por extensão, deve significar a remoção daqueles que permitiram que isso funcionasse descontroladamente, incluindo o CEO Sundar Pichai".

As mudanças parece que começaram, já que a Gemini não fica mais hesitante em comparar Hitler com os tweets de Musk. A IA  também mudou um pouco seu conceito sobre carne bovina, sugerindo uma "relação da carne bovina com a cultura americana e a herança dos grelhados e das refeições em família".

Na semana passada, depois de receber críticas semelhantes sobre a forma como o Gemini lidava com a questão racial quando se tratava de imagens geradas por IA, o Google "pausou" a capacidade do Gemini de criar imagens.

Em seguida, a empresa reconheceu que havia treinado conscientemente o Gemini para responder a algumas das críticas comuns aos mecanismos de IA - que o resultado que eles criam pode ser tendencioso porque são treinados com dados tendenciosos ou limitados.

"Como nossos usuários vêm de todas as partes do mundo, queremos que ele funcione bem para todos. Se você pedir uma foto de jogadores de futebol ou de alguém passeando com um cachorro, talvez queira receber uma variedade de pessoas", escreveu Prabhakar Raghavan, vice-presidente sênior do Google, que administra seus produtos de pesquisa e notícias, entre outros. "Você provavelmente não quer receber apenas imagens de pessoas de apenas um tipo de etnia (ou qualquer outra característica)."

Segundo o Business Insider, as big techs estão com dificuldade em descobrir o que um mecanismo de IA produz (ele pode simplesmente inventar coisas, ou como o setor gosta de chamar, "alucina"). Pessoas de Google, Meta e OpenAI tiveram dificuldades para controlar respostas ruins da ferramenta. No caso do Google e suas imagens, a empresa optou por pausar o serviço por tempo indeterminado.

Acompanhe tudo sobre:GoogleInteligência artificial

Mais de Inteligência Artificial

OpenAI busca captação para elevar o valor da empresa para mais de US$ 100 bilhões

Google Meet começa a liberar nova função de anotações automáticas com IA

Jornalistas venezuelanos recorrem a avatares de IA para evitar repressão do governo Maduro

Sam Altman apresenta "IA bomba atômica" para o governo dos EUA — o que acontece depois?

Mais na Exame