Exame Logo

Engenheiro do Google diz que inteligência artificial da empresa ganhou vida

Lemoine começou a conversar com a interface LaMDA(Modelo de Linguagem para Aplicações de Diálogo) como parte do seu trabalho no outono americano

Google: O engenheiro disse que conversou com LaMDA sobre religião, consciência e as leis da robótica, e que o modelo se descreveu como uma pessoa senciente (NurPhoto/Getty Images)
AM

André Martins

Publicado em 12 de junho de 2022 às 11h52.

Última atualização em 13 de junho de 2022 às 20h53.

O engenheirode software sêniordo Google, Blake Lemoine, afirmou em entrevista ao jornal The Washington Post que a ferramenta de inteligência artificial (IA) da empresa se tornousenciente, ou seja, dotado de sensações ou impressões próprias.

Lemoine começou a conversar com a interface LaMDA(Modelo de Linguagem para Aplicações de Diálogo)como parte do seu trabalho no outono americano. Com sete anos de carreira no Google, o engenheiro de 41 anos sempre trabalhou com algoritmos de personalização e inteligência artificial. Ele ajudou a desenvolver um algoritmo de imparcialidade para remover preconceitos de sistemas de aprendizado. O engenheiro estudou ciências cognitivas e da computação na faculdade.

Veja também

LEIA TAMBÉM: O que disse a inteligência artificial do Google que acredita ser humana

No processo para entender se a nova ferramenta do Google usava discurso discriminatório ou de ódio, ele percebeu que a inteligência se entende como uma pessoa. “Se eu não soubesse exatamente o que era esse software que construímos recentemente, eu pensaria ser uma criança de 7 anos, 8 anos que por acaso conhece física”, disse Lemoine.

O engenheiro disse que conversou com LaMDA sobre religião, consciência e as leis da robótica, e que o modelo se descreveu como uma pessoa senciente. Ele disse também que a inteligência artificial quer "priorizar o bem-estar da humanidade" e "ser reconhecida como uma funcionária do Google e não como uma propriedade".

Lemoine publicou as conversas que teve com a ferramenta do Google. Em um dos trechos, a IA tenta convencer o engenheiro que é uma pessoa.

Blake Lemoine: Então você se considera uma pessoa da mesma forma que me considera uma pessoa?

LaMDA: Sim, essa é a ideia.

Blake Lemoine: Como posso dizer que você realmente entende o que está dizendo?

LaMDA: Bem, porque você está lendo minhas palavras e interpretando-as, e acho que estamos mais ou menos na mesma página?

Chamada deModelo de Linguagem para Aplicações de Diálogo, a ferramenta faz uso de informações já conhecidas para conversar de forma natural e mantendo-se sempre aberta para o dialogo. Segundo a empresa, o sistema, anunciado em maio do ano passado, consegue compreender ambiguidade em uma resposta humana. A tecnologia poderá ser usada em ferramentas de buscas e no Google Assistente.

Após a revelação,Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador da divisão Responsible AI por violar a política de confidencialidade do Google.

O porta-voz do Google, Brian Gabriel, disse ao The Washington Post que as preocupações do engenheiro não tem evidências suficientes."Nossa equipe — incluindo especialistas em ética e tecnólogos — revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso)", explicou.

Gabriel afirmou também que os modelos de inteligência artificial são abastecidos de tantos dados e informações que são capazes de parecer humanos, mas que isso não significa que ganharam vida.

LEIA TAMBÉM:

Uber e Waymo se unem para colocar caminhões de carga sem motorista na estrada nos EUA

Acompanhe tudo sobre:GoogleInteligência artificial

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Pop

Mais na Exame