Inteligência Artificial

Vale a pena sermos educados com ferramentas de inteligência artificial?

Interações com ferramentas como o ChatGPT e Gemini estão cada vez mais intensas nos últimos anos

Na mente do robô: especialista diz que a máquina não vai processar emoções por se sentir respeitada ( Leon Neal/Getty Images)

Na mente do robô: especialista diz que a máquina não vai processar emoções por se sentir respeitada ( Leon Neal/Getty Images)

Da Redação
Da Redação

Redação Exame

Publicado em 4 de abril de 2024 às 10h14.

Última atualização em 9 de abril de 2024 às 16h14.

Normas básicas de educação, como falar "bom dia" ou "obrigado", são recomendáveis para estabelecer um bom convívio em sociedade. Isso, porém, não se aplica a possíveis "relacionamentos" que as pessoas podem querer estabelecer com ferramentas de Inteligência Artificial, como o ChatGPT ou Gemini, ou até mesmo com assistentes de voz - Siri e Alexa.

Segundo especialista ouvidos pelo o jornal El País, é preciso considerar algumas questões. Enrique Dans, professor de Inovação e Tecnologia da IE Business School, não é contra ser gentil com as máquinas. O que destaca, porém, é a importância de saber que uma máquina, sem percepções, emoções ou consciência, não consegue compreender e valorizar a cortesia ou a gratidão expressada.

"Alguém me contou a piada que prefere dizer por favor e obrigado, para que no futuro tenhamos que nos dar bem com sistemas de inteligência artificial. Isso, honestamente, pertence ao domínio da ficção científica, porque neste momento estamos muito longe de chegar a esse ponto", falou ao jornal.

Outro aspecto do debate é se ser educado com uma máquina é um obstáculo ou um benefício ao interagir com ela. Dans enfatiza a importância de entender que por trás de cada resposta da máquina existe um sistema complexo de processamento de dados, padrões e algoritmos, e não um ser humano com emoções e intenções.

Já Julio Gonzalo, diretor do centro de pesquisa UNED em Processamento de Linguagem Natural e Recuperação de Informação, falou ao El País que, em certos sistemas, é possível que o usuário receba respostas de melhor qualidade se for mais instruído. A máquina não vai processar emoções ou sentir-se mais inclinada a oferecer um melhor serviço porque se sente respeitada.

A verdadeira explicação é que, ao se comunicar educadamente, as mensagens do usuário tendem a se assemelhar mais aos exemplos de interações educadas que o assistente analisou durante o treinamento. Como essas amostras estão associadas a respostas de melhor qualidade, a polidez pode melhorar indiretamente a qualidade das respostas obtidas.

Acompanhe tudo sobre:Inteligência artificialexame-ceo

Mais de Inteligência Artificial

OpenAI busca captação para elevar o valor da empresa para mais de US$ 100 bilhões

Google Meet começa a liberar nova função de anotações automáticas com IA

Jornalistas venezuelanos recorrem a avatares de IA para evitar repressão do governo Maduro

Sam Altman apresenta "IA bomba atômica" para o governo dos EUA — o que acontece depois?

Mais na Exame