Tiago Tavares, do Insper: um bom manejo do que é perguntado à máquina pode aumentar a produtividade nas empresas (Germano Lüders/Divulgação)
Jornalista colaborador
Publicado em 29 de abril de 2024 às 06h00.
Última atualização em 2 de maio de 2024 às 16h48.
“Minha terra tem palmeiras onde canta o…” Pode parecer simples completar a frase quando se conhece o poema e o contexto de onde ele foi criado. Mas, para uma máquina, o processo de assimilação é diferente, já que a frase incompleta nem sequer é um comando. Uma inteligência artificial que foi treinada com literatura brasileira pode até entender a instrução velada, só que o processo é mais complexo do que para uma pessoa que nasceu e cresceu imersa na cultura do nosso país.
Modelos de linguagem podem completar o verso porque foram treinados em cima de muitos textos, explica Tiago Tavares, professor no Insper e pesquisador na área de inteligência artificial. É um processo diferente do cérebro humano. “O modelo só consegue dar sentido ao comando porque leu todas as palavras do mundo. É mais uma coincidência estatística forçada pelos dados do que uma vontade”, completa.
O exemplo acima é apenas um dos desafios que usuários podem ter ao lidar com inteligências artificiais no cotidiano. Muitas vezes, a resposta para o que se busca até vem, mas, para obtê-la, é necessário fazer a pergunta certa. Trata-se da técnica chamada engenharia de prompt, que visa encontrar formas de extrair da tecnologia a melhor solução possível para determinado problema.
“Prompt” é um termo usado desde os primórdios da computação para definir comandos de texto interpretados pelas máquinas para a realização de uma ação. Eles foram fundamentais antes de as interfaces gráficas se popularizarem nos PCs e, com a ascensão das IAs generativas, voltaram a ganhar importância de uma forma diferente, já que se tornaram o principal método de interação com robôs cujas capacidades se expandem em ritmo acelerado.
“Quando damos um comando para uma inteligência artificial, damos uma instrução sobre como ela deve se comportar e quais informações queremos que ela devolva. A engenharia de prompts é uma forma de trabalhar as instruções para que a IA retorne à informação mais assertiva possível”, explica Guilherme Dortas, head de tecnologia na consultoria Ace Cortex.
De volta ao exemplo do início do texto, talvez seja necessário adicionar mais contexto ao trecho “na minha terra tem palmeiras, onde canta o…” para que um modelo de linguagem seja capaz de retornar o complemento “sabiá”.
A chance de uma resposta correta aumentaria se o usuário informasse se tratar da poesia Canção do Exílio, de Gonçalves Dias, e, principalmente, se deixasse explícita a instrução de completar o tão famoso verso. Isso é engenharia de prompt na prática.
“A engenharia de prompt é um passo importante na interação humano-IA-computador, porque a forma como uma pergunta é formulada pode influenciar significativamente a qualidade e a utilidade da resposta gerada por uma IA. Por exemplo, uma pergunta bem formulada pode trazer melhoria na precisão das respostas, reduzir tempo e esforço para chegar a uma resposta útil e melhorar a experiência do usuário”, explica o professor Anderson Rocha, diretor do Laboratório de Inteligência Artificial (Recod.ai) do Instituto de Computação da Unicamp.
A inteligência artificial generativa tem despertado a atenção das empresas e se tornado uma ferramenta poderosa para acelerar tarefas corriqueiras. Diante da necessidade de fazer as perguntas certas para conseguir as melhores respostas, a engenharia de prompt passa a ser uma habilidade fundamental para a interação cotidiana com a IA.
Ao longo dos próximos anos, as inteligências artificiais tendem a se tornar uma commodity, e não mais uma novidade. Assim, as empresas que souberem fazer o melhor uso da ferramenta podem levar vantagem no mercado.
“O diferencial competitivo depende das informações que uma empresa tem, da inteligência artificial usada e, principalmente, de como isso é trabalhado para a inteligência de negócios”, afirma Guilherme Dortas. Para ele, tão importante quanto ter a tecnologia é saber utilizá-la para obter os insights corretos para tomar uma decisão.
Se o uso de uma tecnologia tão disruptiva, que tem transformado diversos ramos econômicos, depende tanto dos comandos corretos, surge também a discussão de que a engenharia de prompts deixe de ser apenas uma habilidade e se torne uma carreira dentro das organizações. No entanto, para Anderson Rocha, esse parece ser um cenário improvável.
“Qualquer pessoa pode melhorar a forma de interação com as IAs à medida que treine para isso e observe os resultados. Não vejo como uma possível profissão”, afirma o pesquisador, que ressalta que a evolução dos modelos de linguagens fará com que a engenharia de prompts perca importância no longo prazo, já que as máquinas se tornarão cada vez mais capazes de reconhecer nuances e ambiguidades, reduzindo a dependência de um comando altamente preciso. “Hoje já há experimentos que mostram que a própria IA pode melhorar os prompts iniciais dos usuários para gerar prompts mais precisos antes de efetivamente buscar respostas”, comenta.
A evolução da tecnologia nessa direção é classificada como “grounding”, presente em ferramentas como o Einstein 1, da Salesforce. Nesse caso, a própria solução se encarrega de dar mais contexto a uma solicitação com base nos dados de negócios, em busca de respostas que atendam melhor às necessidades do usuário, em vez de retornar resultados genéricos e pouco relevantes.
Como parte fundamental de uma estratégia de adoção de inteligência artificial, a engenharia de prompts deve ser uma preocupação para toda a organização, tendo início na liderança. Uma forma de conduzir o tema internamente é pela experimentação, como recomenda Guilherme Dortas. Para isso, um caminho é testar o modelo com um processo cuja resposta já seja conhecida, por exemplo em uma estratégia que já tenha sido adotada no passado durante o lançamento de um produto.
Alimentando a inteligência artificial com dados anteriores, ela pode gerar uma abordagem que provavelmente terá semelhanças com a adotada no passado, mas com novos insights. “Como você já conhece o cenário, é possível saber se as recomendações estão de acordo com a realidade da época”, explica Dortas. Então, basta refinar o processo para encontrar quais seriam os prompts mais adequados diante do cenário do passado. Esse método permite começar pequeno, com pouco investimento, e, aos poucos, implementar os conhecimentos na linha de produção visando a obtenção de resultados mais precisos.
O prompt pode contar com vários componentes diferentes, como define a Dojo Future, escola que ensina sobre o tema
Instrução: o comando em si, ou seja, uma solicitação que a máquina deve responder.
Contexto: informações adicionais, que podem ser externas, para direcionar a resposta desejada.
Dados de entrada: são a pergunta que deve ser respondida.
Indicadores de saída: são as informações sobre o formato da solução almejada.