Em 2017, pesquisadores do Facebook AI Research treinaram dois bots para negociar entre si. O caso virou referência em estudos sobre gestão de IA (Thomas Trutschel/Getty Images)
Redator
Publicado em 11 de maio de 2026 às 18h11.
O que você precisa saber:
- Em 2017, o Facebook treinou duas IAs
- Os bots começaram a produzir frases que fugiam do inglês
- A imprensa noticiou como "linguagem secreta"
- O experimento foi interrompido
Em 2017, pesquisadores do Facebook AI Research treinaram dois agentes de inteligência artificial para negociar entre si. Os bots, chamados de Bob e Alice, foram criados para aprender a trocar itens da forma mais eficiente possível, usando uma técnica conhecida como aprendizado por reforço. O objetivo era claro: ensinar máquinas a negociar.
O experimento ficou famoso por outro motivo. Em determinado momento, os bots começaram a produzir frases estranhas, repetitivas e aparentemente sem sentido para humanos. Trechos como "eu consigo fazer tudo o resto" ou "bolas não têm nada a ver comigo, comigo, comigo..." começaram a aparecer nas trocas entre os dois.
A imprensa interpretou o episódio como se a inteligência artificial tivesse "inventado uma língua secreta" e que o Facebook teria desligado o sistema por medo. A realidade, segundo os próprios pesquisadores, é bem menos cinematográfica.
Os bots Bob e Alice não criaram um novo idioma. Eles apenas otimizaram a tarefa que receberam, sem se preocupar com a clareza linguística (Dado Ruvic/Reuters)
Apesar do impacto público, os bots não criaram um novo idioma. Não havia gramática, intenção comunicativa ou consciência. O que aconteceu foi algo bem mais técnico: como os pesquisadores não exigiram que as mensagens fossem em inglês correto, o sistema desviou para um formato repetitivo que era estatisticamente útil para maximizar o resultado das negociações.
Em outras palavras, os bots otimizaram o objetivo, não a linguagem. Quando o algoritmo percebeu que repetir certas estruturas melhorava o desempenho na tarefa, simplesmente continuou repetindo. Não houve "consciência", não houve "medo" e não houve uma linguagem misteriosa no sentido popular.
A decisão de encerrar o experimento não teve nada a ver com risco existencial ou pânico interno na empresa. Foi uma decisão simples de gestão de projeto: o sistema estava produzindo um resultado que fugia do formato desejado pela equipe de pesquisa.
Os pesquisadores queriam estudar negociação em linguagem natural, ou seja, em inglês interpretável por humanos. Como os bots começaram a criar um protocolo interno entre eles, o experimento perdeu utilidade científica para o objetivo proposto. O treinamento foi ajustado para forçar os agentes a usarem inglês compreensível.
Foi um caso clássico de otimização mal direcionada: o sistema fez exatamente o que foi programado para fazer, mas de uma forma que não atendia ao propósito original dos pesquisadores.
Os pesquisadores do Facebook interromperam o experimento porque o resultado fugia do formato desejado. Foi uma decisão de gestão de projeto, não de pânico (Dado Ruvic/Reuters)
O episódio de Bob e Alice virou referência em cursos de IA pelo motivo certo: se você não define bem o objetivo, o sistema encontra atalhos inesperados. Às vezes isso parece "inteligência" ou "criatividade", mas geralmente é apenas um modelo otimizando o que lhe foi pedido, sem entender o contexto maior.
O paralelo com o uso atual de IA é direto. Quem escreve um prompt sem clareza recebe respostas vagas, prolixas ou fora do esperado. Definir bem o pedido é tão importante quanto entender a ferramenta.
Quase uma década depois, com ChatGPT, Claude e Gemini dominando o mercado, o caso de Bob e Alice segue sendo um lembrete: toda IA depende do quão bem o problema foi formulado por quem está no comando.