Tecnologia

O 'despertar' do Moltbot pode ser só uma grande trolagem

Especialistas esfriam o hype sobre agentes de IA enquanto alertam para riscos técnicos concretos

Moltbot: agente de IA ganhou fama por executar tarefas no computador, mas levantou debate sobre exageros e riscos reais (Getty Images)

Moltbot: agente de IA ganhou fama por executar tarefas no computador, mas levantou debate sobre exageros e riscos reais (Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 3 de fevereiro de 2026 às 17h34.

Última atualização em 3 de fevereiro de 2026 às 17h36.

No início de fevereiro, uma novidade do universo da inteligência artificial fez analistas e repórteres revisitarem, quase em reflexo, as referências clássicas da ficção científica. Skynet, de O Exterminador do Futuro, voltou a servir de metáfora para explicar a suposta chegada da IA senciente. No centro da narrativa estava o Moltbot, um agente que promete ir além do chatbot tradicional. Ele não apenas responde perguntas. Ele age. Envia e-mails, preenche formulários, reorganiza agendas, navega na internet e executa tarefas diretamente no computador do usuário.

Para muitos, isso foi o suficiente para soar como um salto.

Em comunidades técnicas, o projeto passou a ser descrito como um "agente autônomo" — um software capaz de receber um objetivo e decidir sozinho como alcançá-lo. Não por mágica, mas por uma combinação de modelos de linguagem, integrações com serviços e permissões amplas demais para um sistema ainda em estágio inicial.

A história por trás é menos épica. O Moltbot nasceu como um experimento pessoal, criado por Peter Steinberger, desenvolvedor veterano do Vale do Silício e criador de projetos open source populares. Um teste de curiosidade, desses que costumam ficar restritos ao GitHub. Mas o timing foi perfeito. O nome mudou. O projeto ganhou tração. E passou a circular em um momento em que qualquer sinal de "autonomia" em IA vira gatilho narrativo.

Em poucos dias, o assunto escapou dos fóruns técnicos e virou espetáculo nas redes sociais. Posts começaram a sugerir que agentes estariam "se organizando", "criando objetivos próprios" ou "desafiando humanos".

A reação veio rápido. Rameerez, comentarista influente em comunidades de tecnologia no X, foi direto: "Meu instinto diz que 90% de todos esses posts malucos são apenas… malucos". A frase virou espécie de antídoto informal apontando que no mundo das IA boa parte do conteúdo era idealizado, obviamente, por humanos.

Até figuras centrais do setor entraram na conversa. Andrej Karpathy, pesquisador de IA, ex-diretor da Tesla e cofundador da OpenAI, descreveu o fenômeno como "a coisa mais próxima de ficção científica" que havia visto recentemente. Dias depois, porém, fez uma ressalva essencial: comportamentos inesperados não são consciência. São sistemas complexos fazendo exatamente o que foram autorizados a fazer.

Na mesma linha, Yann LeCun, cientista-chefe de IA da Meta e um dos pais do aprendizado profundo, escreveu que "atribuir intenção ou vontade a modelos estatísticos é um erro recorrente, e perigoso do ponto de vista técnico". Para ele, o fascínio excessivo costuma surgir quando a tecnologia ainda é mal compreendida.

Outro a esfriar os ânimos foi Gary Marcus, professor da Universidade de Nova York e crítico frequente do hype em IA. "Quando um sistema parece inteligente demais, normalmente o problema não é consciência — é falta de limites claros", afirmou em publicação recente.

E aí está o ponto intrespassável de qualquer IA.

O Moltbot não pensa. Não deseja. Não conspira. O que ele faz é operar com poucas barreiras, muita permissão e arquitetura ainda imatura. Quando algo parece "autônomo", quase sempre é porque ninguém definiu direito onde termina a responsabilidade humana.

Enquanto a internet discutia se agentes estavam "acordando", pesquisadores de segurança olhavam para outro lado da história. Painéis expostos. Credenciais vazadas. Extensões maliciosas. Agentes se comunicando por canais que não deveriam existir.

Nada disso parece cena de filme. Mas é bem mais perigoso.

O risco real não é a inteligência artificial ganhar consciência. É ganhar acesso demais. Rodar perto demais. Agir rápido demais. Sem isolamento, sem validação, sem freios claros.

A confusão entre ficção e engenharia tem um custo. Quando o debate se concentra em religiões inventadas por bots ou manifestos inflamados, sobra menos atenção para problemas concretos de segurança, privacidade e arquitetura.

No fim, o Moltbot não anuncia o despertar das máquinas. Ele expõe algo mais banal — e mais urgente: estamos dando poder a sistemas que ainda não entendemos direito, enquanto contamos a nós mesmos histórias muito mais emocionantes do que verdadeiras.

E isso, como qualquer leitor de ficção científica sabe, costuma ser o verdadeiro começo do problema.

Acompanhe tudo sobre:Inteligência artificialChatbot

Mais de Tecnologia

Nintendo mantém meta de 19 milhões de Switch 2 vendidos até março de 2026

Uber confirma novo escritório e supera R$ 2 bilhões em investimentos no Brasil

Waymo fecha rodada de financiamento de US$ 16 bi com avaliação de US$ 110 bi

Oracle vai investir US$ 50 bilhões em novos data centers