Inteligência Artificial

Modelos de IA com raciocínio consomem até 100 vezes mais energia, aponta estudo

O estudo avaliou 40 modelos abertos, incluindo sistemas da OpenAI, Google, DeepSeek e Microsoft

André Lopes
André Lopes

Repórter

Publicado em 5 de dezembro de 2025 às 16h17.

Sistemas de inteligência artificial projetados para “pensar” de forma semelhante a humanos, resolvendo problemas passo a passo, estão inaugurando não só uma nova fase tecnológica, mas também um novo patamar de custo energético. E ele é muito mais alto do que o imaginado.

Um levantamento divulgado na quinta-feira, 4, pelo AI Energy Score, iniciativa conduzida por Sasha Luccioni (Hugging Face) e Boris Gamazaychikov (Salesforce), mostra que modelos de raciocínio consomem, em média, 100 vezes mais energia para executar 1.000 prompts do que versões equivalentes sem essa capacidade habilitada.

O estudo avaliou 40 modelos abertos, incluindo sistemas da OpenAI, Google, DeepSeek e Microsoft.

Saltos de consumo que chegam a 6.000 vezes

As diferenças variam de grandes a absurdas. Uma versão simplificada do R1, da chinesa DeepSeek, usou apenas 50 Wh (watt-hora) com o raciocínio desligado, o equivalente a manter uma lâmpada acesa por uma hora. Com o raciocínio ativado, o mesmo modelo demandou 308.186 Wh, um salto de mais de 6.000 vezes.

Outros modelos seguiram a mesma lógica, embora em proporções menores:

  • Phi-4 (Microsoft): 18 Wh → 9.462 Wh

  • gpt-oss (OpenAI): 313 Wh → 8.504 Wh

Todos os testes foram feitos no mesmo hardware, usando prompts idênticos, e monitorados pelo software CodeCarbon, o que elimina efeito de plataforma e expõe a diferença como resultado direto do recurso de raciocínio.

Pressão crescente sobre redes elétricas

Os números se somam a uma tendência já detectada por órgãos reguladores e pelo mercado: a IA está ficando pesada demais para a infraestrutura atual.

Uma análise da Bloomberg mostrou que, nas regiões ao redor de clusters de data centers, a eletricidade no atacado subiu até 267% em cinco anos.

A Agência Internacional de Energia projeta que o consumo global dos data centers deve quase dobrar até 2030, enquanto o gasto energético dos centros dedicados a IA pode quadruplicar.

Modelos de raciocínio tornam essa conta ainda mais cara: por natureza, eles produzem respostas longas, exploram caminhos diferentes até chegar à solução e continuam gerando texto mesmo quando um modelo padrão já teria parado.

Transparência e a busca por um “Energy Star da IA”

Apesar da pressão sobre redes elétricas e emissões, empresas usuárias de IA ainda voam no escuro.

O AI Energy Score tenta preencher essa lacuna — funcionando como um rascunho de “selo de eficiência” para IA, inspirado no Energy Star. O ranking classifica modelos em cinco níveis de eficiência e deve ganhar novas camadas à medida que mais laboratórios aderirem à padronização.

A tendência, segundo especialistas, é que as big techs sejam pressionadas não apenas a entregar modelos mais inteligentes, mas também menos custosos para o planeta — especialmente em um momento em que a corrida pelos “modelos de raciocínio” virou prioridade em praticamente todos os laboratórios do setor.

Acompanhe tudo sobre:OpenAIData centerInteligência artificialGoogleDeepSeek

Mais de Inteligência Artificial

Manter um robô humanoide pode custar o mesmo que um Ônix ou HB20

Elon Musk: homem mais rico do mundo acerta ao prever robôs superando humanos?

Robôs podem substituir milhões de humanos até 2050

Google investe em startup japonesa para ampliar presença do Gemini no país