Inteligência Artificial

Modelos de IA com raciocínio consomem até 100 vezes mais energia, aponta estudo

O estudo avaliou 40 modelos abertos, incluindo sistemas da OpenAI, Google, DeepSeek e Microsoft

André Lopes
André Lopes

Repórter

Publicado em 5 de dezembro de 2025 às 16h17.

Sistemas de inteligência artificial projetados para “pensar” de forma semelhante a humanos, resolvendo problemas passo a passo, estão inaugurando não só uma nova fase tecnológica, mas também um novo patamar de custo energético. E ele é muito mais alto do que o imaginado.

Um levantamento divulgado na quinta-feira, 4, pelo AI Energy Score, iniciativa conduzida por Sasha Luccioni (Hugging Face) e Boris Gamazaychikov (Salesforce), mostra que modelos de raciocínio consomem, em média, 100 vezes mais energia para executar 1.000 prompts do que versões equivalentes sem essa capacidade habilitada.

O estudo avaliou 40 modelos abertos, incluindo sistemas da OpenAI, Google, DeepSeek e Microsoft.

Saltos de consumo que chegam a 6.000 vezes

As diferenças variam de grandes a absurdas. Uma versão simplificada do R1, da chinesa DeepSeek, usou apenas 50 Wh (watt-hora) com o raciocínio desligado, o equivalente a manter uma lâmpada acesa por uma hora. Com o raciocínio ativado, o mesmo modelo demandou 308.186 Wh, um salto de mais de 6.000 vezes.

Outros modelos seguiram a mesma lógica, embora em proporções menores:

  • Phi-4 (Microsoft): 18 Wh → 9.462 Wh

  • gpt-oss (OpenAI): 313 Wh → 8.504 Wh

Todos os testes foram feitos no mesmo hardware, usando prompts idênticos, e monitorados pelo software CodeCarbon, o que elimina efeito de plataforma e expõe a diferença como resultado direto do recurso de raciocínio.

Pressão crescente sobre redes elétricas

Os números se somam a uma tendência já detectada por órgãos reguladores e pelo mercado: a IA está ficando pesada demais para a infraestrutura atual.

Uma análise da Bloomberg mostrou que, nas regiões ao redor de clusters de data centers, a eletricidade no atacado subiu até 267% em cinco anos.

A Agência Internacional de Energia projeta que o consumo global dos data centers deve quase dobrar até 2030, enquanto o gasto energético dos centros dedicados a IA pode quadruplicar.

Modelos de raciocínio tornam essa conta ainda mais cara: por natureza, eles produzem respostas longas, exploram caminhos diferentes até chegar à solução e continuam gerando texto mesmo quando um modelo padrão já teria parado.

Transparência e a busca por um “Energy Star da IA”

Apesar da pressão sobre redes elétricas e emissões, empresas usuárias de IA ainda voam no escuro.

O AI Energy Score tenta preencher essa lacuna — funcionando como um rascunho de “selo de eficiência” para IA, inspirado no Energy Star. O ranking classifica modelos em cinco níveis de eficiência e deve ganhar novas camadas à medida que mais laboratórios aderirem à padronização.

A tendência, segundo especialistas, é que as big techs sejam pressionadas não apenas a entregar modelos mais inteligentes, mas também menos custosos para o planeta — especialmente em um momento em que a corrida pelos “modelos de raciocínio” virou prioridade em praticamente todos os laboratórios do setor.

Acompanhe tudo sobre:OpenAIData centerInteligência artificialGoogleDeepSeek

Mais de Inteligência Artificial

GPT-5.2 deve ser lançado na semana que vem; e o Gemini 3 é o principal motivo

Os desafios da TSMC para expandir a produção de chips nos Estados Unidos

Ele largou um emprego com advogado junior e criou a Harvey, startup que agora vale US$ 8 bilhões

Prêmio Nobel para IA? CEO do SoftBank diz que tecnologia vai superar humanos