Repórter
Publicado em 5 de dezembro de 2025 às 16h17.
Sistemas de inteligência artificial projetados para “pensar” de forma semelhante a humanos, resolvendo problemas passo a passo, estão inaugurando não só uma nova fase tecnológica, mas também um novo patamar de custo energético. E ele é muito mais alto do que o imaginado.
Um levantamento divulgado na quinta-feira, 4, pelo AI Energy Score, iniciativa conduzida por Sasha Luccioni (Hugging Face) e Boris Gamazaychikov (Salesforce), mostra que modelos de raciocínio consomem, em média, 100 vezes mais energia para executar 1.000 prompts do que versões equivalentes sem essa capacidade habilitada.
O estudo avaliou 40 modelos abertos, incluindo sistemas da OpenAI, Google, DeepSeek e Microsoft.
As diferenças variam de grandes a absurdas. Uma versão simplificada do R1, da chinesa DeepSeek, usou apenas 50 Wh (watt-hora) com o raciocínio desligado, o equivalente a manter uma lâmpada acesa por uma hora. Com o raciocínio ativado, o mesmo modelo demandou 308.186 Wh, um salto de mais de 6.000 vezes.
Outros modelos seguiram a mesma lógica, embora em proporções menores:
Phi-4 (Microsoft): 18 Wh → 9.462 Wh
gpt-oss (OpenAI): 313 Wh → 8.504 Wh
Todos os testes foram feitos no mesmo hardware, usando prompts idênticos, e monitorados pelo software CodeCarbon, o que elimina efeito de plataforma e expõe a diferença como resultado direto do recurso de raciocínio.
Os números se somam a uma tendência já detectada por órgãos reguladores e pelo mercado: a IA está ficando pesada demais para a infraestrutura atual.
Uma análise da Bloomberg mostrou que, nas regiões ao redor de clusters de data centers, a eletricidade no atacado subiu até 267% em cinco anos.
A Agência Internacional de Energia projeta que o consumo global dos data centers deve quase dobrar até 2030, enquanto o gasto energético dos centros dedicados a IA pode quadruplicar.
Modelos de raciocínio tornam essa conta ainda mais cara: por natureza, eles produzem respostas longas, exploram caminhos diferentes até chegar à solução e continuam gerando texto mesmo quando um modelo padrão já teria parado.
Apesar da pressão sobre redes elétricas e emissões, empresas usuárias de IA ainda voam no escuro.
O AI Energy Score tenta preencher essa lacuna — funcionando como um rascunho de “selo de eficiência” para IA, inspirado no Energy Star. O ranking classifica modelos em cinco níveis de eficiência e deve ganhar novas camadas à medida que mais laboratórios aderirem à padronização.
A tendência, segundo especialistas, é que as big techs sejam pressionadas não apenas a entregar modelos mais inteligentes, mas também menos custosos para o planeta — especialmente em um momento em que a corrida pelos “modelos de raciocínio” virou prioridade em praticamente todos os laboratórios do setor.