Inteligência Artificial

A nova crise da IA começa nos chips de memória

Fabricantes como Microsoft, Google e ByteDance disputam memória com celulares e PCs; escassez já pressiona inflação e ameaça crescimento do setor

IA: setor enfrenta nova crise  (J Studios/Getty Images)

IA: setor enfrenta nova crise (J Studios/Getty Images)

Publicado em 3 de dezembro de 2025 às 06h01.

Enquanto no mercado financeiro existe a preocupação sobre a inteligência artificial (IA) ser ou não uma bolha, no mundo tangível a dúvida que surge agora é se as cadeias de fornecimento estão prontas para suportar a escalada de demanda que a IA exige.

O alerta vem da escassez aguda de chips de memória, insumo essencial para sistemas de IA e dispositivos eletrônicos. A partir de outubro, os estoques globais de DRAM — memória usada em celulares e computadores — caíram de até 17 semanas para apenas duas semanas, segundo a TrendForce.

Grandes empresas como Microsoft, Google e ByteDance iniciaram uma corrida por contratos com fabricantes como Micron, Samsung e SK Hynix, ao mesmo tempo em que varejistas no Japão impõem limite de compra para consumidores e fabricantes de celulares na China alertam para aumentos de preços, segundo a Reuters.

A crise atinge desde memórias flash até high-bandwidth memory (HBM), usadas em data centers. Parte do problema vem do deslocamento de investimentos: para atender à corrida por chips de alto desempenho, os fabricantes reduziram a produção de memórias tradicionais, o que afetou o restante da indústria, que depende desses componentes.

Impacto macroeconômico

A escassez é vista como risco macroeconômico. Economistas e executivos alertam que a falta de componentes pode retardar os ganhos de produtividade esperados com a IA e adiar projetos de infraestrutura digital avaliados em centenas de bilhões de dólares.

Segundo relatório do Goldman Sachs Research de fevereiro, a demanda global de energia por data centers deve crescer 50% até 2027 e até 165% até o final dessa década. Desse total, 27% do consumo será ligado a cargas de trabalho de IA, como o treinamento de modelos generativos.

Esse aumento exige investimentos massivos em infraestrutura: US$ 720 bilhões em redes elétricas até 2030 e até US$ 6,7 trilhões em data centers, sendo US$ 5,2 trilhões apenas para aplicações de IA, segundo estimativas da McKinsey.

Risco de sobrecarga e subinvestimento

A corrida por capacidade computacional criou um impasse.

O investimento em IA pressiona os fabricantes de chips, que enfrentam gargalos de produção e riscos de excesso futuro. Ao mesmo tempo, a hesitação em expandir pode resultar em escassez persistente.

A McKinsey estima que 70% da demanda de data centers até 2030 virá de aplicações de IA. Em um cenário otimista, a necessidade pode exigir até 205 gigawatts adicionais de capacidade elétrica global — exigindo investimentos de até US$ 7,9 trilhões.

Mas há incertezas. Avanços como o modelo DeepSeek V3, da China, prometem cortes de até 36 vezes nos custos de inferência, o que pode reduzir a pressão sobre infraestrutura. Por outro lado, mais eficiência pode levar a mais experimentação, o que mantém a demanda elevada.

A batalha pelo insumo-chave: memória

Com a infraestrutura atrasada, a pressão recai sobre os componentes mais básicos. A memória DRAM é o elo mais frágil da cadeia no momento. Com prazos de produção longos e receio de superoferta, fabricantes mantêm o ritmo cauteloso, mesmo diante da escassez.

Nos últimos meses, um número crescente de acordos entre as principais empresas de IA tem gerado preocupações sobre a criação de um sistema econômico fechado e interdependente na indústria.

As parcerias entre Nvidia, OpenAI, Oracle e outras companhias estão criando um ciclo de investimentos que, embora necessário para o rápido crescimento do setor, também levanta questões sobre a sustentabilidade e a transparência desses movimentos financeiros.

Esses acordos, muitas vezes considerados "circulares", envolvem transações em que as empresas investem umas nas outras, o que resulta em uma série de fluxos financeiros que, para analistas, podem inflar artificialmente as avaliações do mercado de IA.

Por exemplo, quando OpenAI investe na construção de data centers com Oracle, essa última acaba gastando uma parte significativa de sua receita com a compra de chips da Nvidia. Isso cria um ciclo de retorno de capital para a Nvidia, que, por sua vez, já tem grandes investimentos em OpenAI e outras startups de IA.

Cerca de 60% do investimento estimado em IA até 2030 irá para chips e hardware, segundo a McKinsey. Com poucas empresas dominando o mercado, o risco de concentração de fornecimento é alto, tornando a memória um gargalo estratégico.

Infraestrutura sem energia não avança

Mesmo se o fornecimento de chips se estabilizar, o crescimento da IA depende de algo ainda mais crítico: energia elétrica. Hoje, os data centers consomem cerca de 55 GW. Até 2027, esse número pode saltar para 84 GW, com IA consumindo mais de um quarto do total.

A expansão depende da capacidade de investimento em geração, transmissão e resfriamento. Projetos de energia podem levar anos para sair do papel, e a escassez de infraestrutura elétrica ameaça se tornar o próximo gargalo da computação de IA.

Acompanhe tudo sobre:Inteligência artificialChipsData center

Mais de Inteligência Artificial

Nadella diz que tamanho da Microsoft virou obstáculo na corrida da IA

Google ameaça OpenAI e Nvidia com avanço do Gemini e chips próprios

CEO do SoftBank diz que ‘chorou’ ao vender ações da Nvidia para investir na OpenAI

Nvidia lança modelo de IA aberto para pesquisas com veículos autônomos