OpenAI: um circuito fechado em que capital, computação e contratos giram entre os mesmos atores (Imagem gerada por IA/Freepik)
Repórter
Publicado em 8 de fevereiro de 2026 às 15h22.
À primeira vista, parece que a OpenAI, dona do ChatGPT, levanta dinheiro para gastar em computação.
Na prática, acontece o contrário. Ela gasta computação para levantar dinheiro. Investidores entram como sócios e saem como fornecedores. Fornecedores entram como parceiros e saem como clientes. O capital circula, mas raramente sai do sistema.
Foi assim que a empresa de Sam Altman construiu um modelo de crescimento pouco convencional. Em vez de separar quem investe, quem vende infraestrutura e quem consome tecnologia, a OpenAI passou a reunir todos esses papéis na mesma engrenagem.
O dinheiro entra como aporte e retorna como pagamento por chips, nuvem e data centers. Muitas vezes para as mesmas empresas que fizeram o investimento inicial.
Esse arranjo permitiu à OpenAI ampliar sua capacidade computacional em ritmo acelerado, mesmo sem apresentar lucro recorrente. Assim, a empresa faz parceiros se tornarem peças de um sistema interdependente — e passou a operar menos como uma startup tradicional e mais como o centro de uma nova economia da IA.
O modelo ganhou forma com a Microsoft. Entre 2019 e 2023, a empresa investiu cerca de US$ 13 bilhões na OpenAI e se tornou sua fornecedora exclusiva de nuvem.
Na prática, parte relevante desse capital voltou para a própria Microsoft como consumo de infraestrutura no Azure, usada para treinar e operar os modelos.
O arranjo resolveu dois problemas ao mesmo tempo. A OpenAI garantiu capacidade computacional em escala antes de gerar caixa suficiente.
A Microsoft conquistou um cliente âncora e acelerou sua estratégia de IA corporativa, integrando os modelos da OpenAI a produtos como Office e serviços empresariais.
Com a expansão dos modelos, o centro de gravidade passou dos data centers para os chips. A Nvidia, que domina o mercado de processadores para IA, tornou-se um elo crítico.
A empresa anunciou planos de investir até US$ 100 bilhões na OpenAI, enquanto segue como principal fornecedora das GPUs usadas pela companhia.
Assim, se criou um ciclo. O capital ajuda a financiar a expansão da OpenAI; a expansão aumenta a demanda por chips; a venda de chips reforça o caixa da Nvidia.
Para reduzir o risco de dependência, a OpenAI passou a diversificar fornecedores, firmando acordos com a AMD e desenvolvendo chips próprios em parceria com Broadcom e TSMC.
A lógica circular avançou para os data centers. A Oracle se comprometeu a investir centenas de bilhões de dólares na construção de instalações dedicadas à OpenAI em vários estados americanos.
Em contrapartida, a OpenAI assinou contratos de longo prazo para uso dessa capacidade, garantindo previsibilidade de demanda.
Com a CoreWeave, especializada em computação para IA, o vínculo foi ainda mais estreito.
A OpenAI fechou contratos bilionários, recebeu participação acionária e viu a empresa usar esse capital para comprar chips da Nvidia. A computação adquirida retorna ao sistema para treinar os próprios modelos da OpenAI.
Esse arranjo ajudou a levar a OpenAI a uma avaliação próxima de US$ 500 bilhões sem abertura de capital e sem lucro recorrente.
Em 2025, a empresa realizou a maior venda secundária já registrada em uma companhia privada, permitindo liquidez para funcionários e atraindo investidores como SoftBank, Thrive Capital e fundos soberanos do Oriente Médio.
Ao mesmo tempo, a OpenAI assumiu compromissos de mais de US$ 1 trilhão em gastos com infraestrutura ao longo da próxima década, amarrando sua expansão a contratos de longo prazo com parceiros estratégicos.
Analistas apontam semelhanças com o modelo de “vendor financing” da bolha da internet, quando fornecedores financiavam clientes para sustentar crescimento artificial.
No caso da OpenAI, a interdependência amplia o risco sistêmico: uma desaceleração na adoção da IA pode atingir simultaneamente chips, nuvem, data centers e valuation. Um bug no sistema.