Redação Exame
Publicado em 3 de fevereiro de 2026 às 05h24.
A OpenAI iniciou, ao longo do último ano, um movimento para reduzir sua dependência dos chips da Nvidia em parte de sua infraestrutura de inteligência artificial. A estratégia, segundo a Reuters, reflete uma mudança de prioridades tecnológicas e pode alterar a relação entre duas das empresas mais centrais do atual ciclo de expansão da IA.
O ajuste ocorre em meio à crescente relevância da inferência, etapa em que modelos já treinados processam pedidos e geram respostas em tempo real. Embora a Nvidia continue líder absoluta em chips voltados ao treinamento de grandes modelos, a inferência passou a exigir soluções mais especializadas, com impacto direto na experiência do usuário.
Fontes próximas à OpenAI afirmaram à Reuters que parte do descontentamento está ligada ao desempenho de hardware em tarefas que exigem respostas rápidas, como programação e integração entre sistemas de software. Para esses usos, a latência se tornou um fator crítico.
A empresa avalia a adoção de novos tipos de chips capazes de suprir uma fração relevante de suas necessidades futuras de inferência. O objetivo não é substituir completamente a Nvidia, mas complementar a infraestrutura com soluções mais eficientes para demandas específicas.
A mudança de rumo coincidiu com negociações prolongadas entre OpenAI e Nvidia sobre um possível investimento de grande porte da fabricante de chips na criadora do ChatGPT. O acordo, que envolveria recursos suficientes para financiar a compra de hardware avançado, não avançou no ritmo inicialmente esperado.
Durante esse período, a OpenAI ampliou conversas com outros fornecedores, incluindo a AMD, e ajustou seu planejamento tecnológico, o que contribuiu para atrasos nas tratativas. Publicamente, as duas empresas mantêm um discurso de cooperação e reforçam que a parceria segue relevante.
A busca por alternativas levou a OpenAI a avaliar chips com grandes volumes de memória integrada ao processador, arquitetura considerada mais adequada para inferência em larga escala. Esse tipo de design reduz o tempo de acesso a dados e pode acelerar a geração de respostas em aplicações com milhões de usuários simultâneos.
Nesse contexto, surgiram negociações com startups especializadas em novos modelos de semicondutores. Um acordo comercial recente com a Cerebras faz parte dessa estratégia. Já tratativas com a Groq não avançaram após a Nvidia fechar um contrato para licenciar sua tecnologia, reforçando sua presença nesse segmento emergente.
O movimento da OpenAI sinaliza uma inflexão no mercado de chips para inteligência artificial. A fase inicial do boom foi dominada pelo treinamento de modelos cada vez maiores; agora, o foco se desloca para eficiência, custo e velocidade no uso cotidiano dessas ferramentas.
Concorrentes como Google e Anthropic já apostam em chips desenvolvidos internamente, desenhados para inferência. Para investidores, a diversificação de fornecedores pela OpenAI indica que o próximo ciclo de crescimento da IA pode redistribuir valor no setor de semicondutores e reduzir a concentração em um único player.