Adam Selipsky, CEO da Amazon Web Services (AWS), e Jensen Huang, CEO da Nvidia: novas rivais? (Noah Berger/Getty Images)
Repórter
Publicado em 29 de janeiro de 2024 às 12h16.
Última atualização em 30 de janeiro de 2024 às 07h31.
Em setembro do ano passado, a Amazon anunciou um investimento de US$ 4 bilhões na Anthropic, uma startup de São Francisco que desenvolve inteligência artificial (IA) generativa, o tipo de IA que responde após um comando ser enviado por texto, áudio ou imagem.
Pode parecer óbvio apostar em um possível concorrente para o ChatGPT da OpenAI, mas o plano faz parte de uma estratégia maior da empresa para criar uma concorrência viável para um outro player importante: a Nvidia.
O motivo é que a empresa de chips liderada por Jensen Huang atualmente domina sozinha os cérebros das inteligências artificiais com seus chips especializados.
Para conseguir incomodar a líder, a Amazon escolheu a Anthropic com a condição de a empresa concordar em construir as IAs utilizando apenas os componentes criados pela própria Amazon.
E faz sentido propor uma segunda via nesse mercado. Diante da crescente demanda e do alto custo dos sistemas da Nvidia, gigantes da tecnologia como Google, Meta e Microsoft estão desenvolvendo seus próprios chips de IA. Essa iniciativa pode proporcionar controle mais direto sobre custos e eliminar a escassez de chips, além de abrir a possibilidade de oferecer acesso a esses chips por meio de serviços de nuvem, facilitando o acesso a IAs de empresas menores.
Embora a Nvidia tenha vendido 2,5 milhões de chips no ano passado e controle 70% do mercado, o Google gastou entre US$ 2 bilhões e US$ 3 bilhões construindo cerca de um milhão de seus próprios chips de IA. Já a Amazon, por hora, gastou US$ 200 milhões em 100 mil chips no ano passado.
Todo esse rearranjo deve dividir melhor a fatia do mercado de chips de IA, projetado para mais que dobrar até 2027, atingindo cerca de US$ 140 bilhões. E ainda que startups entrem na jogada, a vantagem, claro, é das gigantes como a Amazon.
A tarefa de fabricar um chip não é das mais fáceis, não por acaso, a Nvidia levou quase 30 anos para chegar no patamar dos dias atuais. Mas há sucessos no setor que provam ser possível.
A Apple, por exemplo, projeta seus próprios componentes de silício para iPhones e Macs, e a Amazon implantou mais de dois milhões de seus próprios chips de servidor tradicionais em seus data centers de computação em nuvem
No caso da IA, o Google tem a maior vantagem no desenvolvimento de chips. Em 2017, a empresa do buscador criou um hardware que realiza o processamento de tensores, ou TPU, em homenagem a um tipo de cálculo vital para a construção de inteligência artificial. O Google usou dezenas de milhares de TPUs para construir produtos de IA, incluindo seu chatbot, Google Bard.
E outras empresas usaram o chip através do serviço de nuvem do Google para construir tecnologias semelhantes, incluindo a startup Cohere, que se tornou unicórnio recentemente.
Contudo, mesmo com as opções, nenhuma dessas empresas parece próxima da Nvidia. Seus chips podem ser caros, mas há um motivo para isso.