Mark Zuckerberg tem um novo chip para competir com a Nvidia
Com o processador MTIA v1, a Meta quer marcar presença na próxima geração da infraestrutura de grande escala
Repórter
Publicado em 10 de abril de 2024 às 13h44.
Última atualização em 10 de abril de 2024 às 13h45.
A Meta está no processo de desenvolver uma infraestrutura tecnológica avançada, focada em suportar a crescente demanda por inteligência artificial (IA), incluindo produtos de IA generativa e sistemas de recomendação.
Em uma postagem em seu blog, a empresa introduziu o Meta Training and Inference Accelerator (MTIA) v1, um acelerador de inferência, hardware usado para permitir que IAs como o ChatGPT façam previsões ou conclusões, e que foi desenhado internamente.
A primeira versão do MTIA foi anunciada em maio de 2023, com um foco direcionado para centros de dados, um direcionamento que se espera manter para a próxima geração desses chips. Contrariando as expectativas iniciais de lançamento apenas em 2025, a Meta agora informa que ambos os modelos do MTIA já estão em produção.
Embora atualmente o MTIA esteja focado no treinamento de algoritmos de ranqueamento e recomendação, a Meta planeja expandir as capacidades dos chips para incluir o treinamento de IA generativa, como seus modelos de linguagem da Meta, o Llama.
A nova versão do chip MTIA promete um equilíbrio ideal entre poder computacional, largura de banda de memória e capacidade de memória, ostentando 256MB de memória on-chip a 1.3GHz – um avanço considerável em relação aos 128MB a 800GHz da versão anterior. Testes iniciais da Meta indicam que o novo chip oferece um desempenho três vezes superior ao da primeira geração em quatro modelos avaliados pela empresa.
Além do MTIA, a Meta também está explorando o desenvolvimento de outros chips de IA, incluindo o Artemis, um chip projetado especificamente para inferência.
Essa tendência de empresas de IA desenvolverem seus próprios chips reflete uma crescente demanda por poder computacional, evidenciada pelo lançamento de novos chips TPU pela Google em 2017, os chips Maia 100 pela Microsoft e o Trainium 2 pela Amazon, este último capaz de treinar modelos fundamentais quatro vezes mais rápido que sua versão anterior.
A corrida por chips poderosos sublinha a necessidade de soluções customizadas para rodar modelos de IA, em um mercado cuja demanda elevou a Nvidia, líder atual no mercado de chips de IA, a uma valorização de US$ 2 trilhões.