Inteligência Artificial

Avocado e Mango: os dois novos modelos de IA da Meta para 2026

Tanto o modelo de imagem e vídeo, codinome Mango, quanto o novo modelo de linguagem baseado em texto, chamado Avocado, estão previstos para a primeira metade de 2026

Movimento ocorre após uma reestruturação significativa na equipe de IA da Meta, que contratou Alexandr Wang para liderar o novo Meta Superintelligence Labs (MSL) (Meta/Reprodução)

Movimento ocorre após uma reestruturação significativa na equipe de IA da Meta, que contratou Alexandr Wang para liderar o novo Meta Superintelligence Labs (MSL) (Meta/Reprodução)

Publicado em 19 de dezembro de 2025 às 10h48.

A Meta está desenvolvendo dois novos modelos de inteligência artificial, com previsão de lançamento para a primeira metade de 2026. O projeto, liderado pelo diretor de IA da empresa, Alexandr Wang, inclui um modelo de imagem e vídeo, codinome Mango, e um novo modelo de linguagem baseado em texto, chamado Avocado.

Segundo o Wall Street Journal, durante uma sessão interna de perguntas e respostas, Wang explicou que um dos principais focos para o modelo Avocado é aprimorar sua capacidade em programação. A Meta também está, de acordo com o executivo, nos estágios iniciais de pesquisa sobre os chamados “world models” – uma IA que aprende sobre o ambiente em que está inserida a partir de informações visuais.

Esse movimento ocorre após uma reestruturação significativa na equipe de IA da Meta, que contratou Wang para liderar o novo Meta Superintelligence Labs (MSL). O CEO da empresa, Mark Zuckerberg, também esteve pessoalmente envolvido em uma estratégia agressiva de recrutamento, atraindo mais de 20 pesquisadores da OpenAI e expandindo a equipe com mais de 50 novos especialistas.

No entanto, a velocidade e a amplitude das mudanças fizeram de 2025 um ano turbulento para a Meta. Consequentemente, 2026 se tornou decisivo para as ambições da empresa e de seu CEO no campo da IA.

Modelos de imagem e vídeo ganham centralidade

O desenvolvimento de modelos de geração de imagens e vídeos tem sido um ponto crucial na acirrada competição entre as grandes empresas de IA.

Em 26 de setembro, a Meta lançou, em parceria com a startup Midjourney, um gerador de vídeos com AI e um feed dedicado às criações chamado Vibes. Pouco depois, a OpenAI lançou seu próprio aplicativo de geração de vídeos, o Sora. Recentemente, a startup conseguiu licenciar conteúdo da Disney para uso no app.

Além do sucesso do Veo 3 na primeira metade do ano, o Google introduziu, em agosto, seu modelo de imagem Nano Banana no app Gemini. Com isso, o número de usuários mensais saltou de 450 milhões, em julho, para 650 milhões, no final de outubro. Embora ainda distante dos 800 milhões semanais do ChatGPT, o Google se aproxima rapidamente da liderança da OpenAI.

Nesse cenário de crescente pressão, OpenAI reagiu com o lançamento do GPT-5.2 e do ChatGPT Images, uma ferramenta para gerar imagens até quatro vezes mais rapidamente e possibilitar edições com maior precisão.

Acompanhe tudo sobre:Inteligência artificialMetamark-zuckerbergOpenAIGoogle

Mais de Inteligência Artificial

Agora é possível conversar com Gemini no Google Maps enquanto pedala ou caminha

Microsoft manterá parcerias com líderes de IA mesmo após lançamento de chip próprio

OpenAI negocia abertura de capital após pressão da Anthropic, diz site

Amazon está em negociações para investir até US$ 50 bilhões na OpenAI