Lançamento do Gemini 2.0 inaugura caminho para Google estrear sua "era dos agentes"
Nova versão traz geração de imagens e áudios nativos, além de velocidade e precisão aprimoradas
Repórter
Publicado em 11 de dezembro de 2024 às 17h40.
Última atualização em 11 de dezembro de 2024 às 17h40.
Nesta quarta-feira, 11, o Google revelou oGemini 2.0 Flash, o modelo de inteligência artificial mais avançado já lançado pela empresa. Este marco reforça as ambições da gigante da tecnologia em liderar o desenvolvimento de agentes de IA, ferramentas projetadas para compreender, interagir e agir no mundo com supervisão humana.
O Gemini 2.0 Flash amplia as capacidades multimodais já apresentadas em versões anteriores, permitindo agora a geração nativa de imagens e áudio, além de texto.
Em testes iniciais, o modelo demonstrou avanços em velocidade, precisão e habilidades matemáticas, estabelecendo uma base sólida para o que o Google chama de “era agêntica”.
O que há de novo no Gemini 2.0 Flash?
O novo modelo representa um salto significativo em relação ao Gemini 1.5 Pro. Entre as principais melhorias, destacam-se:
- Velocidade duplicadaem tarefas como codificação e análise de imagens;
- Maior precisão factual, com avanços em habilidades matemáticas e contextuais;
- Geração e edição de imagens e áudio, incluindo narrações em oito vozes otimizadas para diferentes idiomas e sotaques;
- Integração com aplicativos externos e ferramentas do Google, como Search, Lens e Maps.
Além disso, o Gemini 2.0 Flash utiliza a tecnologia SynthID para inserirmarca d’água em todas as imagens e áudios gerados, garantindo que os conteúdos sintéticos sejam identificados e prevenindo abusos como deepfakes.
A partir de hoje, uma versão experimental do modelo estará disponível para desenvolvedores por meio das plataformas AI Studio e Vertex AI, mas recursos como geração de áudio e imagem serão liberados para mais usuários apenas em janeiro.
Agentes de IA
O lançamento do Gemini 2.0 Flash ocorre em um momento estratégico para o Google. A empresa tem investido em agentes de inteligência artificial, como os projetos Astra e Mariner, que buscam combinar multimodalidade com memória e capacidade de ação.
Durante uma demonstração recente no campus do Google, oProject Astraexibiu sua capacidade de interpretar imagens e interagir. No exemplo apresentado, o agente foi capaz de reconhecer e descrever obras de arte, acessar informações em tempo real e contextualizar interações passadas.
Por sua vez, o Project Mariner, projetado para operar diretamente em navegadores, realizou tarefas como adicionar ingredientes de receitas a um carrinho de compras em um site de supermercado. Apesar da lentidão do processo, a demonstração destacou o potencial de agentes que não apenas respondem, mas também executam tarefas práticas com supervisão direta do usuário.
No entanto, o Google vê o lançamento do Gemini 2.0 como uma peça fundamental para refinar essa tecnologia. Ao integrar o modelo com ferramentas como o Android Studio, Firebase e Gemini Code Assist, a empresa espera explorar novas possibilidades e atender às necessidades de desenvolvedores e consumidores.