Inteligência Artificial

DeepSeek lança modelo de IA com "atenção seletiva" e promete cortar custos pela metade

Versão V3.2-Exp adota técnica de sparse attention, a qual permite à inteligência artificial processar apenas os dados considerados relevantes para cada tarefa, melhorando a leitura de documentos longos e conversas extensas

DeepSeek define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA (AFP/AFP)

DeepSeek define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA (AFP/AFP)

Publicado em 30 de setembro de 2025 às 09h01.

A DeepSeek, startup chinesa de inteligência artificial, lançou nesta segunda-feira, 29, um modelo experimental que promete reduzir significativamente os custos de operação de IAs, mas mantendo desempenho similar ao das versões anteriores. No entanto, há dúvidas sobre a eficiência e a segurança da nova arquitetura.

Chamado de DeepSeek-V3.2-Exp, o modelo é uma atualização do V3.1-Terminus e traz como principal inovação o uso da técnica de sparse attention, a qual permite à IA processar apenas os dados considerados relevantes para cada tarefa. Com isso, o recurso DSA (DeepSeek Sparse Attention) melhora a leitura de documentos longos e conversas extensas.

Adina Yakefu, líder da comunidade chinesa na plataforma Hugging Face, que hospeda IAs de código aberto, disse à CNBC que a nova funcionalidade reduz pela metade o custo de operação em relação à versão anterior. A melhoria torna o modelo mais acessível para desenvolvedores e pequenas empresas — sem comprometer, em tese, o desempenho.

Riscos da sparse attention

Especialistas, no entanto, alertam para riscos, já que modelos com atenção seletiva podem perder nuances e excluir dados importantes sem controle. A ausência de um mecanismo transparente para identificar o que foi descartado pode afetar a precisão, especialmente em aplicações sensíveis.

Apesar desses riscos, a DeepSeek sustenta que o V3.2-Exp opera com desempenho semelhante ao V3.1-Terminus e compartilhou publicamente seu código e as ferramentas necessárias para uso e adaptação do modelo.

Além disso, o modelo funciona diretamente em chips locais, como o Ascend, da Huawei, e o Cambricon, da “Nvidia chinesa”, sem necessidade de adaptações — uma questão estratégica diante da competição tecnológica entre China e EUA.

Por ser em código aberto, o modelo não é patenteável. Assim, a vantagem da DeepSeek depende da curadoria: o que manter ou descartar nos dados processados. A empresa define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA.

Acompanhe tudo sobre:Inteligência artificialDeepSeekHuaweiChips

Mais de Inteligência Artificial

Manter um robô humanoide pode custar o mesmo que um Ônix ou HB20

Elon Musk: homem mais rico do mundo acerta ao prever robôs superando humanos?

Robôs podem substituir milhões de humanos até 2050

Google investe em startup japonesa para ampliar presença do Gemini no país