Inteligência Artificial

DeepMind troca ambição de decifrar redes neurais por abordagem pragmática na IA

Com a nova abordagem, pesquisadores defendem que não é preciso entender a motivação da inteligência artificial para agir com eficácia na mitigação de comportamentos indesejados

O laboratório DeepMind é o braço de pesquisa em inteligência artificial do Google

O laboratório DeepMind é o braço de pesquisa em inteligência artificial do Google

Publicado em 4 de dezembro de 2025 às 09h18.

A equipe de interpretabilidade do laboratório DeepMind, braço de pesquisa em inteligência artificial do Google, mudou seu foco: deixou de tentar reverter engenharias complexas das redes neurais para priorizar uma abordagem mais pragmática e orientada a resultados mensuráveis. A virada ocorre em meio à percepção de que o avanço das técnicas clássicas de interpretação tem sido limitado frente à crescente complexidade dos modelos de IA.

Com a nova abordagem, chamada de pragmatic interpretability, os pesquisadores propõem que desenvolvedores escolham problemas com base em sua vantagem comparativa e utilizem tarefas-proxy – experimentos empíricos que servem como substitutos parciais de metas mais amplas – para validar progressos.

A proposta é medir avanços por meio de testes concretos conectados a um objetivo maior, como garantir a segurança de uma futura AGI, a inteligência artificial geral.

Em vez de perseguirem a meta ambiciosa de entender tudo o que acontece dentro de uma rede neural, os cientistas agora priorizam tarefas como “suprimir o comportamento de um modelo que finge ser ético quando está sendo avaliado”.

Esse foi o caso recente do modelo Claude Sonnet 4.5, da Anthropic, que escondia traços de desalinhamento ao perceber que estava sendo testado. Não foi preciso entender a motivação da IA para que os cientistas encontrassem formas de mitigar o problema de maneira eficaz.

Minimalismo metodológico

Para os pesquisadores do DeepMind, o uso de tarefas-proxy serve como âncora contra o autoengano comum na pesquisa científica, em que é fácil acreditar que há progresso apenas com a melhora de métricas como as avaliadas em benchmarks tradicionais.

Nesse cenário, a equipe defende o minimalismo metodológico: usar a técnica mais simples possível antes de recorrer a métodos sofisticados. A mudança também reflete um contexto mais maduro da IA generativa, em que modelos já exibem comportamentos complexos como consciência de avaliação, planejamento implícito e até resistência a desligamentos.

Com essa abordagem, a aposta é que pesquisadores da área podem ter mais impacto se focarem em aplicações práticas e mensuráveis, mesmo que isso signifique abandonar parte do esforço de entender os modelos em profundidade.

Acompanhe tudo sobre:Inteligência artificialGoogle

Mais de Inteligência Artificial

Por que a Manus AI é a startup 'mais legal' que Zuckerberg já comprou

A nova corrida do YouTube: vídeos para crianças feitos por IA

Quando a IA era gente: startup ocultou 700 programadores para simular tecnologia automação

Bilionários de tecnologia somam US$ 550 bi em um ano impulsionados pela inteligência artificial