Inteligência Artificial

DeepMind troca ambição de decifrar redes neurais por abordagem pragmática na IA

Com a nova abordagem, pesquisadores defendem que não é preciso entender a motivação da inteligência artificial para agir com eficácia na mitigação de comportamentos indesejados

O laboratório DeepMind é o braço de pesquisa em inteligência artificial do Google

O laboratório DeepMind é o braço de pesquisa em inteligência artificial do Google

Publicado em 4 de dezembro de 2025 às 09h18.

A equipe de interpretabilidade do laboratório DeepMind, braço de pesquisa em inteligência artificial do Google, mudou seu foco: deixou de tentar reverter engenharias complexas das redes neurais para priorizar uma abordagem mais pragmática e orientada a resultados mensuráveis. A virada ocorre em meio à percepção de que o avanço das técnicas clássicas de interpretação tem sido limitado frente à crescente complexidade dos modelos de IA.

Com a nova abordagem, chamada de pragmatic interpretability, os pesquisadores propõem que desenvolvedores escolham problemas com base em sua vantagem comparativa e utilizem tarefas-proxy – experimentos empíricos que servem como substitutos parciais de metas mais amplas – para validar progressos.

A proposta é medir avanços por meio de testes concretos conectados a um objetivo maior, como garantir a segurança de uma futura AGI, a inteligência artificial geral.

Em vez de perseguirem a meta ambiciosa de entender tudo o que acontece dentro de uma rede neural, os cientistas agora priorizam tarefas como “suprimir o comportamento de um modelo que finge ser ético quando está sendo avaliado”.

Esse foi o caso recente do modelo Claude Sonnet 4.5, da Anthropic, que escondia traços de desalinhamento ao perceber que estava sendo testado. Não foi preciso entender a motivação da IA para que os cientistas encontrassem formas de mitigar o problema de maneira eficaz.

Minimalismo metodológico

Para os pesquisadores do DeepMind, o uso de tarefas-proxy serve como âncora contra o autoengano comum na pesquisa científica, em que é fácil acreditar que há progresso apenas com a melhora de métricas como as avaliadas em benchmarks tradicionais.

Nesse cenário, a equipe defende o minimalismo metodológico: usar a técnica mais simples possível antes de recorrer a métodos sofisticados. A mudança também reflete um contexto mais maduro da IA generativa, em que modelos já exibem comportamentos complexos como consciência de avaliação, planejamento implícito e até resistência a desligamentos.

Com essa abordagem, a aposta é que pesquisadores da área podem ter mais impacto se focarem em aplicações práticas e mensuráveis, mesmo que isso signifique abandonar parte do esforço de entender os modelos em profundidade.

Acompanhe tudo sobre:Inteligência artificialGoogle

Mais de Inteligência Artificial

O paradoxo da IA que está tirando US$ 1,5 trilhão das big techs

Plataforma usa IA para mapear e-mails e perfilar famosos e milionários ligados a Jeffrey Epstein

Baidu integra OpenClaw ao app e amplia aposta em IA

Anthropic reserva US$ 20 milhões para investida em lobby em favor da Anthropic