Inteligência Artificial

Microsoft propõe padrão técnico para identificar imagens falsas geradas por IA

Solução fará a análise de imagens a partir de metadados e informações técnicas que devem garantir mais precisão aos resultados

Microsoft: empresa quer demonstrar confiança com pesquisa de ferramenta que garantirá identificação precisa de imagens manipuladas

Microsoft: empresa quer demonstrar confiança com pesquisa de ferramenta que garantirá identificação precisa de imagens manipuladas

Maria Eduarda Cury
Maria Eduarda Cury

Colaboradora

Publicado em 21 de fevereiro de 2026 às 13h27.

Microsoft definiu um projeto técnico para tentar facilitar a identificação de imagens falsas em um momento que a distância entre real e fictício está cada vez menor. Os avanços da geração de imagens por inteligência artificial ainda são visíveis por aqueles que se apegam aos mínimos detalhes, mas as plataformas estão aprimorando suas capacidades de contornar os erros comuns e dificultando o reconhecimento da tecnologia.

Assim, a empresa de tecnologia propôs um padrão para analisar a veracidade de uma imagem com embasamento técnico. A pesquisa feita pelo time de segurança de IA da multinacional avaliou 60 combinações dos diferentes métodos de verificação, como "proveniência, marca d'água e impressão digital"; a ideia é que empresas possam utilizar as combinações que mais lhe convém para enviar alertas aos usuários através de sons, por exemplo.

"Analisamos como essas ferramentas operam em diferentes modalidades e avaliamos modelos de ameaças relevantes, categorias de ataques e fluxos de trabalho do mundo real, abrangendo captura, edição, distribuição e verificação", diz a Microsoft na descrição da pesquisa.

Mas o produto não definirá exatamente o que é verdadeiro e o que é falso. A ideia é que usuários utilizem os métodos estudados pela Microsoft para descobrirem com mais facilidade a origem de cada imagem. De forma resumida, os metadados analisados indicarão se o conteúdo que está sendo visto foi manipulado ou está sendo apresentado de maneira integral aos consumidores.

O Grok, IA do X, já possui um sistema de verificação próprio que consiste no recolhimento de informações de outros sites para comprovar veracidade. Mas a Microsoft quer direcionar a responsabilidade aos metadados de uma imagem. Eric Horvitz, diretor científico da empresa, reconheceu que o método pode ser identificado como autorregulador, mas garantiu que a intenção é posicionar a Microsoft como uma fonte confiável no mercado.

Debates sobre regulação motivam pesquisa

Ainda de acordo com Horvitz, os esforços direcionados para encontrar uma forma de verificação confiável foram motivados pelos crescentes debates em torno da regulamentação de IA no país. Um dos exemplos é a iminente implementação de uma lei na Califórnia que exigirá transparência de plataformas de IA e deve entrar em vigor nos EUA em 2 de agosto deste ano.

Horvitz, entretanto, não quis comentar ao MIT Technology Review sobre a inserção do projeto nas ferramentas Copilot e Azure, com funções que permitem a geração de imagens por IA. Mas ele deixou clara a intenção da Microsoft de atuar como reguladora neste momento definidor para o futuro das companhias engajadas com a tecnologia do momento.

Simultaneamente, empresas como OpenAI, Meta e Anthropic estão em caminhos diferentes para garantir uma boa reputação. Os discursos de Donald Trump contrários à regulamentação de IA são apoiados por líderes como Mark Zuckerberg e Greg Brockman, presidente da OpenAI, mas a Anthropic se posiciona no lado oposto para promover debates que favoreçam políticas de regulação e segurança nas plataformas.

Acompanhe tudo sobre:TecnologiaInteligência artificialMicrosoft

Mais de Inteligência Artificial

Mark Cuban diz que IA permite a qualquer “criança num porão” mudar o mundo

Meta AI começa a testar ferramenta de compras

CEO da OpenAI pede revisão em contrato com Pentágono e admite que acordo foi 'descuidado'

IA ou personal trainer: qual é o futuro do treino personalizado?