Inteligência Artificial

OpenAI vai adicionar novas marcas d'água ao DALL-E 3

Novo protocolo de metadados visa reforçar a transparência e a segurança no uso de conteúdos gerados por inteligência artificial

Imagens geradas pelo DALL-E: nova ferramenta ajuda a verificar a procedência do conteúdo gerado por IA (RICHARD A. BROOKS/Getty Images)

Imagens geradas pelo DALL-E: nova ferramenta ajuda a verificar a procedência do conteúdo gerado por IA (RICHARD A. BROOKS/Getty Images)

Publicado em 7 de fevereiro de 2024 às 10h00.

Última atualização em 7 de fevereiro de 2024 às 10h00.

O gerador de imagens da OpenAI, DALL-E 3, adicionará marcas d'água aos metadados das imagens à medida que mais empresas implementarem suporte para padrões da Coalition for Content Provenance and Authenticity (C2PA), um protocolo de internet que codifica detalhes sobre a procedência de um conteúdo.

A empresa diz que as marcas d'água do C2PA aparecerão nas imagens geradas no site do ChatGPT e na API do modelo DALL-E 3 no canto superior esquerdo. Além disso, incluem também componentes invisíveis nos metadados. Quem acessar os serviços via dispositivos móveis, já vai ter as marcas d'água até 12 de fevereiro.

Desta forma, será possível verificar qual ferramenta de IA foi usada para criar aquele conteúdo. Isso poderá ser feito por meio de sites como Content Credentials Verify. 

A OpenAI diz que adicionar os metadados de marca d'água às imagens "não afetará a qualidade da geração de imagem". Também aumentará ligeiramente o tamanho das imagens para algumas tarefas.

Identificar conteúdo gerado por IA é uma das exigências na ordem executiva da administração do presidente norte-americano Joe Biden sobre IA. A Meta anunciou recentemente que adicionará tags ao conteúdo gerado por inteligência artificial em suas plataformas.

No entanto, a marca d'água não é uma maneira infalível de impedir a desinformação. A OpenAI observa que os metadados do C2PA podem "ser facilmente removidos, acidentalmente ou intencionalmente". A maioria das mídias sociais remove os metadados do conteúdo enviado. 

"Acreditamos que adotar esses métodos para estabelecer a procedência e incentivar os usuários a reconhecerem esses sinais são fundamentais para aumentar a confiabilidade das informações digitais", diz a OpenAI em seu site.

Acompanhe tudo sobre:OpenAIInteligência artificial

Mais de Inteligência Artificial

Médico alagoano usa luz virtual e IA para criar lente que trata catarata

Dupla do Google DeepMind divide prêmio Nobel de química com bioquímico dos EUA

WhatsApp recebe Meta AI no Brasil após resolução de problemas com a ANPD

Ganhador do Nobel de Física alerta para riscos da Inteligência Artificial não controlada