Inteligência Artificial

OpenAI, criadora do ChatGPT, revela nova ferramenta de clonagem de voz

Mecanismo será mantido em controle até que sejam implementadas medidas de segurança

Open AI: empresa anunciou resultados de um teste em pequena escala (Photo by KIRILL KUDRYAVTSEV/AFP via Getty Images)

Open AI: empresa anunciou resultados de um teste em pequena escala (Photo by KIRILL KUDRYAVTSEV/AFP via Getty Images)

AFP
AFP

Agência de notícias

Publicado em 29 de março de 2024 às 20h40.

A OpenAI, empresa por trás do ChatGPT, revelou, nesta sexta-feira, 29, uma ferramenta de clonagem de voz que planeja manter sob estrito controle até que sejam implementadas medidas de segurança para impedir falsificações de áudio destinadas a enganar os ouvintes.

Um modelo chamado "Voice Engine" pode essencialmente duplicar a fala de alguém com base em uma amostra de 15 segundos, de acordo com uma postagem no blog da OpenAI que compartilha os resultados de um teste em pequena escala.

"Reconhecemos que gerar fala que se assemelha às vozes das pessoas apresenta sérios riscos, que estão especialmente em destaque em um ano de eleições", disse a empresa sediada em San Francisco.

"Estamos envolvendo parceiros dos Estados Unidos e internacionais do governo, mídia, entretenimento, educação, sociedade civil e outros setores, para garantir que estamos incorporando seus feedbacks conforme construímos", acrescentou.

Pesquisadores da desinformação temem o uso generalizado de softwares alimentados por inteligência artificial (IA) em um ano eleitoral crucial, graças à proliferação de ferramentas de clonagem de voz baratas, fáceis de usar e difíceis de rastrear.

Admitindo esses problemas, a OpenAI afirmou que está "adotando uma abordagem cautelosa e informada para um lançamento mais amplo devido ao potencial de uso indevido de vozes sintéticas".

Consequências de uma possível ferramenta

A revelação cautelosa chega alguns meses após um consultor político que trabalhava para a campanha presidencial de um candidato improvável, rival democrata de Joe Biden, assumir a responsabilidade por uma ligação robótica fingindo ser o presidente americano.

A chamada gerada por IA, ideia do consultor do congressista democrata Dean Phillips, apresentava o que parecia ser a voz de Biden pedindo às pessoas que não votassem nas primárias de New Hampshire em janeiro.

O incidente causou alarme entre especialistas que temem uma enxurrada de desinformação “deepfake”, utilizando IA, na corrida presidencial de 2024 nos Estados Unidos, assim como em outras eleições-chave ao redor do mundo.

A OpenAI disse que seus parceiros que estão testando o Voice Engine concordaram com regras, incluindo a necessidade de consentimento explícito e informado de qualquer pessoa cuja voz seja duplicada.

Também deve ficar claro para o público quando as vozes que estão ouvindo são geradas por IA, acrescentou a empresa.

"Implementamos um conjunto de medidas de segurança, incluindo marca d'água para rastrear a origem de qualquer áudio gerado pelo Voice Engine, bem como monitoramento proativo de como ele está sendo usado", garantiu a companhia.

Acompanhe tudo sobre:ChatGPTOpenAI

Mais de Inteligência Artificial

O paradoxo da produtividade: o erro comum na implementação de IA nas empresas

A OpenAI está desesperada por um IPO? E por que isso pode acontecer mais cedo do que se imagina

Engenheira brasileira cria IA chamada “Maria” para equilibrar a vida profissional e pessoal

Com impulso da IA, Dell surpreende Wall Street com aumento de 80% nas vendas de servidores

Mais na Exame