Mira Murati: CTO da OpenAI (JP Yim/Getty Images)
Repórter
Publicado em 14 de março de 2024 às 17h31.
Última atualização em 14 de março de 2024 às 17h31.
A OpenAI, player mais proeminente do setor de inteligência artificial (IA), anunciou que o Sora, seu gerador vídeos por pedidos feitos em texto, estará disponível ao público ainda este ano, conforme revelado em entrevista ao The Wall Street Journal.
Mira Murati, diretora de tecnologia da empresa, aponta que o lançamento poderá acontecer nos próximos meses, prometendo uma nova era na geração de cenas hiperrealistas feitas por IA.
Inicialmente, o Sora foi apresentado em fevereiro e disponibilizado exclusivamente a artistas visuais, designers e cineastas. Apesar da distribuição limitada, vídeos criados pela ferramenta já circulam em plataformas digitais, destacando seu potencial disruptivo.
A OpenAI não apenas planeja democratizar o acesso ao Sora mas também enriquecer a ferramenta com funcionalidades de áudio e opções de edição.
Tais melhorias visam ampliar a realidade das cenas geradas e oferecer maior controle criativo aos usuários. Segundo Murati, a empresa busca adaptar a tecnologia para que seja um instrumento editável e criativo.
Quanto à base de dados para o treinamento do Sora, detalhes específicos não foram divulgados. Murati mencionou o uso de dados públicos ou licenciados, confirmando a parceria com a Shutterstock para o fornecimento de conteúdo.
A executiva, no entanto, passou uma saia justa ao não saber responder ao certo se as fontes de vídeo para treinar o modelo vieram de plataforma como YouTube e Instagram.
Um desafio mencionado é o alto custo operacional do Sora, com a OpenAI comprometida em tornar a ferramenta acessível, almejando custos similares aos do DALL-E, seu modelo de IA para geração de imagens a partir de texto.
No contexto das eleições presidenciais de 2024, crescem as preocupações sobre o potencial das ferramentas de IA generativa na disseminação de desinformação.
A política de não produzir imagens de figuras públicas, semelhante à adotada pelo DALL-E, será implementada, além da inclusão de marcas d'água nos vídeos para diferenciá-los vídeos reais.