Inteligência Artificial

Startup promete lançar IA com voz "emocionalmente inteligente"

Novo sistema foi treinado com dados de milhões de interações humanas

O EVI da Hume: desenvolvido com base em uma nova forma de IA que integra modelos de linguagem ampla (iStock)

O EVI da Hume: desenvolvido com base em uma nova forma de IA que integra modelos de linguagem ampla (iStock)

Da Redação
Da Redação

Redação Exame

Publicado em 28 de março de 2024 às 11h19.

Última atualização em 9 de abril de 2024 às 16h19.

A Hume AI é uma startup e laboratório de pesquisa que desenvolve inteligência artificial otimizada para o bem-estar humano. Fundada pelo doutor Alan Cowen, ex-pesquisador do Google, a empresa opera na interseção de inteligência artificial, comportamento humano, saúde e bem-estar.

Segundo informações do The AI Journal, a Hume AI levantou US$ 50 milhões em nova rodada de financiamentos, liderada pela EQT Ventures, para apoiar o lançamento e o desenvolvimento contínuo do novo produto principal da Hume: uma interface de voz emocionalmente inteligente que pode ser incorporada a qualquer aplicativo.

A Interface de Voz Empática (EVI) que a Hume AI promete entregar é a primeira a ser treinada com dados de milhões de interações humanas para entender quando os usuários terminam de falar, prever suas preferências e gerar respostas vocais otimizadas para a satisfação do usuário ao longo do tempo.

Esses recursos estarão disponíveis para os desenvolvedores com apenas algumas linhas de código e poderão ser incorporados a qualquer aplicativo.

Os produtos de voz com IA têm a capacidade de revolucionar nossa interação com a tecnologia. Porém, sua natureza mecânica e afetada de suas respostas é uma barreira para boas experiências de conversação . O objetivo do Hume-EVI é fornecer a base para experiências de voz envolventes que emulam os padrões naturais de fala da conversação humana.

O EVI da Hume foi desenvolvido com base em uma nova forma de IA que integra modelos de linguagem ampla com medidas de expressão - a Hume chama de modelo de linguagem ampla empática (eLLM). O eLLM permite ajuste de palavras e tom de voz com base no contexto e nas expressões emocionais do usuário. O EVI também detecta com precisão quando um usuário está terminando de falar para então iniciar a conversa, além de parar quando a pessoa interrompe a IA.

Acompanhe tudo sobre:Inteligência artificialexame-ceo

Mais de Inteligência Artificial

O brasileiro vai se adaptar a conversar com robôs, diz head de atendimento do BB

Uso de IA já não é mais uma escolha, diz Marcelo Braga, CEO da IBM

Lenovo lança primeiros notebooks Copilot+ com chips Snapdragon X no Brasil

ChatGPT está fora do ar? IA generativa apresentou instabilidade nesta segunda, 17

Mais na Exame