Pesquisadores conseguem traduzir sinais cerebrais em palavras faladas
O estudo foi financiado pelo Facebook Reality Labs, uma unidade de pesquisa da rede social focada em tecnologia para experiências de RV e RA
AFP
Publicado em 31 de julho de 2019 às 20h31.
Última atualização em 31 de julho de 2019 às 20h31.
Pesquisadores apoiados pelo Facebook conseguiram traduzir sinais cerebrais em palavras faladas, aproximando da realidade a visão da rede social de conectar cérebros e máquinas.
Um estudo publicado esta semana por cientistas da Universidade da Califórnia-San Francisco mostrou progressos em direção a um novo tipo de interface cérebro-computador. O projeto envolveu implantes cerebrais, mas poderia ser um passo para atingir o objetivo com um método não invasivo, como óculos de realidade aumentada com sensores.
"Daqui a uma década, a capacidade de digitar diretamente a partir de nossos cérebros pode ser aceita como óbvia", disse o Facebook nesta terça-feira em um post online atualizando um projeto anunciado há dois anos.
"Não faz muito tempo, parecia ficção científica. Agora, parece estar dentro do alcance plausível".
Tal avanço poderia beneficiar pessoas com paralisia, lesões na medula espinhal, doenças neurodegenerativas ou outras condições que as impeçam de falar, e também pode permitir que as pessoas controlem tecnologias, como óculos de realidade aumentada, apenas pelo pensamento, disse o Facebook.
"Nunca é cedo demais para começar a pensar nas questões importantes que precisarão ser respondidas antes de que uma tecnologia potencialmente tão poderosa possa entrar nos produtos comerciais", acrescentou.
Um estudo publicado na revista Nature Communications detalhou como os pesquisadores conseguiram captar os sinais cerebrais enviados para produzir a fala e descobriram o que as pessoas estavam tentando dizer.
Um conjunto padrão de perguntas foi feito aos voluntários no estudo, com o computador fornecendo contexto para ajudar a descobrir as respostas.
"Atualmente, os pacientes com perda de fala devido à paralisia estão limitados a soletrar as palavras muito lentamente usando movimentos oculares residuais ou contrações musculares para controlar uma interface de computador", disse o neurocientista da UCSF Eddie Chang.
"Mas em muitos casos a informação necessária para produzir um discurso fluente ainda está lá em seus cérebros. Só precisamos da tecnologia para permitir que eles expressem isso".
O estudo foi financiado pelo Facebook Reality Labs, uma unidade de pesquisa do gigante da internet focada em tecnologia para experiências de realidade virtual (RV) e aumentada (RA).
O trabalho faz parte de um projeto que explora a viabilidade de um dispositivo 'wearable' que permite que as pessoas digitem ao se imaginar falando.
"Nosso progresso mostra um potencial real em como as futuras interações com os óculos de RA poderiam um dia parecer", tuitou o vice-presidente de realidade aumentada e virtual do Facebook, Andrew Bosworth.
Os pesquisadores esperam eventualmente decodificar 100 palavras por minuto em tempo real com um vocabulário de 1.000 palavras e uma taxa de erro abaixo de 17%, de acordo com o Facebook.
O empresário futurista Elon Musk revelou este mês que sua startup está fazendo progressos em uma interface que liga cérebros a computadores, e disse que testes em pessoas podem começar no próximo ano.