Brasileiro ajuda IBM e Nvidia a dar olhos para a computação
Pesquisador de inteligência artificial e visão computacional avaliou a capacidade da placa de vídeo mais avançada do momento
Lucas Agrela
Publicado em 20 de julho de 2017 às 14h36.
Última atualização em 21 de julho de 2017 às 17h06.
São Paulo – Um pesquisador brasileiro está ajudando a IBM e a Nvidia a dar olhos para a computação. Alessandro Faria é um dos poucos que avaliam atualmente a placa de vídeo Tesla P100, um processador gráfico de alta performance que pode identificar imagens e pode ser útil para os futuros carros autônomos e sistemas de segurança preditivos.
Faria é pesquisador de visão computacional e tecnologias de autenticação biométrica, como o reconhecimento facial. Ele é o único pesquisador independente escolhido para avaliar a placa de vídeo, que funciona no servidor Power8, que tem 128 núcleos e 510 GB de memória RAM e duas unidades da Tesla P100.
Faria trabalha com visão computacional e inteligência artificial desde o início dos anos 2000 e utiliza computação de alta performance no seu projeto sem fins lucrativos e de domínio público chamado Open Lifelog, que visa prever problemas de saúde antes de acontecerem, como um ataque epilético, por exemplo. Para esse fim, o processamento gráfico em tempo real de imagens e dados do corpo humano–como ondas cerebrais–também pode ser aplicado, segundo o pesquisador.
"O Open Lifelog visa prever o ataque epilético com 45 minutos de antecedência e chamar a ambulância baseado na latitude e longitude do local onde a pessoa estiver", disse Faria a EXAME.com.
Segundo sua análise, a IBM e a Nvidia criaram juntas uma tecnologia que oferece a maior velocidade de comunicação entre as GPUs mais sofisticadas até o presente momento.
Todo esse poder computacional pode, atualmente, identificar objetos e pessoas rapidamente. Por meio de cálculos matriciais e vetoriais (que é, em parte, como computadores entendem fotos e vídeos), as placas gráficas conseguem processar imagens a 30 quadros por segundo em tempo real.
Para Faria, isso pode culminar o uso de "câmeras espalhadas em público para evitar acidentes, analisar comportamentos, prever assaltos". "Só com GPUs e supercomputadores isso será possível", afirmou.
Outra aplicação voltada para o usuário final seria o uso dessa tecnologia no processamento de imagens em tempo real essencial para carros autônomos. Para que o motorista possa se tornar, efetivamente, um passageiro de seu próprio veículo, tudo ao seu redor precisa ser identificado e analisado de maneira tão rápida–ou mais–do que um ser humano.
Fora isso, visão computacional proporcionada pela aliança entre a Nvidia e a IBM também podem servir para a criação de métodos seguros de autenticação biométrica. Com isso, a prova de vida da imagem que está diante da câmera de reconhecimento facial será identificada pelas máquinas–que não serão enganadas por fotos ou vídeos do usuário. Para ele, a voz, usada por alguns apps, como o Google Now, pode ser facilmente imitada. "Hoje, a amostragem de voz já poderia ser rapidamente obtida por meio de algoritmos. A precisão da sua voz clonada é de praticamente 100%", declarou Faria.
Em outubro de 2016, sua tecnologia de reconhecimento facial, o Certiface (desenvolvido na sua empresa Oiti Technologies ), atingiu precisão de identificação com 0% de margem de erro ao analisar um banco com mais de 3 bilhões de imagens.
Segundo Faria, dentro de alguns anos, os esforços de empresas como IBM e Nvidia já devem estar ao alcance da sociedade.