Exame Logo

A lição do acidente da Tesla

Steve Lohr © 2016 New York Times News Service Jitendra Malik, pesquisador há três décadas na área de visão de computador, não tem um carro da fabricante Tesla, mas oferece um conselho para seus donos. “Sabendo o que eu sei sobre visão de computador, eu não tiraria as mãos do volante”, ele diz. Malik, professor […]

COMPUTADOR DE BORDO: novo desafio da indústria é o desenvolvimento de um algoritmo capaz de compreender as ações dos motoristas / Jeff Swensen/ The New York Times
DR

Da Redação

Publicado em 4 de outubro de 2016 às 12h57.

Última atualização em 22 de junho de 2017 às 18h22.

Steve Lohr © 2016 New York Times News Service

Jitendra Malik, pesquisador há três décadas na área de visão de computador, não tem um carro da fabricante Tesla, mas oferece um conselho para seus donos.

Veja também

“Sabendo o que eu sei sobre visão de computador, eu não tiraria as mãos do volante”, ele diz.

Malik, professor da Universidade da Califórnia, campus de Berkeley, referia-se ao acidente fatal, em maio, de um carro elétrico da Tesla que estava equipado com o sistema de piloto automático. Um homem de Ohio foi morto quando seu modelo S, no piloto automático, bateu em uma carreta.

Os órgãos reguladores federais dos Estados Unidos ainda estão investigando o acidente, mas parece provável que o homem confiou demais no sistema de piloto automático da fabricante. O mesmo também pode se aplicar a um acidente com outro Tesla noticiado há poucos dias na China. Outros fabricantes como a Ford, que em setembro anunciou o plano de produzir carros sem motoristas até 2021, optaram por uma abordagem lenta, afirmando que a tecnologia para uma ocasional pilotagem com as mãos longe da direção não está pronta para muitas situações no trânsito.

A Tesla tem dito que seu piloto automático não pretende substituir completamente um motorista humano. E, recentemente, a empresa reconheceu implicitamente que seus proprietários deveriam ouvir o conselho de Malik, anunciando que iria modificar o piloto automático para que o sistema emita avisos mais frequentes aos motoristas para colocarem as mãos no volante. A Tesla também está ajustando seus sensores por radar para detectar com maior precisão os perigos da estrada e depender menos da visão de computador.

Segundo pesquisadores, o acidente com o Tesla, em maio, não foi uma falha da visão de computador, mas serviu para ressaltar as limitações da ciência em aplicações como automóveis sem motorista apesar do progresso notável dos últimos anos, estimulados pelos dados digitais, capacidade computacional e programas inspirados no cérebro humano.

Hoje em dia, a visão computadorizada é capaz de reconhecer rapidamente e com exatidão milhões de rostos individuais, identificar as marcas e os modelos de milhares de automóveis e distinguir gatos e cachorros de todas as raças, como faria um ser humano.

Os progressos recentes, porém, ainda que impressionantes, foram principalmente no reconhecimento de imagem. Para os pesquisadores, a próxima fronteira é o conhecimento visual geral – o desenvolvimento de algoritmos que possam compreender não apenas objetos, mas também ações e comportamentos.

A inteligência computadoriza muitas vezes parece copiar a inteligência humana, assim a ciência da computação compreensivelmente convida à analogia. Na visão de computador, os pesquisadores oferecem duas analogias para descrever os caminhos promissores no futuro: uma criança e o cérebro.

Segundo muitos pesquisadores, o modelo tomado emprestado da infância envolve o desenvolvimento de algoritmos que aprendam da mesma forma que uma criança, com alguma supervisão, mas, em geral, por conta própria, sem se valer de quantidades imensas de dados de treinamento identificados por humanos, que é a abordagem atual. “São os passos iniciais, mas é assim que se chega ao próximo patamar”, explica Malik.

Na informática, o cérebro tem servido principalmente como metáfora inspiradora em vez de um guia explicativo. Os aviões não batem as asas, afirmam especialistas em inteligência artificial. As máquinas funcionam de forma diferente dos sistemas biológicos.

Já Tomaso Poggio, cientista do Instituto McGovern para Pesquisa Cerebral no Instituto de Tecnologia de Massachusetts, está construindo modelos computacionais do córtex visual do cérebro, buscando emular digitalmente sua estrutura, até mesmo como funciona e aprende com a experiência.

Se bem-sucedido, o resultado poderia ser revolucionário na visão de computador e aprendizado de máquina em geral, afirma Poggio. “Para fazer isso, você precisa da neurociência não apenas como inspiração, como um farol forte.”

Os grandes avanços na visão de computador devem muito a todas as matérias-primas da internet: incontáveis milhões de fotografias on-line usadas para treinar os algoritmos do programa a identificar imagens. Coletar e identificar os dados de treinamento, entretanto, têm se revelado um empreendimento formidável.

A ImageNet, esforço conjunto liderado por pesquisadores de Stanford e Princeton, é um dos projetos mais ambiciosos. Inicialmente, quase um bilhão de imagens foram baixadas. Elas foram classificadas, rotuladas e separadas em mais de 14 milhões de imagens em 22 mil categorias. Por exemplo, o banco de dados contém mais de 62 mil imagens de gatos.

Para uma criação da era da informática, o ImageNet tem sido incrivelmente trabalhoso. Em determinado momento, a classificação e a rotulação envolveram quase 49 mil funcionários no Mechanical Turk, site de trabalho global da Amazon.

Bancos de dados de imagens imensos como o ImageNet têm sido empregados para treinar programas que utilizam nódulos semelhantes a neurônios, conhecidos como redes neurais. O conceito das redes de computação neural tem mais de três décadas, mas se tornaram uma ferramenta poderosa somente nos últimos anos.

“Os dados disponíveis e a capacidade computacional finalmente estão à altura dessas ideias do passado”, afirma Trevor Darrell, especialista em visão de computador da Universidade da Califórnia, campus de Berkeley.

Se o dado é o combustível, então as redes neurais constituem o motor de uma área de aprendizado de máquina chamado aprendizagem profunda. É a tecnologia por trás do progresso veloz não somente em visão de computador, mas também em outras formas de inteligência artificial como tradução de idiomas e reconhecimento de fala. As empresas de tecnologia estão investindo bilhões de dólares em pesquisa com inteligência artificial para explorar o potencial comercial da aprendizagem profunda.

Não se tem certeza de até onde as redes neurais podem aprimorar a visão de computador. Elas emulam o cérebro somente em termos gerais – os nódulos do programa recebem o sinal digital e enviam o resultado para outros nódulos. Camadas e mais camadas desses nódulos compõem as redes neurais convolucionais, as quais, com treinamento suficiente de dados, se tornaram cada vez melhores na identificação de imagens.

Fei-Fei Li, diretora do laboratório de visão de computador de Stanford, que chefiou o projeto ImageNet, e sua pesquisa estão na linha de frente dos progressos estimulados por dados em visão de computador. Para ela, todavia, a abordagem atual é limitada. “Ela se vale de dados de treinamento, e grande parte do que os humanos possuem como conhecimento e contexto estão faltando nessa tecnologia de aprendizagem profunda.”

Há pouco tempo o Facebook encontrou o abismo contextual. Seu algoritmo tirou a imagem, publicado por um autor norueguês, de uma menina de nove anos nua, fugindo de bombas de napalm. O programa viu uma violação das regras da rede social que proíbem pornografia infantil, não uma fotografia icônica da Guerra do Vietnã e do sofrimento humano. O Facebook terminou republicando a foto.

Já no caso de carros que se dirigem sozinhos em segurança, vários anos de melhoria contínua – não uma revolução da inteligência artificial – podem ser o bastante, acreditam cientistas. Para os pesquisadores, serão necessários não apenas progressos contínuos em visão de computador, além de maior mapeamento digital de alta definição e ganhos em radar e “lidar”, que usa a luz do laser para analisar um campo de visão mais amplo do que o do radar e com detalhes maiores.

De acordo com cientistas, milhões de quilômetros de pilotagem em diversas estradas e condições climáticas precisam ser acumulados antes de os carros sem motorista serem vendidos. O Google tem testado seus veículos há anos e a Uber lançou um programa piloto em Pittsburgh.

Fabricantes automotivos do mundo inteiro estão desenvolvendo carros que se dirigem sozinhos e 2021 parece ser por consenso o ano para o lançamento comercial. A fabricante alemã BMW anunciou planos para entregar carros em 2021, em parceria com Intel e Mobileye, empresa israelense de visão de computador. Os automóveis permitiriam primeiro a direção sem mãos ao volante em centros urbanos e, em todos os lugares, alguns anos mais tarde. E a Ford anunciou seu plano de carro sem motorista em uma cronologia semelhante.

“Ainda não chegamos lá, mas o ritmo da melhoria está acelerando”, diz Gary Bradski, cientista de visão de computador que já trabalhou com veículos autônomos. “Não temos que esperar anos e anos até o surgimento de algo parecido com a inteligência antes de termos automóveis que se dirijam sozinhos e que sejam mais seguros do que motoristas humanos, salvando milhares de vidas.

Acompanhe tudo sobre:Exame Hoje

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Tecnologia

Mais na Exame