Tecnologia

Carros autônomos devem decidir quem morre em acidentes?

As fabricantes já sabem como construir veículos autônomos, mas o difícil é resolver se eles devem ter o poder de decidir quem vive e quem morre em um acidente

EXAME.com (EXAME.com)

EXAME.com (EXAME.com)

DR

Da Redação

Publicado em 26 de junho de 2015 às 11h43.

Detroit - As fabricantes de veículos de Detroit, Tóquio e Stuttgart praticamente já sabem como construir veículos autônomos.

Até os caras da Google parecem ter resolvido o enigma. Agora vem a parte difícil: resolver se essas máquinas devem ter o poder de decidir quem vive e quem morre em um acidente.

O setor promete um futuro brilhante no qual os veículos autônomos se movem em harmonia, como cardumes de peixes.

Isso não poderá ocorrer, contudo, antes de as fabricantes de veículos responderem ao tipo de questão filosófica explorado na ficção científica desde que Isaac Asimov escreveu sua série sobre robôs, no século passado.

Por exemplo, um veículo autônomo deveria sacrificar seu ocupante e desviar em direção a um penhasco para evitar matar um ônibus cheio de crianças?

Os executivos automotivos, vendo-se em um território que não lhes é familiar, convocaram especialistas em ética e filósofos para ajudá-los a percorrer esses tons de cinza.

A Ford, a General Motors, a Audi, a Renault e a Toyota estão se dirigindo em grupo ao Centro de Pesquisa Automotiva da Universidade de Stanford, que está programando os carros de modo a realizarem decisões éticas para ver o que acontece.

“Esse assunto definitivamente é o centro das atenções”, diz Chris Gerdes, que dirige o laboratório e recentemente se reuniu com os CEOs da Ford e da GM para discutir o tópico.

“Eles estão muito conscientes dos problemas e dos desafios porque seus programadores estão tentando ativamente tomar essas decisões atualmente”.

As fabricantes de automóveis e a Google estão derramando bilhões no desenvolvimento dos carros autônomos. Nesta semana, a Ford disse que estava passando o desenvolvimento de seus carros autônomos do laboratório de pesquisa para suas operações de engenharia avançada.

A Google planeja colocar “alguns” de seus carros autônomos nas ruas da Califórnia no próximo trimestre, após serem aprovados na pista de testes.

Robôs sociais

Os carros já podem parar e dirigir sem a ajuda de um motorista humano. Dentro de dez anos, os automóveis totalmente automatizados poderão trafegar nas vias públicas, segundo a Boston Consulting Group.

Os carros estarão entre as primeiras máquinas autônomas a testar os limites da razão e da reação em tempo real.

“Isso dará o tom para todos os robôs sociais”, diz o filósofo Patrick Lin, que gerencia o Grupo de Ética e Ciências Emergentes da Universidade Politécnica da Califórnia e é conselheiro de fabricantes de veículos. “Estes são os primeiros verdadeiros robôs sociais que circulam na sociedade”.

A promessa dos carros autônomos é que eles anteciparão e evitarão colisões, reduzindo drasticamente as 33.000 mortes nas estradas dos EUA a cada ano. Mas ainda haverá acidentes.

E nesses momentos o carro robô pode ter que escolher o menos pior entre dois males -- desviar para uma calçada cheia de gente para evitar receber o choque traseiro de um caminhão em alta velocidade ou permanecer no lugar e colocar a vida do motorista em perigo.

“Esse tipo de pergunta realmente precisa ser respondido antes de a direção automatizada se tornar realidade”, disse Jeff Greenberg, líder técnico sênior da Ford para interfaces humano-máquina, durante um passeio pelo novo laboratório de pesquisa da fabricante no Vale do Silício, nesta semana.

Leis de Asimov

No momento, os especialistas em ética têm mais perguntas do que respostas. As regras que regem os veículos autônomos deveriam enfatizar o bem maior -- o número de vidas salvas -- e não aplicar valor aos indivíduos envolvidos? Deveriam se inspirar em Asimov, cuja primeira lei de robótica diz que uma máquina autônoma não pode ferir um ser humano ou, por inação, permitir que um humano seja ferido?

“Eu não ia querer que o meu carro robô desse a minha vida para salvar uma ou duas vidas”, diz Lin. “Mas isso não quer dizer que ele deva manter nossas vidas acima de tudo, seja qual for o número vítimas. Isso parece totalmente errado”.

Em última análise, o problema de delegar a um automóvel autônomo o poder de tomar decisões que provocam consequências é que, assim como os robôs da ficção científica, o carro autônomo não possui empatia, nem capacidade de compreender nuances.

“Nunca foi desenvolvido nenhum sensor que seja tão bom quanto o olho humano e o cérebro humano”, diz Gerdes.

Acompanhe tudo sobre:acidentes-de-transitoAutoindústriaCarrosCarros high techmobilidade-urbanaMortesTrânsitoVeículos

Mais de Tecnologia

Apple TV+ faz em um mês audiência que a Netflix faz em um dia

Alphabet registra lucro líquido de US$ 23,6 bilhões no segundo trimestre de 2024

Banco do Brasil se torna primeiro emissor Visa para pagamentos por aproximação nos relógios Garmin

CEO da CrowdStrike é convidado a depor no Senado dos EUA sobre falha que afetou PCs Windows

Mais na Exame