Carros autônomos: quem é o culpado quando ocorrem acidentes?
O consenso sobre quem é o responsável em uma fatalidade pode ajudar a regular o setor e acelerar os estudos de viabilidade da tecnologia
Modo escuro
Um membro da mídia testa um carro da Tesla Motors Inc. Modelo S equipado com piloto automático. (Bloomberg / Colaborador/Getty Images)
Publicado em 23 de maio de 2021 às, 17h50.
Por Keith Laing, da Bloomberg
Um debate sobre quem culpar - ou processar - quando um carro autônomo bate em alguém atrasa a aprovação de uma legislação nos Estados Unidos que, segundo o setor, precisa avançar.
“Se outro motorista bater em você, está claro quem é o motorista”, disse Sarah Rooney, diretora sênior de assuntos federais e regulatórios da American Association for Justice. “É o ser humano.”
Não se pode dizer o mesmo quando um carro totalmente autônomo atinge outro veículo ou um pedestre. Nesse caso, a falha pode ser do fabricante e do software, ou do proprietário, se as atualizações não tiverem sido instaladas corretamente. E, se o fabricante for o culpado, a vítima pode entrar com uma ação judicial de acordo com os padrões de responsabilidade do produto, como acontece com um carro convencional.
Os veículos ainda estão em fase beta, mas os problemas atrasam a legislação que permitiria às montadoras testar e vender dezenas de milhares de veículos autônomos, algo que a indústria diz que precisa para desenvolver totalmente e, futuramente, comercializar a tecnologia para os consumidores. Um projeto de lei sobre esse tópico foi aprovado na Câmara dos Deputados dos EUA há vários anos, mas está parado no Senado por causa da questão da responsabilidade.
Uma iniciativa para unir o projeto de lei com a legislação no início deste mês emperrou devido à intenção de alguns fabricantes de incluir um texto que impediria consumidores de processar ou abrir casos de ação coletiva. Os consumidores teriam de submeter as disputas à arbitragem vinculante, algo comum com produtos de tecnologia, mas não com automóveis.
Essa ideia enfrentou resistência de grupos de segurança e advogados influentes entre os democratas do Senado. A medida foi retirada na véspera de uma votação no comitê, e defensores dizem que ainda trabalham para resolver a questão da responsabilidade na esperança de levar a legislação adiante neste ano.
Várias falhas envolvendo veículos da Tesla com motoristas humanos que utilizaram o sistema de piloto automático da empresa, bem como a morte de um pedestre atingido por um carro de teste autônomo da Uber Technologies em 2018, chamaram a atenção para a questão da responsabilidade em veículos agora em desenvolvimento que não têm volantes, aceleradores ou outras acomodações para motoristas humanos.
Rooney, cujo grupo representa os advogados que se opõem aos limites para ações judiciais, disse que as questões de responsabilidade terão que ser resolvidas antes que qualquer legislação autorizando o uso de veículos mais automatizados nas estradas dos Estados Unidos seja aprovada.
- O que pensam as pessoas mais ricas do mundo? Descubra assinando a EXAME.
Últimas Notícias
O que são digital skills e por que ter habilidades tech sem ser um profissional de tecnologia
Há uma semana
Por que a China está investindo US$ 56 bilhões por ano em uma rede nacional de computação
Há uma semana
Conheça a empresa que montou um programa de estágio para encontrar o próximo CEO
Há uma semana
Branded contents
Conteúdos de marca produzidos pelo time de EXAME Solutions
Acompanhe as últimas notícias e atualizações, aqui na Exame.