Olá pessoal que acompanha o site dos Nobres do Grid, Já faz um bom tempo que não falo sobre a tecnologia dos carros autônomos, tendo me dedicado às tecnologias substitutas dos motores de combustão interna como nós conhecemos. Retorno ao tema da automação na condução de veículos devido a decisão da justiça nos Estados Unidos que condenou a Tesla e a obrigou a fazer um imenso recall de quase todos os veículos vendidos no país, mais de 2 milhões, para atualizar o software e reparar um sistema defeituoso que deveria garantir que os motoristas prestem atenção ao usar o piloto automático. Documentos publicados pelos reguladores de segurança dos EUA dizem que a atualização aumentará os avisos e alertas aos motoristas e até mesmo limitará as áreas onde as versões básicas do piloto automático podem operar. O recall ocorre após uma investigação de dois anos pela Administração Nacional de Segurança de Tráfego Rodoviário sobre uma série de acidentes que ocorreram enquanto o sistema de direção parcialmente automatizado do piloto automático estava em uso. Alguns eram mortais. A agência afirma que sua investigação descobriu que o método do piloto automático para garantir que os motoristas estejam prestando atenção pode ser inadequado e levar ao “uso indevido previsível do sistema”. Os controles e alertas adicionados “incentivarão ainda mais o motorista a cumprir sua responsabilidade contínua de dirigir”, afirmam os documentos. Especialistas em segurança disseram que, embora o recall seja um bom passo, ele ainda responsabiliza o motorista e não resolve o problema subjacente que os sistemas automatizados da Tesla têm de detectar e parar obstáculos em seu caminho. O recall abrange os modelos Y, S, 3 e X produzidos entre 5 de outubro de 2012 e 7 de dezembro deste ano. A atualização deveria ser enviada para alguns veículos afetados na terça-feira, e os demais receberiam mais tarde. As ações da Tesla caíram mais de 3% nas negociações anteriores à divulgação do veredito que condenou a empresa, mas se recuperaram em meio a uma ampla recuperação do mercado de ações, encerrando o dia com alta de 1%. A tentativa de corrigir as falhas no piloto automático parecia um caso de muito pouco, muito tarde para Dillon Angulo, que ficou gravemente ferido no acidente de 2019 envolvendo um Tesla que usava a tecnologia ao longo de um trecho rural da rodovia da Flórida, onde o software não está disponível e deveria ser implantado. “Esta tecnologia não é segura, temos que tirá-la da estrada”, disse Angulo, que está processando Tesla enquanto se recupera de lesões que incluem traumatismo cerebral e ossos quebrados. “O governo tem que fazer algo a respeito. Não podemos fazer experiências assim.” O piloto automático inclui recursos chamados Autosteer e Traffic Aware Cruise Control, com Autosteer destinado ao uso em rodovias de acesso limitado quando não está operando com um recurso mais sofisticado chamado Autosteer on City Streets. A atualização do software limitará onde o Autosteer pode ser usado. “Se o motorista tentar ativar o Autosteer quando as condições não forem atendidas, o recurso alertará o motorista de que está indisponível por meio de alertas visuais e sonoros, e o Autosteer não será ativado”, afirmam os documentos de recall. Dependendo do hardware do Tesla, os controles adicionados incluem “aumento da proeminência” dos alertas visuais, simplificação de como o Autosteer é ligado e desligado e verificações adicionais sobre se o Autosteer está sendo usado fora de estradas de acesso controladas e ao se aproximar de dispositivos de controle de tráfego. Um motorista pode ser suspenso do uso do Autosteer se falhar repetidamente “em demonstrar responsabilidade de direção contínua e sustentada”, dizem os documentos. De acordo com documentos de recall, os investigadores da agência se reuniram com Tesla a partir de outubro para explicar “conclusões provisórias” sobre a correção do sistema de monitoramento. Tesla não concordou com a análise da NHTSA, mas concordou com o recall em 5 de dezembro, em um esforço para resolver a investigação. Há anos que os defensores da segurança automóvel apelam a uma regulamentação mais rigorosa do sistema de monitorização do condutor, que detecta principalmente se as mãos do condutor estão no volante. Eles pediram câmeras para garantir que o motorista esteja prestando atenção, que são usadas por outras montadoras com sistemas semelhantes. Philip Koopman, professor de engenharia elétrica e de computação da Universidade Carnegie Mellon que estuda segurança de veículos autônomos, classificou a atualização de software como um compromisso que não aborda a falta de câmeras de visão noturna para observar os olhos dos motoristas, bem como a falha dos Teslas em detectar e pare em obstáculos. “O compromisso é decepcionante porque não resolve o problema de os carros mais antigos não terem hardware adequado para monitorar o motorista”, disse ele. Koopman e Michael Brooks, diretor executivo da organização sem fins lucrativos Center for Auto Safety, afirmam que colidir com veículos de emergência é um defeito de segurança que não é resolvido. “Não se trata de cavar a raiz do que a investigação está analisando”, disse Brooks. “Isso não responde à questão de por que os Teslas no piloto automático não detectam e respondem a atividades de emergência?” Koopman também disse que a NHTSA aparentemente decidiu que a mudança de software era o máximo que poderia obter da empresa, “e os benefícios de fazer isso agora superam os custos de passar mais um ano discutindo com a Tesla”. Na sua declaração de quarta-feira, a NHTSA disse que a investigação permanece aberta “enquanto monitoramos a eficácia das soluções da Tesla e continuamos a trabalhar com a montadora para garantir o mais alto nível de segurança”. O piloto automático pode dirigir, acelerar e frear automaticamente em sua faixa, mas é um sistema de assistência ao motorista e não pode dirigir sozinho, apesar do nome. Testes independentes descobriram que o sistema de monitoramento é fácil de enganar, tanto que motoristas foram flagrados dirigindo bêbados ou até mesmo sentados no banco de trás. Em seu relatório de defeitos apresentado à agência de segurança, a Tesla disse que os controles do piloto automático “podem não ser suficientes para evitar o uso indevido do motorista”. A Tesla afirma em seu site que o piloto automático e um sistema Full Self Driving mais sofisticado têm como objetivo ajudar os motoristas que precisam estar prontos para intervir em todos os momentos. Full Self Driving está sendo testado por proprietários de Tesla em vias públicas. Em comunicado publicado na segunda-feira no X, antigo Twitter, Tesla disse que a segurança é mais forte quando o piloto automático está ativado. A NHTSA enviou investigadores para 35 acidentes de Tesla desde 2016, nos quais a agência suspeita que os veículos funcionavam em um sistema automatizado. Pelo menos 17 pessoas foram mortas. As investigações fazem parte de uma investigação maior da NHTSA sobre vários casos de Teslas usando o piloto automático colidindo com veículos de emergência. A NHTSA tornou-se mais agressiva na busca por problemas de segurança com Teslas, incluindo um recall do software Full Self Driving. Em maio, o secretário de Transportes, Pete Buttigieg, cujo departamento inclui a NHTSA, disse que a Tesla não deveria chamar o sistema de piloto automático porque ele não consegue dirigir sozinho. Como eu falava há algum tempo e continuo falando, ainda há muito o que se aperfeiçoar nesta tecnologia. Sem uma redundância segura no sistema não podemos ter veículos rodando de forma autônoma em nossas ruas e estradas, seja nos Estados Unidos, seja no Brasil, seja em qualquer lugar no mundo. Muito axé pra todo mundo, Maria da Graça |