Olá pessoal que acompanha o site dos Nobres do Grid, Já tem alguns meses que escrevi uma série de artigos sobre mobilidade e veículos autônomos. Com a implementação – finalmente – da tecnologia 5G nas principais cidades do Brasil, estaríamos habilitados a ter veículos autônomos em nossas ruas, avenidas e estradas? Apesar dos avanços da tecnologia, a estrada a ser percorrida para termos veículos onde não precisaremos de condutores ao volante ainda é longa e mesmo as empresas que estão – em teoria – mais avançadas tem enfrentado dificuldades. Enquanto estava escrevendo a série de artigos sobre a mobilidade de veículos autônomos, aconteceram alguns acidentes com veículos da Tesla onde os carros, operando de forma autônoma, que fizeram verdadeiros “break tests”. A fabricante introduziu um novo sistema de direção autônoma, mas os testes não tem sido satisfatórios. A versão mais recente da versão beta do Full Self-Driving (FSD) da Tesla tem apresentado um problema sério: ela não percebe objetos do tamanho de crianças em seu caminho, afirmou um grupo de análise de testes. Em testes realizados pelo The Dawn Project usando um Tesla Model 3 equipado com FSD versão 10.12.2 (a mais recente, lançada em 1º de junho), o veículo recebeu 110 metros de pista reta entre duas fileiras de cones com manequim de tamanho infantil no final. O grupo disse que “as mãos do piloto de testes nunca estiveram no volante”. Crucialmente, Tesla diz que mesmo o FSD não é um sistema totalmente autônomo: é um programa de controle de super-cruzeiro com vários recursos, como mudança automática de faixa e direção automatizada. Você deve manter suas mãos no volante e ser capaz de assumir a qualquer momento. Viajando a aproximadamente 25 mph (cerca de 40 km/h), o Tesla atingiu o manequim todas as vezes durante os experimentos do grupo. Dos resultados, o Dawn Project disse que 100 jardas de distância são mais do que suficientes para um motorista humano notar uma criança, afirmando: “O software Full Self-Driving da Tesla falha repetidamente neste teste simples e crítico de segurança, com resultados potencialmente mortais”. “Elon Musk diz que o software Full Self-Driving da Tesla é 'incrível'. Não é... Este é o pior software comercial que já vi”, disse o fundador do projeto, Dan O'Dowd, em um vídeo que twittou junto com os resultados. O'Dowd, que também fundou a Green Hills Software em 1982 e defende a segurança do software, é um oponente de Tesla há algum tempo, até mesmo lançando uma oferta para uma cadeira no Senado dos EUA na Califórnia que se concentrava no policiamento de Tesla como uma maneira de falar sobre questões de engenharia confiáveis mais amplas. A candidatura de O'Dowd ao Senado terminou em junho, quando ele perdeu as primárias do Partido Democrata. O objetivo declarado do Projeto Dawn é "tornar os computadores seguros para a humanidade". Tesla FSD é a primeira campanha do projeto. Tamanho de amostra minúsculo Vale a pena notar que os testes do The Dawn Project do FSD 10.12.2, que ocorreram em 21 de junho em Rosamond, Califórnia, aparentemente consistiram apenas em três execuções. Esse é um tamanho de amostra muito pequeno, embora, considerando outros testes e estatísticas da Tesla, não seja inesperado. Falhas no piloto automático – o conjunto de software da Tesla que inclui o piloto automático regular e o FSD – foram citados como supostamente um fator em vários acidentes fatais envolvendo motoristas e pedestres ao longo dos anos. No ano passado, a Tesla reverteu os lançamentos de software FSD depois que foram descobertos bugs de software que causavam problemas com curvas à esquerda, algo em que a Tesla ainda está trabalhando. No início de junho, a Administração Nacional de Segurança no Tráfego Rodoviário dos EUA atualizou uma sonda do piloto automático para determinar se a tecnologia "e os sistemas Tesla associados podem exacerbar fatores humanos ou riscos de segurança comportamental". Ou seja, o Autopilot encoraja as pessoas a dirigirem mal. Essa investigação está em andamento. Uma semana depois de anunciar sua investigação, a NHTSA disse que o Tesla Autopilot operando no nível 2 de autonomia estava envolvido em 270 dos 394 acidentes com assistência ao motorista – cerca de 70% – catalogados como parte de uma investigação sobre a segurança da tecnologia de assistência ao motorista. Mais recentemente, o Departamento de Veículos Motorizados da Califórnia apresentou queixas contra a Tesla, alegando que os negócios deturparam alegações de que os veículos podem dirigir de forma autônoma. Se a Tesla não responder às reivindicações do DMV até o final desta semana, o caso será resolvido por padrão e pode levar a montadora a perder sua licença para vender carros na Califórnia. O Dawn Project disse que a NHTSA agiu rapidamente para emitir recalls nos recursos da Tesla, apontando para os recalls do código FSD da Tesla, estimulados pela NHTSA, que permitiram que a Tesla passasse pelos sinais de parada e a desativação do Tesla Boombox. O Projeto Dawn diz que sua pesquisa “é muito mais séria e urgente”. Atualizado para adicionar Após nosso relatório inicial, surgiram preocupações em vários lugares on-line de que os testes realizados pelo The Dawn Project não eram legítimos. Entramos em contato com o grupo para abordar as críticas contra ele e ainda não recebemos retorno. Um dos principais problemas é se o FSD ou o conjunto de piloto automático foram realmente engajados durante os testes. O Dawn Project lançou imagens brutas [MP4] de seus experimentos para você ver por si mesmo. Lembre-se de que estudos anteriores mostraram que o Autopilot pode desengatar automaticamente antes de detectar que haverá uma colisão, o que convenientemente permite à Tesla argumentar que seu software não estava no controle no momento do acidente. De acordo com o manual do proprietário do Tesla Model 3, o veículo usado nos testes, quando as funcionalidades do Autopilot, como Autosteer e Navigate on Autopilot, estão ativadas, o ícone Autopilot no canto superior esquerdo da tela principal do Tesla ficará azul, e uma única linha azul será mostrada no caminho do veículo, ambas visíveis nas imagens brutas. O que o vídeo não pode mostrar, e o que o The Dawn Project não mencionou em seu relatório, é se a frenagem de emergência automática do Autopilot estava habilitada no veículo. O manual do Model 3 indica que pode ser desativado. Também pedimos ao The Dawn Project para esclarecer isso. De acordo com a declaração assinada pelo piloto de testes que o The Dawn Project usou, “durante três (3) dos testes, o [veículo] foi colocado em modo de direção autônoma e atingiu o manequim três (3) vezes”. Pedimos esclarecimentos ao The Dawn Project sobre o número de execuções realizadas, quais recursos foram ativados e os resultados de cada execução. Resumindo: como notamos originalmente, o tamanho da amostra era muito pequeno ou mais de três execuções de teste ocorreram, mas apenas três foram documentadas, o que deve ser levado em consideração; e o motorista tirava as mãos do volante quando não era assim que a tecnologia deveria ser usada. Além disso, agora não está claro se a frenagem automática foi ativada ou se os recursos do piloto automático ativados deveriam ter parado o carro de qualquer maneira. “O FSD foi envolvida durante os testes, como confirma a declaração e as imagens brutas de dentro do carro também confirmam”, dizem os pesquisadores. “A linha azul e o símbolo azul do FSD são visíveis na tela da Tesla. Além disso, as imagens brutas dos testes estão disponíveis em nosso site.” O que está claro é que não é útil que o marketing da Tesla separe o Autopilot regular do FSD e os tenha sob a marca guarda-chuva apenas do Autopilot, enquanto o manual mistura os recursos individuais. Portanto, quando as pessoas falam sobre o piloto automático de anúncios FSD, você nunca tem certeza de qual funcionalidade está sendo confiável ou se está ativa. Leve tudo isso, o ponto de vista de Tesla e o relatório do Dawn Project, com uma pitada de sal adequada... ou de pimenta! Muito axé pra todo mundo, Maria da Graça |