Tesla e l’Autopilot sotto inchiesta, quali sono i problemi del sistema di guida autonoma

corriere.it Le autorità di regolamentazione stradale del governo degli Stati Unitihanno aperto un’indagine sul sistema di pilota automatico (Autopilot) di Tesla dopo che alcune auto che utilizzano questa funzione hanno causato degli incidenti andando a sbattere contro dei veicoli di emergenza fermi. La National Highway Transportation Safety Administration (NHTSA) ha appena annunciato che l’indagine comprende 765mila Tesla vendute negli Stati Uniti, una frazione significativa di tutte le vendite dell’azienda nel paese. L’agenzia afferma che le investigazioni analizzeranno 11 incidenti dal 2018 a oggi che hanno causato 17 feriti e un decesso. L’NHTSA sta esaminando l’intera gamma di Tesla, inclusi i modelli S, X, 3 e Y prodotti tra il 2014 e il 2021.

Guida autonoma e Cruise Control «controllati speciali»
Sotto la lente d’ingrandimento dei regolatori non c’è solo l’Autopilot ma anche il Cruise Control sensibile al traffico, una funzione meno autonoma che non guida il veicolo ma gli consente di adeguarsi alla velocità del traffico. In ciascuno degli 11 incidenti, le Tesla hanno colpito dei veicoli d’emergenza (ambulanze e camion dei vigili del fuoco) che erano stati parcheggiati e contrassegnati con luci lampeggianti, frecce illuminate o coni stradali. L’indagine riguarderà l’intero ambito del sistema Autopilot, compreso il modo in cui monitora e rafforza l’attenzione di chi guida nonché il modo in cui il sistema rileva e risponde a oggetti ed eventi all’interno o in prossimità della carreggiata. L’indagine poi, è facilmente inquadrabile all’interno del pugno di ferro dell’amministrazione Biden sulle auto a guida autonoma, un cambio di rotta drastico rispetto al lasseiz Faire di Trump.

Guida «troppo» autonoma?
Tesla è sotto indagine per il modo in cui verifica l’attenzione e la responsabilità dei conducenti quando il pilota automatico è acceso. Nella valutazione che l’Europa fa dei sistemi avanzati di assistenza alla guida (ADAS), l’Autopilot ha ricevuto voti mediocri perché il sistema è stato ostacolato dalla sua relativa incapacità di mantenere i conducenti concentrati sulla strada. Come molti altri sistemi ADAS, l’Autopilot richiede che il guidatore tenga le mani sul volante, nonostante il sistema possa essere facilmente ingannato appoggiando un peso su una delle razze del volante. Una recente indagine di Car and Driver ha rilevato che le Tesla ci mettono tra i 25 e i 40 secondi prima di emettere un avviso dopo che il conducenti tolgono le mani dal volante. Davanti alla prolungata inazione del conducente, l’auto ha guidato per altri 30 secondi prima di iniziare a frenare. A velocità autostradali, l’insieme di quesiti difetti potrebbe far proseguire il veicolo per più di un chilometro e mezzo prima che il sistema si attivi. Sulla scia di un incidente del gennaio 2018 in California, il National Transportation Safety Board ha criticato il modo in cui Tesla tenta di mantenere i conducenti concentrati sulla guida.

Un precedente nel 2019
In quell’incidente, che fa parte dell’indagine dell’NHTSA, una Model S del 2014 ha tamponato un camion dei pompieri nella corsia di destradi un interstatale a Culver City. L’autista della Tesla aveva attivato il pilota automatico e stava seguendo un altro veicolo nella corsia quando il veicolo di testa ha cambiato corsia per evitare il camion dei pompieri parcheggiato. Il pilota automatico non ha sterzato o frenato e l’autista, che stava mangiando un bagel, non ha preso il controllo del veicolo: il risultato è che la Tesla ha colpito il camion dei pompieri a circa 50 chilometri orari secondo il rapporto. Il National Transportation Safety Board ha affermato che la disattenzione del conducente è stata la probabile causa dell’incidente «a causa dell’eccessiva dipendenza dal sistema avanzato di assistenza alla guida del veicolo; del design del pilota automatico di Tesla (che consente al conducente di disimpegnarsi dal compito di guida) e dall’uso del sistema da parte del conducente in modi non coerenti con le indicazioni e gli avvertimenti del produttore». L’agenzia ha preso la decisione di aprire l’indagine nel 2019 dopo aver indagato su un incidente a Delray Beach, in Florida, in cui è stato ucciso il conducente di una Tesla Model 3 di 50 anni. L’auto stava guidando con il pilota automatico quando né il conducente né il sistema hanno frenato o hanno cercato di evitare un trattore che stava incrociando la sua traiettoria.

I cambiamenti introdotti
Tesla ha recentemente iniziato a cambiare il modo in cui funziona il suo pilota automatico, abbandonando il sensore radar nei modelli 3 e Y in favore di telecamere aggiuntive mentre i modelli S e X manterranno il radar per il prossimo futuro. La decisione è stata presa perché, come mostrano gli incidenti che fanno parte dell’indagine dell’NHTSA, i dati del radar non garantiscono che i sistemi ADAS rilevino correttamente gli ostacoli sulla carreggiata. Visto che i dati radar e lidar (un sistema che usa una serie di laser rotanti per creare una mappa in tempo reale dei dintorni del veicolo) sono essenzialmente una serie di misurazioni, il loro scopo è quello di determinare la distanza del veicolo da qualunque oggetto. Sebbene i sistemi ADAS possano ottenere le stesse informazioni dalle immagini delle telecamere, questo processo di raccolta dati richiede calcoli più complicati rispetto alle rilevazioni di radar e lidar. Non è chiaro se l’indagine dell’NHTSA includa i nuovi modelli dotati solo di fotocamere di Tesla. Né è chiaro se l’indagine influirà sulla cosiddetta funzione Full Self-Driving di Tesla, le cui versioni beta sono state rilasciate a un gruppo di conducenti-tester. I video del sistema in azione mostrano che è ancora un work in progress e richiede comunque l’attenzione del conducente in ogni momento.

Le incognite ancora aperte
Nonostante il Full Self-Driving prenda alcune decisioni che emulano da vicino un guidatore umano, in altri casi, fa scelte più discutibili. In un video, un’auto che stava testando il sistema di Full Self-Driving frena solo dopo aver superato un veicolo in panne a bordo strada per poi deviare improvvisamente a destra in un’altra corsia prima di girare a sinistra. In un altro video, l’auto prova a infilarsi in degli incroci pieni di traffico passando attraverso un piccolo cantiere circondato da coni di segnalazione. Anche il Full Self-Driving non è in grado di dire se il conducente umano ha sempre il controllo del veicolo e chiederà l’attenzione del conducente per più di un minuto (continuando a guidare) prima di iniziare a frenare. Finora, le case automobilistiche sono state ampiamente libere di sviluppare funzionalità ADAS senza una significativa supervisione normativa. Le autorità sono state relativamente indifferenti, al punto che le associazioni dei consumatori si sono dovute muovere (soprattutto negli USA, in Europa la regolamentazione è molto più stringente) per contrastare il loro atteggiamento di laissez-faire. Questa nuova indagine potrebbe essere la prima di molte che potrebbero costringere Tesla a un redesign delle interazioni guidatore-Autopilot in modo da richiedere l’attenzione costante del conducente.