Una delle principali critiche mosse a chi sviluppa automobili a guida autonoma è quella di dedicare molta attenzione all’innovazione e meno alla sicurezza. Inevitabilmente, questo accende il dibattito sul bilanciamento tra i due fattori e i profili di responsabilità nel caso di incidenti stradali in presenza di malfunzionamenti.
Auto a guida autonoma, nuovi obblighi nel regolamento europeo su AI
Il “caso” Autopilot
Nell’agosto del 2021 la National Highway Traffic Safety Administration (NHTSA) – agenzia governativa statunitense che fa parte del Dipartimento dei Trasporti e competente a vigilare sulla sicurezza autostradale – ha aperto un’indagine formale nei confronti del sistema Autopilot di Tesla dopo che dall’inizio del 2018 si erano verificati 11 incidenti in cui le vetture si erano scontrate con uno o più veicoli fermi per motivi di emergenza, causando un morto e 17 feriti. Peraltro, la maggior parte degli incidenti avvenuti in diversi Stati americani come la California e il Texas, si erano verificati dopo il tramonto, nonostante le misure di sicurezza attuate dai soccorritori, come segnali luminosi e coni stradali.
In particolare, ciò che maggiormente preoccupa la NHTSA è l’efficacia delle tecniche usate per sorvegliare il sistema di assistenza alla guida e la sua capacità di recepire l’intervento umano. In altri termini, secondo l’agenzia, il rischio maggiore è infatti rappresentato dal fatto che chi guida possa incidere troppo poco sul sistema di pilota parzialmente automatico e che quindi sia proprio Autopilot a prendere il sopravvento.
Da questo punto di vista diventa quindi importante comprendere il funzionamento del sistema e come l’intervento del guidatore umano possa incidervi, individuando al contempo i possibili profili di responsabilità in caso di incidenti, che inevitabilmente si collega al rapporto complesso tra macchina e guidatore.
Come funziona il sistema Autopilot
Preliminarmente, è indispensabile precisare che quando si parla di auto a guida autonoma bisogna farlo tenendo presente che esistono diversi livelli di autonomia dei veicoli. La Society of Automotive Engineers (SAE) ha infatti stabilito sei classi di funzionalità che consentono di distinguere le operazioni automatizzate che un veicolo è in grado di compiere fino ad arrivare alle auto senza conducente. Questa classificazione incide poi anche sul rilascio di una serie di autorizzazioni necessarie per i test o per l’utilizzo delle macchine sulle strade pubbliche.
In estrema sintesi, il punto di partenza è il livello 0, quello base, che identifica le automobili la cui guida è totalmente affidata al conducente, senza che vi sia un intervento elettronico da parte della vettura. Dopodiché, in base al crescente intervento della tecnologia nell’esperienza di guida, si arriva al tanto agognato livello 5, ossia quello in cui si può parlare a pieno titolo di auto a guida autonoma, dove l’intelligenza artificiale comanda completamente il veicolo senza che sia in alcun modo necessario l’intervento dell’uomo.
Ora, premesso che nessuno è ancora riuscito a portare su strada delle vere e proprie auto con autonomia di guida di livello 4 o 5, possiamo collocare il sistema Autopilot di Tesla a metà tra il livello 2 e il livello 3.
Le tecnologie sfruttate da Autopilot
Da un punto di vista strutturale, esso sfrutta quattro tecnologie differenti: il radar frontale, gli ultrasuoni, le telecamere e il GPS. Di conseguenza, il sistema coordina le funzioni di ciascuno strumento per il conseguimento del risultato. Le telecamere raccolgono tutte le informazioni sulla presenza di oggetti, sulla loro forma e dimensione e sulla loro disposizione nello spazio attraverso un’analisi monoculare della profondità. Altri dati provengono poi da reti che uniscono i video provenienti da tutte le telecamere e che permettono di avere una panoramica della strada e una prospettiva tridimensionale degli oggetti.
Tutte le informazioni raccolte vengono poi elaborate dal processore Application Specific Integrated Circuit (ASIC) per ricreare possibili scenari futuri tra i più complessi, tenendo conto di tutte le varianti per consentire all’auto di reagire correttamente.
Come si può dedurre, però, l’Autopilot è esclusivamente di supporto, ossia un’aggiunta e non una sostituzione. Ciò significa che il conducente deve sempre essere vigile e prestare attenzione. Non a caso, il sistema richiede che il conducente sia al posto di guida con le mani sul volante; se ciò non avviene, compare un avviso sullo schermo e, in seconda battuta, un segnale acustico.
Cosa causa gli incidenti?
Poiché si è detto che il sistema Autopilot non è di livello 4 o 5, e quindi non garantisce l’indispensabilità del guidatore ma è semmai un supporto ad esso, è legittimo chiedersi a cosa siano dovuti gli incidenti avvenuti negli anni.
Il fattore umano
Una prima risposta rimanda all’intervento umano, in questo caso errato. Da tempo circolano infatti diversi filmati che insegnano come aggirare il meccanismo di rilevamento del conducente. Come anticipato, infatti, il sistema esige che l’essere umano si trovi al posto di guida con le mani sul volante, le quali vengono rilevate da un sistema di sensori. Tuttavia, esistono dei modi – assolutamente da non applicare – che consentono di “ingannare” l’auto e i sistemi che accertano che il conducente sia nel pieno delle sue possibilità di intervento. Naturalmente, questo espone a dei grossi rischi proprio perché i modelli ad oggi legalmente in circolazione non hanno un livello di tecnologia tale da non dover più contare sulla prontezza del guidatore.
Gli errori del sistema
Un secondo fattore riguarda invece il sistema in sé, ed è poi l’oggetto delle principali critiche. L’esempio più chiaro arriva da un’incidente nel quale è rimasto ucciso il conducente. Nel maggio del 2016, l’americano Joshua Brown, 40 anni, stava guidando la sua auto su una strada nel nord della Florida. Sul suo percorso, però, un camion stava svoltando verso sinistra per imboccare un’altra strada. L’Autopilot, non riconoscendo il camion, non ha frenato causando così l’impatto. Essendo il rimorchio piuttosto rialzato dal suolo, l’auto è riuscita a passarci sotto, distruggendo tutta la parte alta, per poi schiantarsi contro alcune recinzioni e alcuni pali della luce. La causa del sinistro mortale è che il sistema di guida non ha visto il camion a causa dell’eccessiva altezza da terra dello stesso e del colore bianco del rimorchio che non è stato distinto rispetto al cielo chiaro di quel giorno. Facendo affidamento sul sistema di riconoscimento degli ostacoli che avrebbe dovuto imporre la frenata immediata, Brown non ha reagito in tempo. Bisogna precisare che, nel caso di specie, alcune testimonianze avevano fatto sapere che non solo l’auto era lanciata ad altissima velocità, ma il conducente era probabilmente distratto da un lettore DVD portatile. Ciononostante, come detto, l’Autopilot avrebbe dovuto reagire.
Incidente Tesla, chi è responsabile? Il dilemma nel futuro delle auto a guida autonoma
Questo per dire, nell’ottica di un discorso ben più ampio e complesso, che il sistema è andato più volte incontro ad errori più o meno gravi, pur essendo dotato di strumenti tecnologici altamente prestanti. Altri incidenti simili a quello sopradescritto sono avvenuti per le stesse ragioni: ostacoli non rilevati, mancato riconoscimento dei semafori rossi, facilità di ingannare la tecnologia in modo piuttosto rudimentale come nel caso delle mani sul volante.
I profili di responsabilità giuridica
Dal punto di vista della responsabilità giuridica, la Francia è stata la prima nazione europea a introdurre delle modifiche al codice della strada – in vigore dal 2022 – per le driverless cars, ma con alcuni aggiustamenti. Innanzi tutto, il conducente dovrà comunque fare attenzione alla strada, utilizzando i sistemi di guida autonoma solo in modo appropriato e su alcuni tratti stradali, senza violare le altre regole del codice. Inoltre, le autorità francesi hanno definito i termini precisi per l’interazione umana con il veicolo ed hanno stabilito delle manovre di emergenza che le auto dovranno essere sempre in grado di completare in autonomia.
L’obiettivo principale dell’intervento del legislatore francese, però, è quello di introdurre un regime di responsabilità penale che consenta di esonerare il conducente. Infatti, come il codice italiano, anche quello transalpino prevede che solo un essere umano possa essere qualificato come conducente. Con le modifiche, però, è prevista la possibilità che sia un sistema automatizzato a controllare il veicolo.
Si tratta chiaramente di un intervento normativo volto ad anticipare uno stato dell’arte che ancora non c’è, poiché ad oggi, come più volte detto, non ci sono auto a guida totalmente autonoma che circolano legalmente sulle strade pubbliche d’Europa. Il diritto è infatti ancora legato al tipo di auto in circolazione in questo momento. Un esempio è l’art. 46 del Codice della Strada italiano, il quale riconduce il concetto di veicolo alle sole macchine guidate dall’uomo.
L’Italia ha tuttavia iniziato un processo di aggiornamento con la L. n. 205/2017 – legge di bilancio per l’anno 2018 – che prevedeva lo stanziamento fondi per la costruzione di smart roads e per l’avvio della guida autonoma e connessa.
La Germania, invece, nel 2017 ha adottato un provvedimento che consente di effettuare i test delle auto a guida autonoma sulle strade pubbliche, ma con la stessa e persistente condizione: la presenza di un operatore umano a bordo che sia sempre in grado di riprendere la guida manuale del veicolo. Ebbene, da un punto di vista giuridico, il fatto di essere ancora strettamente ancorati alla presenza dell’uomo sull’auto e il continuo richiamo al suo intervento non consente di determinare una responsabilità diversa da quella del guidatore in caso di incidenti stradali, come previsto dall’art. 2054 del Codice civile italiano. Fanno eccezione i casi di prova liberatoria, con la quale il conducente può esonerarsi da responsabilità dimostrando di aver fatto tutto il possibile per evitare il danno. Soluzione diversa, invece, riguarda la possibilità di chiamare in causa la casa costruttrice del veicolo. Con la sentenza n. 25023 del 2019, infatti, la Terza Sezione Civile della Corte di Cassazione ha stabilito che in tema di circolazione di un veicolo senza guida di rotaie, qualora il proprietario dello stesso subisca dei danni dovuti ad un vizio di costruzione della vettura, trova applicazione la disciplina sulla responsabilità del costruttore da prodotto difettoso. Nel caso di specie, una donna al volante della propria auto si era trovata nell’impossibilità di controllare l’acceleratore del veicolo, rimasto premuto e bloccato. La vicenda non aveva fortunatamente avuto conseguenze tragiche, salvo alcune problematiche legate al trauma, come stati d’ansia e fobie successive all’accaduto.
Tornando al cuore del discorso, sotto questo punto di vista, la disciplina sulla responsabilità del prodotto difettoso può in qualche modo intervenire quando degli incidenti stradali sono avvenuti per il malfunzionamento dei sistemi di Autopilot che avrebbero dovuto evitarli, come ad esempio il riconoscimento degli ostacoli sulla carreggiata o il rallentamento e l’arresto del veicolo in caso di mancato rilevamento delle mani del guidatore sul volante. Laddove però vi sia stata una complicità umana, potrebbe risultare difficile chiamare in causa il costruttore.
Conclusioni
Parlare di sola responsabilità giuridica è forse limitativo, benché sia l’aspetto di maggiore interesse per chi acquista un’auto, per chi la guida, per chi subisce dei danni da esse e per chi la costruisce.
Infatti, una società di fama mondiale come Tesla, è presumibile che abbia a cuore anche altri aspetti che possono incidere sulla propria reputazione che, per un’azienda di quel calibro, è fondamentale anche per i risvolti economici. Sotto questo punto di vista, l’indagine avviata dalla NHTSA americana ha determinato un immediato crollo in borsa per Tesla, che ha dovuto immediatamente far uscire un comunicato stampa per difendersi dalle accuse e dai dubbi sulla sicurezza dei suoi veicoli, come fatto in occasione dei vari incidenti. In questo senso, le attività della NHTSA permetteranno di capire meglio i profili di responsabilità – quantomeno morale – dell’azienda di Elon Musk.
Occorre però precisare che, in diversi casi, i danni scaturiti dalla guida delle auto Tesla ha visto la compartecipazione dell’essere umano, come nel caso Brown in Florida, o tutti quei casi in cui venivano messi in pratica i sistemi per ingannare i sensori che rilevano le mani sul volante.
Ebbene, è auspicabile che le aziende produttrici di auto a guida autonoma evitino di correre più velocemente dello stato dell’arte della tecnologia del settore, cercando di lanciare sul mercato un qualcosa di cui non possono ancora assicurare la sicurezza. Dall’altro lato, però, anche l’essere umano deve capire – ed essere aiutato a capire – che ad oggi è ancora “responsabile” della tecnologia, e non viceversa.
Avv. Marco Martorana
Dott. Zakaria Sichi