L’Intelligenza Artificiale sulle Auto: ma siamo davvero sicuri?

Avatar photo
Technology


L’Intelligenza Artificiale sulle Auto: ma siamo davvero sicuri?

La corsa all’auto autonoma promette sicurezza e innovazione, ma gli errori dei sistemi autonomi sollevano ancora dubbi e responsabilità. Dalla tragedia di Tempe alle nuove norme ISO cosa dobbiamo aspettarci.

Il 18 marzo 2018 a Tempe, in Arizona (USA), una ciclista è stata investita e uccisa da un’auto mentre attraversava la strada tenendo la bicicletta.
L’aspetto particolare è che alla guida non c’era un essere umano, ma un sistema di intelligenza artificiale.

Il veicolo coinvolto era un SUV Volvo XC90 modificato per operare in modalità completamente autonoma, con un backup driver (guidatore di sicurezza) al posto di guida, incaricato di intervenire solo in caso di emergenza.
L’auto viaggiava a circa 64 km/h e, dai filmati, è emerso che non ha rallentato prima dell’impatto.

L’indagine ha stabilito che i sensori LIDAR e radar avevano rilevato la ciclista 5,6 secondi prima della collisione, ma il sistema aveva classificato erroneamente l’oggetto più volte, capendone la natura solo 1,3 secondi prima dell’impatto, quando ormai era troppo tardi.
Inoltre, per evitare interferenze con la guida autonoma, il sistema di frenata automatica d’emergenza era stato disattivato.

Le conseguenze dell’incidente

L’incidente ha portato alla condanna del guidatore di sicurezza e alla sospensione dei test dei veicoli a guida autonoma su strade pubbliche in tutti gli Stati Uniti da parte dell’azienda coinvolta.
Oggi, tuttavia, taxi a guida autonoma sono operativi in diverse città americane, segno che lo sviluppo di questa tecnologia non si è fermato.

L’intelligenza artificiale nei veicoli moderni

In Europa, i sistemi a guida autonoma di livello 4 e 5 non sono ancora ammessi; solo quelli di livello 3 sono consentiti, in condizioni specifiche (come traffico intenso o autostrada).
L’IA è già impiegata in sistemi di assistenza alla guida, come:

  • controllo adattivo della velocità;
  • mantenimento della corsia;
  • riconoscimento dei segnali stradali.

Questi sistemi si basano su algoritmi di autoapprendimento, simili a quelli utilizzati da ChatGPT o Gemini, che imparano da milioni di esempi di scenari stradali.

Ma come possiamo essere certi che questi sistemi non commettano errori — o che ne facciano meno di un guidatore umano esperto?

Sicurezza e regolamentazioni: il regolamento R171

La sicurezza dei veicoli è garantita da normative specifiche. Tra queste, il Regolamento R171 – Uniform Provisions Concerning the Approval of Vehicles with regard to Driver Control Assistance Systems, che definisce:

  • le procedure di sviluppo e validazione in laboratorio;
  • test su strada in condizioni reali;
  • l’obbligo di registrare le anomalie per analisi post-incidente.

Ciò dimostra che i legislatori riconoscono la possibilità di errore anche nei sistemi automatizzati, e prevedono strumenti per rilevarli e correggerli.

Per approfondire il tema della sicurezza funzionale, vedi l’articolo di Changes: Auto: cos’è la sicurezza funzionale

Quando l’IA è parte del sistema: i rischi nascosti

Molti sistemi già presenti sulle auto utilizzano moduli di intelligenza artificiale per migliorare le prestazioni, ad esempio:

  • riconoscimento dei segnali stradali;
  • rilevamento dei parcheggi;
  • riconoscimento del guidatore e del suo livello di stanchezza.

Questi moduli però non possono essere certificati secondo il Regolamento R171.
Ciò può diventare critico: se, per esempio, il sistema interpreta erroneamente un limite di velocità, l’auto potrebbe accelerare pericolosamente.

Gli standard ISO per la sicurezza dei sistemi IA

I costruttori automobilistici fanno riferimento a due norme principali:

  • ISO 26262 – Sicurezza funzionale,
  • ISO 21448 (SOTIF) – Safety of the Intended Function.

Queste norme sono discusse in Changes: Le funzionalità dell’auto sono sicure?

Tuttavia, nessuno dei due standard contempla pienamente i sistemi basati su IA, motivo per cui è stato introdotto il nuovo standard ISO 8800 – Road Vehicles: Safety and Artificial Intelligence, che:

  • definisce i requisiti di sicurezza per l’IA;
  • prevede un perfezionamento continuo durante sviluppo e test;
  • stabilisce i limiti operativi dei sistemi di IA.

Misure di sicurezza previste

  1. Architetturali:
    prevedere più sistemi IA in parallelo con un meccanismo di “votazione”, per aumentare la ridondanza e consentire interventi di backup.
  2. Di processo:
    rendere più robusto l’apprendimento, anche tramite addestramento antagonistico, cioè esporre l’IA a situazioni progettate per ingannarla e verificarne le reazioni.

Siamo quindi davvero sicuri?

Le case automobilistiche sono consapevoli dei rischi legati all’uso dell’intelligenza artificiale.
Laddove l’IA interviene in funzioni critiche per la sicurezza, verranno seguite le linee guida dello standard ISO 8800.

Tuttavia, il rischio zero non esiste: come per ogni attività umana, prudenza e attenzione restano indispensabili.
Anche con sistemi di livello 3, che permettono di togliere mani e piedi dai comandi, il guidatore deve mantenere gli occhi sulla strada e intervenire se necessario.

Avatar photo

Nato a Carmagnola il 14 Settembre 1956. Si laurea nel 1980 in Ingegneria Elettrica, con la votazione finale di 110/110 e lode. Specializzazione in Automazione Industriale. Dopo un paio di anni di esperienza come sistemista software entra nel 1982 al Centro Ricerche FIAT. Fino al 1990 si occupa di automazione industriale e robotica, realizzando sistemi innovativi per il montaggio e l’ispezione, utilizzando sistemi di visione artificiale. Nel 1990 la tecnologia della visione artificiale diventa matura per essere utilizzata anche sul prodotto, veicolo, e quindi inizia a sviluppare sistemi di ausilio alla guida (radar anticollisione, mantenimento corsia, sensore angolo cieco). Diventa dirigente nel 1995, e gestisce i team di sviluppo di sistemi di informativa di bordo, assistenza alla guida, telematica e interfaccia con il guidatore. Coordinatore di numerosi progetti a finanziamento Europeo. Nel 2003 coordina per Fiat il progetto regionale Torino Wireless. Nel 2012 assume l’incarico di direttore della sicurezza presso l’ACEA, l’associazione Europea dei costruttori di veicoli, a Bruxelles. Rientrato in Fiat Chrysler Automotive nel 2017, lascia l’azienda nel novembre del 2017, per avviare una attività in proprio di consulenza industriale.