Le valute digitali sostituiranno gli euro?
La corsa verso le valute digitali delle banche centrali (CBDC) è iniziata: secondo il tracker dell’Atlantic Council oltre 130 Paesi stanno esplorando o sperimentando versioni di
La corsa all’auto autonoma promette sicurezza e innovazione, ma gli errori dei sistemi autonomi sollevano ancora dubbi e responsabilità. Dalla tragedia di Tempe alle nuove norme ISO cosa dobbiamo aspettarci.
Il 18 marzo 2018 a Tempe, in Arizona (USA), una ciclista è stata investita e uccisa da un’auto mentre attraversava la strada tenendo la bicicletta.
L’aspetto particolare è che alla guida non c’era un essere umano, ma un sistema di intelligenza artificiale.
Il veicolo coinvolto era un SUV Volvo XC90 modificato per operare in modalità completamente autonoma, con un backup driver (guidatore di sicurezza) al posto di guida, incaricato di intervenire solo in caso di emergenza.
L’auto viaggiava a circa 64 km/h e, dai filmati, è emerso che non ha rallentato prima dell’impatto.
L’indagine ha stabilito che i sensori LIDAR e radar avevano rilevato la ciclista 5,6 secondi prima della collisione, ma il sistema aveva classificato erroneamente l’oggetto più volte, capendone la natura solo 1,3 secondi prima dell’impatto, quando ormai era troppo tardi.
Inoltre, per evitare interferenze con la guida autonoma, il sistema di frenata automatica d’emergenza era stato disattivato.
L’incidente ha portato alla condanna del guidatore di sicurezza e alla sospensione dei test dei veicoli a guida autonoma su strade pubbliche in tutti gli Stati Uniti da parte dell’azienda coinvolta.
Oggi, tuttavia, taxi a guida autonoma sono operativi in diverse città americane, segno che lo sviluppo di questa tecnologia non si è fermato.
In Europa, i sistemi a guida autonoma di livello 4 e 5 non sono ancora ammessi; solo quelli di livello 3 sono consentiti, in condizioni specifiche (come traffico intenso o autostrada).
L’IA è già impiegata in sistemi di assistenza alla guida, come:
Questi sistemi si basano su algoritmi di autoapprendimento, simili a quelli utilizzati da ChatGPT o Gemini, che imparano da milioni di esempi di scenari stradali.
Ma come possiamo essere certi che questi sistemi non commettano errori — o che ne facciano meno di un guidatore umano esperto?
La sicurezza dei veicoli è garantita da normative specifiche. Tra queste, il Regolamento R171 – Uniform Provisions Concerning the Approval of Vehicles with regard to Driver Control Assistance Systems, che definisce:
Ciò dimostra che i legislatori riconoscono la possibilità di errore anche nei sistemi automatizzati, e prevedono strumenti per rilevarli e correggerli.
Per approfondire il tema della sicurezza funzionale, vedi l’articolo di Changes: Auto: cos’è la sicurezza funzionale
Molti sistemi già presenti sulle auto utilizzano moduli di intelligenza artificiale per migliorare le prestazioni, ad esempio:
Questi moduli però non possono essere certificati secondo il Regolamento R171.
Ciò può diventare critico: se, per esempio, il sistema interpreta erroneamente un limite di velocità, l’auto potrebbe accelerare pericolosamente.
I costruttori automobilistici fanno riferimento a due norme principali:
Queste norme sono discusse in Changes: Le funzionalità dell’auto sono sicure?
Tuttavia, nessuno dei due standard contempla pienamente i sistemi basati su IA, motivo per cui è stato introdotto il nuovo standard ISO 8800 – Road Vehicles: Safety and Artificial Intelligence, che:
Le case automobilistiche sono consapevoli dei rischi legati all’uso dell’intelligenza artificiale.
Laddove l’IA interviene in funzioni critiche per la sicurezza, verranno seguite le linee guida dello standard ISO 8800.
Tuttavia, il rischio zero non esiste: come per ogni attività umana, prudenza e attenzione restano indispensabili.
Anche con sistemi di livello 3, che permettono di togliere mani e piedi dai comandi, il guidatore deve mantenere gli occhi sulla strada e intervenire se necessario.