Accendiamo la luce sul futuro
La serie di fantascienza Star Trek è ambientata nell’anno 2264. Gli esseri umani viaggiano nella galassia insieme agli alieni, aiutati da computer, propulsione più veloce d
Molte tecnologie di uso comune, come il sistema GPS e Internet, affondano le loro radici nelle sperimentazioni in ambito militare. Ora l’evoluzione della robotica militare spaventa. Changes ne ha parlato con il filosofo della scienza Alessio Plebe.
Molte tecnologie di uso comune, come il sistema GPS e Internet, affondano le loro radici nelle sperimentazioni in ambito militare. Ora l’evoluzione della robotica militare spaventa. Changes ne ha parlato con il filosofo della scienza Alessio Plebe.
«Non è importante cosa può fare un computer, ma anche cosa dovrebbe fare. Ci vuole equità, così che i computer non introducano alcuna discriminazione». Lo chiamano bias e rappresenta un giudizio non necessariamente corrispondente all’evidenza. Un pregiudizio, insomma, che nelle affermazioni del presidente di Microsoft Brad Smith prefigura lo spauracchio di tutti gli sviluppatori. Gli algoritmi rifletteranno i pregiudizi di chi li programmerà? E seguiranno norme etiche definite dagli uomini, quando si troveranno a dover assumere decisioni critiche in autonomia? Oppure diventeranno un elemento di pericolosità per l’uomo stesso?
L’inquietudine è palpabile e serpeggia in particolare quando si affronta il tema delle armi automatiche. Carri armati a guida autonoma, stormi di droni e fucili-sentinella potrebbero scandire il ritmo della guerra del futuro. Del resto molte tecnologie utilizzate oggi dal pubblico – il sistema GPS e la rete Internet tra le altre – affondano le loro radici nelle sperimentazioni in ambito militare, settore tradizionalmente fecondo per gli investimenti in ricerca e sviluppo. Lockheed Martin, tra i principali fornitori di armi del governo degli Stati Uniti con 100 mila dipendenti e oltre 51 miliardi di dollari di fatturato, nel 2017 ha speso oltre 1,2 miliardi di dollari in ricerca e sviluppo. Tra le soluzioni basate sull’intelligenza artificiale ha sviluppato il sistema CAST, che rende semi-autonomi i veicoli militari, abilitando la guida autonoma del carro armato in scenario di conflitto, per consentire al soldato di mettere in salvo sé stesso.
Boeing Defense, la divisione non commerciale del gruppo Boeing, è pioniera nello sviluppo di imbarcazioni militari autonome per il mare, lo spazio e l’aria come Blackjack, che adopera l’apprendimento automatico alle immagini e ai video acquisiti da una videocamera. L’aereo autonomo X-47B di Northrop Grumman è in grado di condurre operazioni di decollo e recupero in autonomia, ma ha anche condotto il primo rifornimento autonomo a mezz’aria. I droni più moderni abilitano invece la sorveglianza dall’alto, mentre alcuni robot possono rilevare e ridimensionare la minaccia delle mine nel terreno.
Sono inoltre già in azione mitragliatori che automatizzano il fuoco e il ricarico di proiettili, mentre il sistema di combattimento AEGIS viene utilizzato sulle navi della Marina degli Stati Uniti, per difendersi dai bombardamenti di missili di precisione, a loro volta un sistema semi-autonomo. L’esercito americano, tra gli altri, ha sviluppato interesse nei confronti di armi autonome e “killer robot” a partire dai conflitti in Iraq e Afghanistan, commissionando migliaia di robot aerei e terrestri. Allo stesso tempo le nuove tecnologie militari rischiano di caratterizzarsi per i potenziali effetti collaterali. C’è il rischio di avere un controllo meno umano sulla violenza? L’uso di nuove tecnologie in guerra potrebbe prefigurare conseguenze non intenzionali e sanguinose? E quali decisioni richiedono un giudizio unicamente umano, da non delegare alle magnifiche sorti e progressive dell’intelligenza artificiale?
«L’esigenza di abbattere il budget e il divario tra il costo di un robot da combattimento e un suo equivalente umano, ha spinto l’intelligenza artificiale a diventare un riferimento strategico per il Dipartimento di Difesa americano. Ma la transizione verso armamenti militari autonomi come droni, robot e sommergibili implica un salto cruciale, spostando la responsabilità morale di uccidere esseri umani dalle persone in carne ed ossa, agli algoritmi», conferma a Changes Alessio Plebe, filosofo della scienza e docente presso il Dipartimento di Scienze Cognitive dell’Università di Messina. Secondo Plebe, esperto di armi autonome e autore di diverse pubblicazioni sul tema, a fronteggiarsi sarebbero formalmente due fazioni opposte, anche in termini prettamente filosofici.
«Diverse condanne alla ricerca sulle armi autonome sottolineano il crollo della dignità della vita umana, se affidata alle mani di un anonimo algoritmo. I fautori delle armi autonome contrappongono invece l’imperativo di ridurre al massimo le vittime in scenari di guerra. E le armi autonome lo realizzano, da un lato non impegnando soldati umani, dall’altro selezionando con precisione i nemici da abbattere. Ma l’argomento regge solamente considerando che per molti paesi la principale remora ad intraprendere guerre è di economia, sia monetaria che di vite umane dei propri soldati», spiega Plebe, una laurea in Ingegneria Elettronica e un dottorato in Filosofia del Linguaggio.
Allo stesso tempo nella corsa alle armi autonome un argine sembrerebbe arrivare dagli stessi ricercatori e sviluppatori esperti di intelligenza artificiale. Ragiona Plebe: «Alla conferenza annuale del 2018 a Stoccolma è stata formalizzata la messa al bando degli armamenti autonomi letali, firmata da 2000 studiosi. Un altro interessante segnale di sensibilità al tema è stata la vicenda del progetto Maven, mirante ad usare tecniche di riconoscimento di immagine per individuare obiettivi umani e istruire armi autonome per colpirli. Inizialmente era coinvolta Google, ma oltre 3000 suoi dipendenti hanno firmato una petizione di protesta, costringendo l’azienda ad uscire dal progetto». Del resto produrre armi per salvare vite, o aumentare la sicurezza, restano motivazioni quantomeno controintuitive. Autonome o manuali che siano.