Accendiamo la luce sul futuro
La serie di fantascienza Star Trek è ambientata nell’anno 2264. Gli esseri umani viaggiano nella galassia insieme agli alieni, aiutati da computer, propulsione più veloce d
Quando si parla di intelligenza artificiale ci si riferisce principalmente ad algoritmi che hanno cambiato i paradigmi economici e sociali. Spesso ci si dimentica che i confini etici sono stati sconvolti. Come possiamo cambiarli?
L’intervento di Paolo Benanti, neo presidente della Commissione Algoritmi, è stato pubblicato sul Magazine Changes Intelligent Economy a giugno 2020.
Per inquadrare il tema dobbiamo partire da lontano e, in particolare, da qualcosa che rappresenta un unicum che ci caratterizza come specie. La più grande invenzione che abbiamo fatto è “inventare”. Quando 70 mila anni fa abbiamo iniziato a colonizzare il Pianeta, ci siamo comportati in maniera totalmente differente da ogni altra specie animale: siamo stati in grado di adattarci a qualsiasi condizione, grazie alla nostra inventiva. Pensiamo, per esempio, ai mammut nella steppa siberiana: quando si sono spostati a Sud hanno dovuto aspettare una mutazione genetica in elefante per essere in grado di sopravvivere a quelle latitudini. Noi no, non abbiamo aspettato che nascesse una discendenza una folta pelliccia per sopravvivere ai climi freddi, ci siamo semplicemente messi addosso la pelliccia di un mammut.
Questo esempio ci mostra come l’essere umano abbia una capacità unica: trasmettere competenze, conoscenze e valori mediante artefatti tecnologici. Uno di questi artefatti è di certo il libro con cui siamo in grado di tramandare competenze che non sono contenute nel nostro DNA. Un altro salto importante che racconta dell’unicità umana è avvenuto 12 mila anni fa, quando per la prima volta un contadino della Mesopotamia ha scambiato un secchio d’orzo con un disco di metallo. Dobbiamo pensare che 12 mila anni fa l’accesso al cibo non era facile. Quindi cosa ha convinto un uomo a scambiare del prezioso orzo con una moneta che in caso di emergenza non si mangia? L’idea che quel pezzo di metallo potesse essere riconvertito in cibo successivamente e svariate volte. Un vero e proprio atto di fiducia che ha portato alla nascita del denaro che era una garanzia solo perché su quel pezzo di metallo c’era la faccia del Re. E questo ci porta a definire la nostra essenza: fiducia nello scambio e mediazione di valore, sono intrinsecamente connessi in ciò che ci fa uomini. Quando prendiamo in considerazione nuovi e innovativi antefatti digitali – il sistema bancario, per esempio, è un sistema di fiducia mediato dalla tecnologia – ci rendiamo conto che non hanno sempre la stessa forma: a volte assumono la forma di macchine che prendono il posto di un utensile, a volte si tratta di macchine capaci di surrogare l’uomo nel suo decidere. Che cosa cambia tra le mediazioni di persone è il processo di riconoscimento del valore.
Faccio un esempio che viene dalla prassi: abbiamo delle macchine sapiens che sono molto abili ad elaborare un paradigma di risk assessment su chi chiede un prestito. Ecco che la fiducia, il valore di una persona, non è più affidata all’uomo ma a un sistema di IA che è come un microscopio che analizza e ci racconta le correlazioni tra i dati. Un sistema di IA non è mai neutrale, è una narrativa di dati tenuti insieme grazie alla prospettiva di chi lo ha programmato. Nei confronti del settore economico finanziario ha un impatto importante. Se negli anni Cinquanta si andava dal direttore di banca, oggi è un flag che si accende sullo schermo a decidere se si è affidabili. Ciò che sta alla base del valore etico e finanziario, ovvero una mediazione di fiducia dell’uomo, oggi viene intermediato da una macchina. Possiamo avere delle macchine che semplicemente amplificano le capacità di giudizio della persona o possiamo avere delle macchine a cui diamo totale fiducia, eliminando il giudizio fallace dell’uomo. La scelta di una delle due macchine è una decisione politica e di business, non rappresenta una scelta puramente tecnologica e di programmazione che semplicemente ottimizza il processo.
La direzione che prendono le macchine è una scelta strategica, non tecnologica. Pensiamo a Langdon Winner, un teorico politico il cui lavoro si concentra sul pensiero contemporaneo, sulla razza, sulla tecnologia e sulla teoria sociale, che nel 1980 scrisse per una rivista del MIT un articolo dal titolo Do Artifacts Have Politics? ovvero I manufatti fanno politica? Attraverso questo documento di ricerca approfondito, l’autore afferma che gli artefatti, gli oggetti tecnici, hanno proprietà politiche e possono incarnare forme di autorità e subordinazione. Suggerisce di prestare molta attenzione alle proprietà delle tecnologie che ci circondano e al significato di quelle proprietà. Se guardiamo alla realtà abbiamo dimostrazioni di questo pensiero: i ponti costruiti sulla strada per raggiungere Long Island, per esempio, non erano abbastanza alti per permettere il passaggio di autobus. Non era un caso: sugli autobus viaggiavano i neri e si voleva evitare che raggiungessero le spiagge.
Il ragionamento non è diverso se parliamo di digitale: l’artefatto algoritmo, inevitabilmente, sarà uno strumento per distribuire forme di potere all’interno della società. Chi oggi decide – istituzioni pubbliche, aziende, manager- deve fare i conti con questo concetto. C’è bisogno di un’analisi critica etica di chi sceglie l’algoritmo e di quale sia lo scopo intrinseco dell’artefatto digitale: solo se entrambi i fattori sono orientati al bene, allora si potrà parlare di etica tecnologica. Pensare l’etica come un guinzaglio non è etica, perché l’etica rappresenta un’istanza critica dinamica. Le istituzioni si stanno muovendo rapidamente in questa direzione. Il Consiglio d’Europa e le grandi compagnie hanno cominciato a compiere passi importanti in questa direzione, mentre i manager a ogni livello non sono ancora del tutto consapevoli del salto culturale che sono chiamati a realizzare. Manca ancora una vera cultura digitale, ma molto si sta muovendo dal punto di vista del diritto che va quasi sempre va braccetto con l’etica. Faccio un esempio concreto: l’etica è uno spazio di sovranità pubblica o uno spazio tra privati? L’impatto che le grandi piattaforme hanno sulla vita pubblica sta spingendo il regolatore a pensarla come uno spazio pubblico e regolamentato da norme di diritto pubblico che, a mio parere, dovrebbero essere transnazionali.
Possiamo pensare di formulare una nuova modalità algoritmica che presuppone un’algoretica. Se la macchina è capace di surrogare l’umano, da sempre l’uomo conosce e sa se un’azione è lecita o illecita. Se la macchina agisce da sola dobbiamo darle dei confini etici. Come si realizza questo obiettivo? È necessario assumere la capacità di rendere comprensibile alla macchina, quindi computabili, quelli che sono criteri etici. Definiamo appunto questo nuovo capitolo dell’etica con il termine algoretica, che consiste nel rendere comprensibili alle macchine i principi etici dell’uomo. In questa trasformazione dell’etica la società civile assume una grande voce in capitolo. Penso alla stessa coscienza civile che ha preteso scelte ecologiche e adesso il tema è al centro del dibattito attuale. Tutto parte da un livello di consapevolezza del nostro presente. La pandemia e i lockdown hanno risvegliato le coscienze digitali un po’ come aveva fatto Chernobyl per quelle ambientali. Certo, siamo all’inizio, bisogna lavorarci. In questa direzione va l’impegno preso a febbraio 2020 di quest’anno dalla Pontificia Accademia per la Vita, Microsoft, IBM, FAO e Governo Italiano che hanno firmato la “Call for an IA Ethics”, un documento sviluppato per supportare un approccio etico all’Intelligenza Artificiale e promuovere un senso di responsabilità tra organizzazioni, governi e istituzioni con l’obiettivo di creare un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana e non della loro graduale sostituzione.