La società dei poli opposti
L’inondazione di Valencia ha ben evidenziato i pericoli di una gestione territoriale in cui pochissimi erano decisori e concentrati su altri obbiettivi, mentre i molti, e veri co
L’esistenza degli enti assicurativi aiuta questa oggettiva fatica: una parte delle preoccupazioni viene in qualche modo terziarizzata ad un soggetto che, in presenza di decisioni sbagliate che generano dei danni, dà un soccorso economico.
L’esistenza degli enti assicurativi aiuta questa oggettiva fatica: una parte delle preoccupazioni viene in qualche modo terziarizzata ad un soggetto che, in presenza di decisioni sbagliate che generano dei danni, dà un soccorso economico.
Nel prendere delle decisioni la differenza sostanziale tra la macchina e l’essere umano è che la macchina non lo sa, l’essere umano sì. Può sembrare una sottolineatura meramente filosofica o formale, ma è il discrimine tra il silicio e la carne ed è la condizione di possibilità di una proficua collaborazione tra i due. Il rischio che si corre nel considerare l’etica delle macchine è quello di pensarla avulsa dai contesti in cui esse devono operare. In laboratorio l’etica delle macchine è semplicemente una formalizzazione di processi che debbono giungere in maniera esatta, nel minor tempo possibile ed al minor costo possibile, all’obiettivo prefissato. Ma le macchine operano in contesto, sono progettate e rese operative affinché lo facciano e possano farlo sempre di più in contesti ampi, su scacchiere senza caselle e confini. La crescita della capacità computazionale e delle soluzioni tecniche hanno prodotto macchine sempre più capaci di stare nella realtà complessa, e non più in porzioni molto specifiche di essa. Questa crescita ha aumentano il numero di situazioni in cui l’agente tecnologico effettivamente decide, cioè compie delle scelte complesse e per di più seguendo percorsi che lo stesso progettista informatico non è detto sia in grado di definire con precisione.
La macchina raggiunge lo scopo, dato il punto di partenza e le risorse a sua disposizione ma il ‘come’ spesso resta oscuro e diverso a seconda delle situazioni contingenti che hanno varabili sempre diverse e sempre più numerose man mano che la macchina agisce in scenari più ampi. Ciò premesso per abbozzare una risposta alla domanda che mi è stata posta – come far sì che le decisioni prese dalle macchine siano decisioni eque e sostenibili – è necessario fare dei passi importanti. Il primo è creare un ecosistema umano in cui prendere decisioni eque e sostenibili sia un valore condiviso, abbandonando la tentazione di rinunciare a questo dovere/diritto. Ogni decisione umana comporta delle scelte, delle rinunce, delle fatiche, un bagaglio di conoscenze talora ampio e non sempre accurato quanto si dovrebbe o vorrebbe. Ognuno di noi si trova regolarmente nelle condizioni di dover assumere decisioni che lo imbarazzano o lo preoccupano, talora affliggono. L’esistenza degli enti assicurativi, per rendere ragione anche allo spazio che ci ospita, viene in parte in soccorso di questa oggettiva fatica: una parte delle preoccupazioni viene in qualche modo terziarizzata ad un soggetto che, in presenza di decisioni sbagliate che generano dei danni, viene in soccorso se non altro economico. Questo stress decisionale ci porta, spesso inconsapevolmente, a delegare decisioni, a non prenderle o cercare soggetti altri che ci possano in qualche modo sostituire.
Qui si nasconde la tentazione di una delega sempre più in bianco alla macchina, nascosta sotto la scusante che essa sia più performante ed accurata dell’essere umano. È una tentazione: benché le macchine possano e debbano aiutarci, la delega in toto rappresenterebbe la peggiore decisione etica possibile, la meno equa ed in lungo periodo insostenibile sotto ogni profilo. Il secondo passo prende le mosse da una constatazione. La macchina, come un bambino, impara dagli adulti, da quanto accade, da quanto si percepisce. L’ossigeno delle macchine sono i dati e questi, prima di tutto, debbono essere l’oggetto della nostra cura. Le macchine ci “guardano” ed imparano dai dati che forniamo loro che debbono essere dunque accurati, significativi e quindi solo così equi e sostenibili. Il terzo passaggio è nuovamente culturale.
Le macchine, segnatamente i sistemi di intelligenza artificiale, non possono più essere considerate dei semplici strumenti solamente più sofisticati di altri. La loro capacità, che abbiamo già segnalato, di agire nella realtà complessa in modo autonomo, conferisce loro un nuovo status, ibrido, ma nuovo. L’autonomia comporta responsabilità, al di là delle questioni civilistiche e di responsabilità penale del progettista e degli altri soggetti giuridici e personali che vi possono essere connessi. Va ribadito che la loro capacità di agire autonomo le avvicinano sempre di più ad agenti autonomi e, dunque, come tali vanno pensati, progettati ed inseriti nel vivere sociale, come se fossero degli esseri senzienti anche se tali non sono.
È innegabile che il loro impatto sulla realtà è equiparabile oggi a quello di un essere senziente autonomo. Con queste premesse possiamo pensare di entrare nel merito della nostra questione abbozzando una strada di riflessione. La mia risposta si basa sulla tradizione cattolica a cui appartengo, ma che in questo caso è tradizione che affonda e condivide le sue radici anche con il pensiero non confessionale e dunque può essere condivisa con chiunque. Possiamo ripartire dall’etica delle virtù, quelle cardinali che sono propriamente umane: fortezza, prudenza, temperanza e giustizia. A sostegno di questa suggestione posso brevemente fare qualche accenno. San Gregorio di Nissa, uno dei padri della Chiesa dei primi secoli, scrive: «Il fine di una vita virtuosa consiste nel divenire simili a Dio». Considerando che la tecnologia oggi ci illude spesso di essere come Dio, tanto vale cercare di farlo nel mondo migliore possibile, cioè agendo i nostri poteri per il bene comune.
Si consideri poi che l’etica delle virtù recupera la prospettiva della persona laddove la modernità si è concentrata di più sulla norma e sull’azione. Concentrandosi sull’agente, e postulando che la macchina diventi via via agente, questa prospettiva ci permette di modellare con strumenti nati per questo fine, appunto, l’agente. Infine, l’etica della virtù recupera il concetto di prospettiva ultima, di fine ultimo che è determinante se vogliamo progettare il più possibile il futuro in vista di beni durevoli e non nella contingenza di dover rispondere continuamente ad emergenze e prospettive di piccolissimo respiro. In altri termini avere una prospettiva ed una visione ampia permette di non avere una struttura etica che diventi immediatamente desueta tanto quanto desueti diventano gli artefatti tecnologici che, a motivo dell’accelerazione dell’innovazione, invecchiano precocemente e con essi le soluzioni che si sono scelte per governarli.
Articolo pubblicato su Changes Magazine – Intelligent Economy