Jannik Sinner può diventare il più grande tennista della storia?

Con 24 titoli del Grande Slam, Novak Djokovic si è ormai consacrato come il tennista più vincente e probabilmente il più grande di tutti i tempi. Dietro di lui, leggende come Ra
Oggi, tra chatbot sofisticati e algoritmi capaci di apprendere dai dati, ci troviamo immersi in un dialogo quotidiano con l’intelligenza artificiale. Ma comprendiamo davvero come funziona?
È il 1950 e Alan Turing, il padre della scienza informatica, scrive il famoso articolo in cui si propone di rispondere alla domanda: «Le macchine possono pensare?». Secondo il genio della matematica intorno all’anno Duemila, in quello che battezza il “gioco dell’imitazione”, una persona avrebbe avuto non più del 70% di possibilità di distinguere correttamente tra un’intelligenza umana e una artificiale. Quella previsione oggi è realtà: molti di noi hanno usano strumenti come ZeroGPT, un software che serve a verificare se un testo è stato scritto da un essere umano o da una intelligenza artificiale. Ogni giorno l’IA migliora la sua capacità di copiare la nostra, e ogni giorno gli esseri umani devono inventare nuovi modi di distinguere tra macchine e i propri simili. Fra scetticismo, paure e speranze cosa ci riserva il futuro di questa tecnologia?
Appena pochi granelli di sabbia fa nella clessidra del tempo, nel 1979, Douglas Hofstadter, celebre informatico e filosofo cognitivo, si dice certo che l’intelligenza artificiale non sarebbe in grado di battere a scacchi chiunque. Per farlo sarebbe necessaria una IA generale, o AGI, ovvero una tecnologia capace di svolgere qualsiasi attività umana. Aveva torto: pur essendo lontani dall’obiettivo di realizzare una AGI, di già oggi una macchina è in grado di sconfiggere l’uomo non solo a scacchi ma a giochi ben più complessi.
Dove ha sbagliato il celebre professore statunitense? Nel non aver previsto l’imporsi del machine learning che ha mandato in soffitta l’idea di realizzare un’intelligenza artificiale basata sulla logica simbolica: oggi diamo in pasto a un algoritmo una grande mole di dati, e invece di istruirlo vediamo se è in grado di apprendere da solo.
Turing aveva previsto anche questo, quando dice che «non sarà possibile applicare alla macchina esattamente lo stesso metodo che si usa con un ragazzo normale” ma “bisogna quindi darle un altro genere di educazione». Contemporaneamente, quasi a presagire degli sviluppi inaspettati, mette anche tutti in guardia sulla necessità di stabilire un processo educativo in entrambe le direzioni, tra uomini e macchine e viceversa. Altrimenti, questo il pericolo, si arriverebbe a un momento in cui non saremo più in grado di capire come fa l’IA a fare una certa cosa.
Ecco: oggi quel momento è arrivato. Fatichiamo a comprendere come pensano le macchine, i cui processi di pensiero – se di pensiero si può parlare – avvengono all’interno di “scatole nere” che sfuggono alla comprensione dei loro stessi programmatori. E così rischiamo di perdere il controllo di qualcosa che abbiamo inventato noi: abbiamo IA affette da allucinazioni, in grado di spacciare per vere risposte sbagliate e di inventare di sana pianta realtà che invece non esistono affatto. Cosa accadrà allora se arriveremo ad avere delle intelligenze artificiali generali come quelle ipotizzate da Hofstadter, capaci di superare la stessa intelligenza umana in tutti gli ambiti cognitivi?
Secondo John Irving Good, un collega di Turing ai tempi di Bletchley Park, dove lavorarono gomito a gomito per decriptare i codici nazisti, il punto di arrivo dell’evoluzione dell’IA è la “macchina ultra intelligente”, creata la quale non avremo più bisogno di altre invenzioni: sarà lei a occuparsi di tutti i nostri problemi. Per il futurologo Ray Kurzweil questo scenario sarebbe addirittura dietro l’angolo e saremmo in una fase molto avanzata di questo processo tanto che l’intelligenza artificiale avrebbe raggiunto già in questo momento la capacità di calcolo della mente umana. E poco prima della metà del secolo, come scrive nel suo ultimo libro La singolarità è più vicina, l’IA diventerà qualcosa di più: una superintelligenza. Nessuno sa con precisione cosa potrebbe accadere dopo. Siamo di fronte a una prospettiva al tempo stesso affascinante e paurosa: secondo il filosofo Nick Bostrom, questa “superintelligenza” potrebbe non essere disposta ad assecondare i nostri ordini, perché avrà altri valori, fini e forse anche obiettivi.
Altre ombre minacciose si stagliano all’orizzonte se Sam Altman, il fondatore di OpenAI, parla dell’intelligenza artificiale come di una bomba atomica per le conseguenze drammatiche che potrebbe avere sulla civiltà, se non controllata. E così l’ipotesi di trovarci nella necessità di venire a patti con questa nuova forma di intelligenza per evitare di essere soppiantati può non sembrare poi così peregrina. È il cosiddetto “problema dell’allineamento”, su cui si interrogano molti esperti di IA. Allora come far sì che le future intelligenze artificiali capiscano cosa vogliamo e lavorino per noi, e non contro di noi? Per esempio, utilizzando l’apprendimento per rinforzo inverso che prevede che all’IA non venga assegnato un compito, ma si limiti al contrario a osservare il comportamento umano e a dedurre di cosa abbiamo bisogno. Ma siamo certi che questa soluzione sia esente da rischi?
Molti esperti non si pongono neanche il problema perché pensano che l’ipotesi della nascita di una superintelligenza sia un concetto da consegnare all’ambito della pura fantascienza. In futuro assisteremo alla comparsa di un ecosistema di algoritmi sempre più settoriali e performanti con cui imparare a convivere, niente di più. Dovremo renderli più etici, questo di certo, migliorando il controllo dell’utente e democratizzando lo sviluppo tecnologico, oggi sempre più monopolistico. Una sfida, anche questa, non di poco conto. In qualsiasi modo la si veda, abbiamo bisogno di realizzare un “allineamento dei valori”, vale a dire insegnare alle macchine cosa siamo e cosa vogliamo, affinché rispettino la nostra volontà. Torniamo al punto di partenza e al solito Turing: bisogna creare un dialogo simbiotico, un processo educativo in cui l’IA impari da noi e noi dall’IA.