La società dei poli opposti
L’inondazione di Valencia ha ben evidenziato i pericoli di una gestione territoriale in cui pochissimi erano decisori e concentrati su altri obbiettivi, mentre i molti, e veri co
Da Facebook a Google i pregiudizi instillati dagli autori dei robot bias guidano le nostre vite e sono un enorme rischio politico. Servono regole e audit aziendali mirati. Il dibattito al World Economic Forum.
Da Facebook a Google i pregiudizi instillati dagli autori dei robot bias guidano le nostre vite e sono un enorme rischio politico. Servono regole e audit aziendali mirati. Il dibattito al World Economic Forum.
Quando si parla dei rischi dell’intelligenza artificiale vengono in mente scenari fantascientifici dove i robot si ribellano ai loro inventori e radono al suolo il pianeta. Da Westworld a Black Mirror fino a Ex Machina e Blade Runner, il cinema e le serie tv ci hanno mostrato il volto crudele delle macchine, e le menti più caute e scettiche della Silicon Valley dicono che l’addestramento sempre più sofisticato delle intelligenze artificiali potrebbe presto sfuggirci di mano. Elon Musk, per citarne uno, teme che il suo amico Larry Page, ceo di Alphabet, finisca per produrre per errore qualcosa di malvagio, tipo una flotta di robot capaci distruggere l’umanità.
Il tema è diventato anche politico dopo le elezioni presidenziali americane del 2016 e diffusione di fake news su Facebook e altri social network durante la campagna. Adesso è chiaro a tutti che potenzialmente i robot bias, gli algoritmi, che regolano la vita di social network e aziende hi tech e guidano la quarta rivoluzione industriale, non influenzano solo i nostri acquisti di viaggi e vestiti, determinano e indirizzano anche le scelte di voto.
Il dibattito su quali regole dare e come rivedere i margini di libertà concessi ai giganti di Internet con forme di vigilanza pubblica e di tutela sulla propagazione di notizie false che minacciano i sistemi democratici è aperto ed è uno dei temi centrali dell’Agenda della quarantottesima edizione del World Economic Forum di Davos dove un numero record di capi di stato, governo e organizzazioni internazionali insieme a leader di imprese, società civile, mondo accademico, si sono dati appuntamento per discutere sul tema Creating a Shared Future in a Fractured World, ovvero creare un futuro condiviso in un mondo frammentato. L’obiettivo dell’incontro è la ricerca di modi per riaffermare la cooperazione internazionale su interessi condivisi cruciali, come la sicurezza internazionale, l’ambiente e l’economia globale.
La realtà è in apparenza meno apocalittica di quanto sembri, ma non per questo i rischi legati al machine-learning sono meno gravi. Soltanto che la minaccia non ha il volto cinematografico di un esercito di droidi programmati per uccidere: è il baco invisibile che si nasconde nelle strutture matematiche che sorreggono l’universo delle intelligenze meccaniche, sono i vizi nella scrittura degli algoritmi che regolano l’universo in cui abitiamo, non quello in cui abiteremo domani. Il robot bias è l’apocalisse soft che abbraccia il presente.
Il capo del settore sull’intelligenza artificiale di Google, John Giannandrea, è preoccupato più dai pregiudizi inseriti negli algoritmi dai loro creatori che dalla ribellione robotica: «La vera questione della sicurezza, se vogliamo chiamarla così, è che se diamo a questi sistemi dati che sono viziati, anche loro saranno viziati», ha detto. Le intelligenze che vengono prodotte nei laboratori interiorizzano gli stessi tic, le tendenze, le preferenze e i pregiudizi di chi le programma, e poiché i sistemi hanno capacità incrementali, i pattern che si sviluppano nel tempo tendono a ingigantire i peccati originali di cui si sono macchiati.
La tendenza naturale in questi tempi di pervasività tecnologica è quella di pensare che l’algoritmo sia uno strumento neutro, senza vizi né distorsioni, riflesso di una mentalità radicalmente positivista che la matematica Cathy O’Neil ha messo sotto accusa nel suo libro Weapons of Math Destruction, in cui spiega che la gente pone troppa fiducia nella matematica. All’algoritmo e alla sua presunta neutralità sono affidate enormi responsabilità nella vita sociale.
Le formule non determinano soltanto la pubblicità che ci piove addosso in modo customizzato in Rete, ma individuano le tendenze criminali nella società, determinano le valutazioni degli insegnanti nelle scuole, i ranking delle università, consigliano cosa mangiare per stare meglio, ci si affida a software costruiti su sofisticati algoritmi per stabilire chi può ottenere la libertà vigilata e chi rimane in carcere, le analisi mediche si appoggiano sempre di più sulla matematica, e spesso gli strumenti di partenza, quelli in cui si annida il vizio, sono noti soltanto ai loro autori.
Un’inchiesta di Pro Publica, organizzaione no-profit vincitrice del premio Pulitzer, un paio di anni fa, ha dimostrato che un software intelligente chiamato Compas, creato per calcolare le probabilità di recidiva nei criminali e usato da diversi dipartimenti di polizia e tribunali, tendeva a punire in modo spropositato le minoranze etniche, in particolare gli afroamericani.
Lo scorso anno un gruppo di scienziati ha scoperto che un software di analisi del linguaggio che ha rivoluzionato la capacità dei computer di elaborare nuove informazioni aveva interiorizzato pregiudizi di genere e razziali. Le parole “bianco” e “maschio”, ad esempio, tendevano ad associarsi a oggetti positivi ed esperienze piacevoli, mentre “nero” e “donna” a cose sgradevoli. Joanna Bryson, dell’università di Bath, ha riassunto così il problema: «Molti dicono che questo mostra che l’intelligenza artificiale ha dei pregiudizi. No. Questo mostra che noi abbiamo dei pregiudizi, e che l’intelligenza artificiale li impara».
Per quanto capaci di correggere i propri difetti a mano a mano che si auto addestrano, gli algoritmi, a differenza degli esseri umani, non hanno gli strumenti per correggere ciò che riconoscono come bias. Dalla scoperta che il pregiudizio è onnipresente, interiorizzato nei mezzi che promettevano di introdurre gli imperfetti uomini nello spazio senza attrito dell’oggettività, sono nati gruppi di ricerca come la AI Now Initiative della New York University, un centro studi fondato da Kate Crawford di Microsoft e Meredith Whittaker, ricercatrice di Google, per studiare le implicazioni sociali dell’intelligenza artificiale, e in particolare i vizi algoritmici. La prima cosa che hanno notato è che siamo soltanto all’inizio della ricerca su questo tema, un campo sterminato in cui viene prodotto un numero di algoritmi e software infinitamente più alto di quello che gli umani sono in grado di analizzare per trovare eventuali pregiudizi inscritti nel codice. Sempre che abbiano voglia di analizzarli.
Molte aziende che custodiscono i loro algoritmi come i tesori più preziosi non hanno alcuna intenzione di esporli a terzi perché valutino i loro pregiudizi, che certo tendono a massimizzare i profitti e a nascondere le falle dei prodotti. La matematica O’Neil ha aperto un’agenzia che offre audit algoritmico alle aziende per stanare i bias nei loro sistemi: «Sarò onesta: non ho nessun cliente al momento», ha detto qualche mese fa. Per correggere le storture delle intelligenze artificiali, che sono lo specchio di quelle naturali, serve buona volontà.
E allora, se la buona volontà di compiere indagini interne manca, secondo quanto teorizza lo studio realizzato dal dipartimento che si occupa di diritti umani all’interno del World Economic Forum, le aziende tecnologiche rischiano un pesante intervento regolatorio da parte dei governi, con potenziale limitazione del diritto di libera espressione dei cittadini, se non sapranno proporre forme credibili ed efficaci di auto-governo che pongano un freno alla propaganda di gruppi estremisti, alla diffusione di contenuti falsi, tendenziosi o violenti e per qualunque altro uso che violi i diritti delle persone e minacci il pieno funzionamento delle istituzioni democratiche.