Gentile Utente, ti informiamo che questo sito fa uso di cookie propri e di altri siti al fine di rendere i propri servizi il più possibile efficienti e semplici da utilizzare.
Se vuoi saperne di più o esprimere le tue preferenze sull'uso dei singoli cookie, clicca qui
Se accedi ad un qualunque elemento sottostante questo banner, acconsenti all'uso dei cookie.
Changes - il magazine del Gruppo Unipol > Il governo degli algoritmi

Il governo degli algoritmi

Society 3.0

Da Facebook a Google i pregiudizi instillati dagli autori dei robot bias guidano le nostre vite e sono un enorme rischio politico. Servono regole e audit aziendali mirati. Il dibattito al World Economic Forum.

​​Quando si parla dei rischi dell'intelligenza artificiale vengono in mente scenari fantascientifici dove i robot si ribellano ai loro inventori e radono al suolo il pianeta. Da Westworld a Black Mirror fino a Ex Machina e Blade Runner, il cinema e le serie tv ci hanno mostrato il volto crudele delle macchine, e le menti più caute e scettiche della Silicon Valley dicono che l'addestramento sempre più sofisticato delle intelligenze artificiali potrebbe presto sfuggirci di mano. Elon Musk, per citarne uno, teme che il suo amico Larry Page, ceo di Alphabet, finisca per produrre per errore qualcosa di malvagio, tipo una flotta di robot capaci distruggere l'umanità. 

Il tema è diventato anche politico dopo le elezioni presidenziali americane del 2016 e diffusione di fake news su Facebook e altri social network durante la campagna. Adesso è chiaro a tutti che potenzialmente i robot bias, gli algoritmi, che regolano la vita di social network e aziende hi tech e guidano la quarta rivoluzione industriale, non influenzano solo i nostri acquisti di viaggi e vestiti, determinano e indirizzano anche le scelte di voto.
Il dibattito su quali regole dare e come rivedere i margini di libertà concessi ai giganti di Internet con forme di vigilanza pubblica e di tutela sulla propagazione di notizie false che minacciano i sistemi democratici è aperto ed è uno dei temi centrali dell'Agenda della quarantottesima edizione del World Economic Forum di Davos dove un numero record di capi di stato, governo e organizzazioni internazionali insieme a leader di imprese, società civile, mondo accademico, si sono dati appuntamento per discutere sul tema Creating a Shared Future in a Fractured World, ovvero creare un futuro condiviso in un mondo frammentato. L'obiettivo dell'incontro è la ricerca di modi per riaffermare la cooperazione internazionale su interessi condivisi cruciali, come la sicurezza internazionale, l'ambiente e l'economia globale.

La realtà è in apparenza meno apocalittica di quanto sembri, ma non per questo i rischi legati al machine-learning sono meno gravi. Soltanto che la minaccia non ha il volto cinematografico di un esercito di droidi programmati per uccidere: è il baco invisibile che si nasconde nelle strutture matematiche che sorreggono l'universo delle intelligenze meccaniche, sono i vizi nella scrittura degli algoritmi che regolano l'universo in cui abitiamo, non quello in cui abiteremo domani. Il robot bias è l'apocalisse soft che abbraccia il presente.

Il capo del settore sull'intelligenza artificiale di Google, John Giannandrea, è preoccupato più dai pregiudizi inseriti negli algoritmi dai loro creatori che dalla ribellione robotica: «La vera questione della sicurezza, se vogliamo chiamarla così, è che se diamo a questi sistemi dati che sono viziati, anche loro saranno viziati», ha detto. Le intelligenze che vengono prodotte nei laboratori interiorizzano gli stessi tic, le tendenze, le preferenze e i pregiudizi di chi le programma, e poiché i sistemi hanno capacità incrementali, i pattern che si sviluppano nel tempo tendono a ingigantire i peccati originali di cui si sono macchiati.

Gli algoritmi​​ non sono neutri

 La tendenza naturale in questi tempi di pervasività tecnologica è quella di pensare che l'algoritmo sia uno strumento neutro, senza vizi né distorsioni, riflesso di una mentalità radicalmente positivista che la matematica Cathy O'Neil ha messo sotto accusa nel suo libro Weapons of Math Destruction, in cui spiega che la gente pone troppa fiducia nella matematica. All'algoritmo e alla sua presunta neutralità sono affidate enormi responsabilità nella vita sociale. 

Le formule non determinano soltanto la pubblicità che ci piove addosso in modo customizzato in Rete, ma individuano le tendenze criminali nella società, determinano le valutazioni degli insegnanti nelle scuole, i ranking delle università, consigliano cosa mangiare per stare meglio, ci si affida a software costruiti su sofisticati algoritmi per stabilire chi può ottenere la libertà vigilata e chi rimane in carcere, le analisi mediche si appoggiano sempre di più sulla matematica, e spesso gli strumenti di partenza, quelli in cui si annida il vizio, sono noti soltanto ai loro autori.

Un'inchiesta di Pro Publica, organizzaione no-profit vincitrice del premio Pulitzer, un paio di anni fa, ha dimostrato che un software intelligente chiamato Compas, creato per calcolare le probabilità di recidiva nei criminali e usato da diversi dipartimenti di polizia e tribunali, tendeva a punire in modo spropositato le minoranze etniche, in particolare gli afroamericani.
Lo scorso anno un gruppo di scienziati ha scoperto che un software di analisi del linguaggio che ha rivoluzionato la capacità dei computer di elaborare nuove informazioni aveva interiorizzato pregiudizi di genere e razziali. Le parole "bianco" e "maschio", ad esempio, tendevano ad associarsi a oggetti positivi ed esperienze piacevoli, mentre "nero" e "donna" a cose sgradevoli. Joanna Bryson, dell'università di Bath, ha riassunto così il problema: «Molti dicono che questo mostra che l'intelligenza artificiale ha dei pregiudizi. No. Questo mostra che noi abbiamo dei pregiudizi, e che l'intelligenza artificiale li impara».

Per quanto capaci di correggere i propri difetti a mano a mano che si auto addestrano, gli algoritmi, a differenza degli esseri umani, non hanno gli strumenti per correggere ciò che riconoscono come bias. Dalla scoperta che il pregiudizio è onnipresente, interiorizzato nei mezzi che promettevano di introdurre gli imperfetti uomini nello spazio senza attrito dell'oggettività, sono nati gruppi di ricerca come la AI Now Initiative della New York University, un centro studi fondato da Kate Crawford di Microsoft e Meredith Whittaker, ricercatrice di Google, per studiare le implicazioni sociali dell'intelligenza artificiale, e in particolare i vizi algoritmici. La prima cosa che hanno notato è che siamo soltanto all'inizio della ricerca su questo tema, un campo sterminato in cui viene prodotto un numero di algoritmi e software infinitamente più alto di quello che gli umani sono in grado di analizzare per trovare eventuali pregiudizi inscritti nel codice. Sempre che abbiano voglia di analizzarli.

Molte aziende che custodiscono i loro algoritmi come i tesori più preziosi non hanno alcuna intenzione di esporli a terzi perché valutino i loro pregiudizi, che certo tendono a massimizzare i profitti e a nascondere le falle dei prodotti. La matematica O'Neil ha aperto un'agenzia che offre audit algoritmico alle aziende per stanare i bias nei loro sistemi: «Sarò onesta: non ho nessun cliente al momento», ha detto qualche mese fa. Per correggere le storture delle intelligenze artificiali, che sono lo specchio di quelle naturali, serve buona volontà.

E allora, se la buona volontà di compiere indagini interne manca, secondo quanto teorizza lo studio realizzato dal dipartimento che si occupa di diritti umani all'interno del World Economic Forum, le aziende tecnologiche rischiano un pesante intervento regolatorio da parte dei governi, con potenziale limitazione del diritto di libera espressione dei cittadini, se non sapranno proporre forme credibili ed efficaci di auto-governo che pongano un freno alla propaganda di gruppi estremisti, alla diffusione di contenuti falsi, tendenziosi o violenti e per qualunque altro uso che violi i diritti delle persone e minacci il pieno funzionamento delle istituzioni democratiche.

 

 

Il virus non esiste<img alt="" src="/PublishingImages/covid%20disinformazione.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/disinformazione-covidIl virus non esisteCome nasce lo scetticismo selettivo che porta a non fidarsi dei canali ufficiali di informazione. Changes ne ha parlato con Fabio Paglieri autore di “La disinformazione felice. Cosa ci insegnano le bufale”.Elisa-Venco2020-06-30T22:00:00Zhttps://changes.unipol.it
Le relazioni al tempo del post Covid<img alt="" src="/PublishingImages/relazioni%20post%20covid.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/comportamenti-post-covidLe relazioni al tempo del post CovidSi ridefiniscono le dinamiche di lavoro e di vita quotidiana, ma mancano le istruzioni per l’uso. Le storie dopo il virus.Giampaolo-Colletti2020-06-28T22:00:00Zhttps://changes.unipol.it
Lavoro: la rivoluzione degli orari<img alt="" src="/PublishingImages/lavoro%20smart%20orari%20covid.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/lavoro-covid-come-cambiaLavoro: la rivoluzione degli orariIl Covid19 sta accelerando una tendenza in atto: il tempo del lavoro sta perdendo i normali punti di riferimento. Antonio-Belloni2020-06-25T22:00:00Zhttps://changes.unipol.it
Ora è tempo di smart mobility<img alt="" src="/PublishingImages/covid%20smart%20mobility.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/covid-smart-mobilityOra è tempo di smart mobilityLe conseguenze della pandemia impongono un ripensamento delle città, della vita e del lavoro delle persone che non può non avere un impatto sui mezzi di trasporto. Per risolvere le criticità servirà affidarsi alle nuove tecnologie.Rosario-Murgida2020-06-17T22:00:00Zhttps://changes.unipol.it
Marketing: comunicare adesso è più facile<img alt="" src="/PublishingImages/marketing-coronavirus.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/marketing-coronavirusMarketing: comunicare adesso è più facileLo tsunami sanitario che ha travolto il mondo in questa prima metà del 2020 ha anche riscritto le regole della comunicazione commerciale. Si esce quindi dalla fase emergenziale con alcune lezioni da tenere bene a mente. Claudio-Plazzotta2020-06-07T22:00:00Zhttps://changes.unipol.it

 

 

Ora è tempo di smart mobility<img alt="" src="/PublishingImages/covid%20smart%20mobility.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/covid-smart-mobilityOra è tempo di smart mobilityLe conseguenze della pandemia impongono un ripensamento delle città, della vita e del lavoro delle persone che non può non avere un impatto sui mezzi di trasporto. Per risolvere le criticità servirà affidarsi alle nuove tecnologie.Rosario-Murgida2020-06-17T22:00:00Zhttps://changes.unipol.it
Serve un welfare di comunità<img alt="" src="/PublishingImages/welfare%20webinar%20cimbri.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/welfare-cimbriServe un welfare di comunitàAlleanza tra pubblico, privato e no profit per creare un sistema incisivo. Carlo Cimbri, CEO Gruppo Unipol, e Giuseppe Guzzetti, già Presidente Fondazione Cariplo ne parlano a un incontro del Think Tank “Welfare Italia” e The European House–Ambrosetti.Redazione-Changes2020-06-18T22:00:00Zhttps://changes.unipol.it
Il digitale fa ancora paura<img alt="" src="/PublishingImages/paure%20digitali.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/paure-digitaliIl digitale fa ancora pauraUn italiano su due crede che le informazioni memorizzate sui propri dispositivi digitali non siano al sicuro. I dati dell’Osservatorio Europeo sulla Sicurezza Demos&Pi-Fondazione Unipolis presentati a Data Vision & Data Value organizzato da Gruppo Unipol.Redazione-Changes2020-06-24T22:00:00Zhttps://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD