Gentile Utente, ti informiamo che questo sito fa uso di cookie propri e di altri siti al fine di rendere i propri servizi il più possibile efficienti e semplici da utilizzare.
Se vuoi saperne di più o esprimere le tue preferenze sull'uso dei singoli cookie, clicca qui
Se accedi ad un qualunque elemento sottostante questo banner, acconsenti all'uso dei cookie.
Changes - il magazine del Gruppo Unipol > Society 3.0 > Il governo degli algoritmi

 Il governo degli algoritmi

Society 3.0

 Da Facebook a Google i pregiudizi instillati dagli autori dei robot bias guidano le nostre vite e sono un enorme rischio politico. Servono regole e audit aziendali mirati. Il dibattito al World Economic Forum.

​​Quando si parla dei rischi dell'intelligenza artificiale vengono in mente scenari fantascientifici dove i robot si ribellano ai loro inventori e radono al suolo il pianeta. Da Westworld a Black Mirror fino a Ex Machina e Blade Runner, il cinema e le serie tv ci hanno mostrato il volto crudele delle macchine, e le menti più caute e scettiche della Silicon Valley dicono che l'addestramento sempre più sofisticato delle intelligenze artificiali potrebbe presto sfuggirci di mano. Elon Musk, per citarne uno, teme che il suo amico Larry Page, ceo di Alphabet, finisca per produrre per errore qualcosa di malvagio, tipo una flotta di robot capaci distruggere l'umanità. 

Il tema è diventato anche politico dopo le elezioni presidenziali americane del 2016 e diffusione di fake news su Facebook e altri social network durante la campagna. Adesso è chiaro a tutti che potenzialmente i robot bias, gli algoritmi, che regolano la vita di social network e aziende hi tech e guidano la quarta rivoluzione industriale, non influenzano solo i nostri acquisti di viaggi e vestiti, determinano e indirizzano anche le scelte di voto.
Il dibattito su quali regole dare e come rivedere i margini di libertà concessi ai giganti di Internet con forme di vigilanza pubblica e di tutela sulla propagazione di notizie false che minacciano i sistemi democratici è aperto ed è uno dei temi centrali dell'Agenda della quarantottesima edizione del World Economic Forum di Davos dove un numero record di capi di stato, governo e organizzazioni internazionali insieme a leader di imprese, società civile, mondo accademico, si sono dati appuntamento per discutere sul tema Creating a Shared Future in a Fractured World, ovvero creare un futuro condiviso in un mondo frammentato. L'obiettivo dell'incontro è la ricerca di modi per riaffermare la cooperazione internazionale su interessi condivisi cruciali, come la sicurezza internazionale, l'ambiente e l'economia globale.

La realtà è in apparenza meno apocalittica di quanto sembri, ma non per questo i rischi legati al machine-learning sono meno gravi. Soltanto che la minaccia non ha il volto cinematografico di un esercito di droidi programmati per uccidere: è il baco invisibile che si nasconde nelle strutture matematiche che sorreggono l'universo delle intelligenze meccaniche, sono i vizi nella scrittura degli algoritmi che regolano l'universo in cui abitiamo, non quello in cui abiteremo domani. Il robot bias è l'apocalisse soft che abbraccia il presente.

Il capo del settore sull'intelligenza artificiale di Google, John Giannandrea, è preoccupato più dai pregiudizi inseriti negli algoritmi dai loro creatori che dalla ribellione robotica: «La vera questione della sicurezza, se vogliamo chiamarla così, è che se diamo a questi sistemi dati che sono viziati, anche loro saranno viziati», ha detto. Le intelligenze che vengono prodotte nei laboratori interiorizzano gli stessi tic, le tendenze, le preferenze e i pregiudizi di chi le programma, e poiché i sistemi hanno capacità incrementali, i pattern che si sviluppano nel tempo tendono a ingigantire i peccati originali di cui si sono macchiati.

Gli algoritmi​​ non sono neutri

 La tendenza naturale in questi tempi di pervasività tecnologica è quella di pensare che l'algoritmo sia uno strumento neutro, senza vizi né distorsioni, riflesso di una mentalità radicalmente positivista che la matematica Cathy O'Neil ha messo sotto accusa nel suo libro Weapons of Math Destruction, in cui spiega che la gente pone troppa fiducia nella matematica. All'algoritmo e alla sua presunta neutralità sono affidate enormi responsabilità nella vita sociale. 

Le formule non determinano soltanto la pubblicità che ci piove addosso in modo customizzato in Rete, ma individuano le tendenze criminali nella società, determinano le valutazioni degli insegnanti nelle scuole, i ranking delle università, consigliano cosa mangiare per stare meglio, ci si affida a software costruiti su sofisticati algoritmi per stabilire chi può ottenere la libertà vigilata e chi rimane in carcere, le analisi mediche si appoggiano sempre di più sulla matematica, e spesso gli strumenti di partenza, quelli in cui si annida il vizio, sono noti soltanto ai loro autori.

Un'inchiesta di Pro Publica, organizzaione no-profit vincitrice del premio Pulitzer, un paio di anni fa, ha dimostrato che un software intelligente chiamato Compas, creato per calcolare le probabilità di recidiva nei criminali e usato da diversi dipartimenti di polizia e tribunali, tendeva a punire in modo spropositato le minoranze etniche, in particolare gli afroamericani.
Lo scorso anno un gruppo di scienziati ha scoperto che un software di analisi del linguaggio che ha rivoluzionato la capacità dei computer di elaborare nuove informazioni aveva interiorizzato pregiudizi di genere e razziali. Le parole "bianco" e "maschio", ad esempio, tendevano ad associarsi a oggetti positivi ed esperienze piacevoli, mentre "nero" e "donna" a cose sgradevoli. Joanna Bryson, dell'università di Bath, ha riassunto così il problema: «Molti dicono che questo mostra che l'intelligenza artificiale ha dei pregiudizi. No. Questo mostra che noi abbiamo dei pregiudizi, e che l'intelligenza artificiale li impara».

Per quanto capaci di correggere i propri difetti a mano a mano che si auto addestrano, gli algoritmi, a differenza degli esseri umani, non hanno gli strumenti per correggere ciò che riconoscono come bias. Dalla scoperta che il pregiudizio è onnipresente, interiorizzato nei mezzi che promettevano di introdurre gli imperfetti uomini nello spazio senza attrito dell'oggettività, sono nati gruppi di ricerca come la AI Now Initiative della New York University, un centro studi fondato da Kate Crawford di Microsoft e Meredith Whittaker, ricercatrice di Google, per studiare le implicazioni sociali dell'intelligenza artificiale, e in particolare i vizi algoritmici. La prima cosa che hanno notato è che siamo soltanto all'inizio della ricerca su questo tema, un campo sterminato in cui viene prodotto un numero di algoritmi e software infinitamente più alto di quello che gli umani sono in grado di analizzare per trovare eventuali pregiudizi inscritti nel codice. Sempre che abbiano voglia di analizzarli.

Molte aziende che custodiscono i loro algoritmi come i tesori più preziosi non hanno alcuna intenzione di esporli a terzi perché valutino i loro pregiudizi, che certo tendono a massimizzare i profitti e a nascondere le falle dei prodotti. La matematica O'Neil ha aperto un'agenzia che offre audit algoritmico alle aziende per stanare i bias nei loro sistemi: «Sarò onesta: non ho nessun cliente al momento», ha detto qualche mese fa. Per correggere le storture delle intelligenze artificiali, che sono lo specchio di quelle naturali, serve buona volontà.

E allora, se la buona volontà di compiere indagini interne manca, secondo quanto teorizza lo studio realizzato dal dipartimento che si occupa di diritti umani all'interno del World Economic Forum, le aziende tecnologiche rischiano un pesante intervento regolatorio da parte dei governi, con potenziale limitazione del diritto di libera espressione dei cittadini, se non sapranno proporre forme credibili ed efficaci di auto-governo che pongano un freno alla propaganda di gruppi estremisti, alla diffusione di contenuti falsi, tendenziosi o violenti e per qualunque altro uso che violi i diritti delle persone e minacci il pieno funzionamento delle istituzioni democratiche.

 

 

Porta la sostenibilità in vacanza<img alt="" src="/society/PublishingImages/letture%20estive.jpg" style="BORDER:0px solid;" />http://changes.unipol.it/society/Pagine/libri-estate.aspxPorta la sostenibilità in vacanzaI libri consigliati a chi è completamente a digiuno, a chi vuole confermare e approfondire quanto già sa della materia. Per diventare investitori socialmente responsabili.GP0|#2ff1322d-0fe7-46e4-98d7-1a40e87f4c00;L0|#02ff1322d-0fe7-46e4-98d7-1a40e87f4c00|Society 3.0;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Andrea Di Turi2018-08-07T22:00:00Zhttp://changes.unipol.it
Guerre fintech<img alt="" src="/sharing/PublishingImages/guerre%20fintech.jpg" style="BORDER:0px solid;" />http://changes.unipol.it/sharing/Pagine/guerre-fintech.aspxGuerre fintechPerché l’Europa può avere un ruolo di primo piano nella produzione di un ecosistema digitale riconosciuto globalmente. L’analisi di Pēteris Zilgalvis, a capo del dipartimento DG CONNECT della Commissione Europea.GP0|#07c23904-6676-40b2-abaf-7024f6aad711;L0|#007c23904-6676-40b2-abaf-7024f6aad711|Sharing;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Nicola Di Turi2018-07-31T22:00:00Zhttp://changes.unipol.it
Bio architettura: perché è un valore per tutti<img alt="" src="/society/PublishingImages/bioarchitettura.jpg" style="BORDER:0px solid;" />http://changes.unipol.it/society/Pagine/bioarchitettura.aspxBio architettura: perché è un valore per tuttiAl livello globale, le città costituiscono il 2% della superficie terrestre ma accolgono il 50% della popolazione e sono responsabili per il 75% del consumo energetico e per l’80% delle emissioni di CO2. Come proteggere l’ambiente.GP0|#2ff1322d-0fe7-46e4-98d7-1a40e87f4c00;L0|#02ff1322d-0fe7-46e4-98d7-1a40e87f4c00|Society 3.0;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Carlo Ratti2018-07-29T22:00:00Zhttp://changes.unipol.it
Investing Gender: non solo moda<img alt="" src="/society/PublishingImages/investing%20gender%20diversity.jpg" style="BORDER:0px solid;" />http://changes.unipol.it/society/Pagine/investing-gender.aspxInvesting Gender: non solo modaInvestire con gli occhi di genere è una strategia finanziaria con spazi di sviluppo importanti, anche in virtù del fatto che uno degli Obiettivi di Sviluppo sostenibile fissati nell'Agenda 2030. Ecco perché. GP0|#2ff1322d-0fe7-46e4-98d7-1a40e87f4c00;L0|#02ff1322d-0fe7-46e4-98d7-1a40e87f4c00|Society 3.0;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Andrea Di Turi2018-07-22T22:00:00Zhttp://changes.unipol.it
Crescere i bambini nell’era dell’Ai<img alt="" src="/technology/PublishingImages/bambini.jpg" style="BORDER:0px solid;" />http://changes.unipol.it/technology/Pagine/Ai-bambini-educazione.aspxCrescere i bambini nell’era dell’AiCi sono vari modi per garantire attraverso l'intelligenza artificiale uno sviluppo sostenibile al nostro mondo. Indipendentemente dalle macchine che costruiamo e costruiremo, dobbiamo lavorare per far esplodere la creatività. GP0|#0cc31cd1-1f25-4af6-853d-a6e3166be9ab;L0|#00cc31cd1-1f25-4af6-853d-a6e3166be9ab|Technology;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Jonnie Penn2018-07-18T22:00:00Zhttp://changes.unipol.it

 

 

La liquidità del cambiamento<img alt="" src="/society/PublishingImages/Zygmunt_Bauman,_fot._M._Oliva_Soto_(6144135392).jpg" style="BORDER:0px solid;" />http://changes.unipol.it/society/Pagine/bauman.aspxLa liquidità del cambiamentoZygmunt Bauman ha aperto una nuova prospettiva su come interpretare il futuro. Dalla felicità alla nostra nuova vita digitale, sono tante le domande che avremmo potuto ancora fare al sociologo teorico della frammentazione.GP0|#2ff1322d-0fe7-46e4-98d7-1a40e87f4c00;L0|#02ff1322d-0fe7-46e4-98d7-1a40e87f4c00|Society 3.0;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Diana De Caprio2017-01-12T23:00:00Zhttp://changes.unipol.it
Siamo pronti alla società dei Big Data<a href="/society/PublishingImages/big%20data%20way%20of%20life.jpg"><img alt="" src="/society/PublishingImages/big%20data%20way%20of%20life.jpg" style="BORDER:0px solid;" /></a>http://changes.unipol.it/society/Pagine/big-data-modi-di-vivere.aspxSiamo pronti alla società dei Big DataL’era digitale ha smesso, da tempo, di essere il nostro prossimo futuro per trasformarsi nel quotidiano presente, ma la consapevolezza su ciò che sta accadendo è molto lontana. Maria Grazia Mattei immagina per Changes nuovi modi di vivere. GP0|#2ff1322d-0fe7-46e4-98d7-1a40e87f4c00;L0|#02ff1322d-0fe7-46e4-98d7-1a40e87f4c00|Society 3.0;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Maria Grazia Mattei2016-12-01T23:00:00Zhttp://changes.unipol.it
Gentrification: le città sono in movimento<img alt="" src="/society/PublishingImages/gentrification_giovanni_semi.jpg" style="BORDER:0px solid;" />http://changes.unipol.it/society/Pagine/gentrification-giovanni-semi.aspxGentrification: le città sono in movimentoIl fenomeno della trasformazione delle periferie sta modificando interi quartieri metropolitani. Il sociologo Giovanni Semi racconta a Changes come il modello italiano sia diverso dal resto del mondo e come ha cambiato i consumi.GP0|#2ff1322d-0fe7-46e4-98d7-1a40e87f4c00;L0|#02ff1322d-0fe7-46e4-98d7-1a40e87f4c00|Society 3.0;GTSet|#e62eaae4-ff72-4b5a-a2d7-8fca6c2e6a45Roberta Caffaratti2016-11-14T23:00:00Zhttp://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD