L’amicizia non è un like
Quanti amici hai? Ma soprattutto: con “amici” cosa intendi? Nell’epoca in cui viviamo non è una domanda banale. Dal 2004, anno in cui è nato Facebook seguito da Instagram f
Noise è il nuovo libro di Daniel Kahneman, Cass Sunstein e Olivier Sibony. È un libro dall’argomento decisamente centrato e che, pure, lascia l’amaro in bocca.
Daniela Kahneman e Cass Sunstein avevano abituato le loro platee e a ben altri saggi (Pensieri lenti e veloci o Nudge, per non citare che due esempi), per questo Noise ha un che di incompleto ( questo rumore dei dati). Il nucleo narrativo del libro è fondato sulla distinzione tra bias e noise (distorsione e rumore, se vogliamo tradurre i concetti).
Parlare di variabilità e di rumore dei dati è dunque molto importante. Anzi, necessario, e lo dimostrano i numeri. Alcuni studi condotti negli anni ’70 e ’80 del secolo scorso negli Stati Uniti mostravano inequivocabilmente come lo stesso caso giudiziario, passato ipoteticamente al vaglio di un giudice diverso, potesse dare luogo a sentenze molto diverse tra loro. Un trafficante di eroina poteva vedere la sua pena variare da 1 a 10 anni e un rapinatore di banche da 5 a 18 anni.
In questo enorme rumore di dati, non dimentichiamocelo mai, ci starebbe la vita di una persona con tutto il suo significato. Negli USA il riconoscimento del problema portò all’approvazione del Sentencing Reform Act nel 1984, ma la perdita di discrezionalità del giudice, nel corso degli anni, causò una sorta di rivolta all’interno della categoria e nel 2005 la legge, che imponeva rigide linee guida, è stata declassificata a mero suggerimento operativo.
Ma perché Noise è un libro incompiuto? Innanzitutto perché si ferma a una mera definizione del problema ma non lascia al lettore la sensazione che esistano delle soluzioni o, quel che è peggio, un approccio concreto teso alla riduzione di questa variabilità dei risultati.
In secondo luogo, poi, Noise è deludente quando passa a considerare gli errori delle macchine versus quelli di Sapiens. Innanzitutto, Kahneman e Sunstein non dicono una cosa fondamentale: le macchine e gli algoritmi non si limitano a riprodurre i bias umani.
Li amplificano con effetti disastrosi. Per non citare che uno dei numerosi esempi possibili, un algoritmo allenato (trained, secondo il lessico del machine learning) a partire da un dataset fatto di immagini in cui foto di cucine avevano una probabilità di 33 punti percentuali più alta di vedere ritratte donne, finiva con l’associare immagini di cucine a foto di donne nel 70% dei casi.
La macchina non è neutra e, gioco forza, non lo sono le aziende che definiscono, implementano e sfruttano algoritmi per svolgere la loro attività.
Due ricercatori del calibro di Kahneman e Sunstein avrebbero potuto scrivere un libro di grande impatto, mentre Noise, così com’è, finisce con l’essere né carne né pesce. Con buona pace del principio di autorità. E dell’occasione di scrivere un libro che parla di un tema di grande rilevanza pubblica.
P.S. nessun algoritmo è stato maltrattato per fare riferimento all’ultima immagine di cibo senza una connotazione precisa.