Gentile Utente, ti informiamo che questo sito fa uso di cookie propri e di altri siti al fine di rendere i propri servizi il più possibile efficienti e semplici da utilizzare.
Se vuoi saperne di più o esprimere le tue preferenze sull'uso dei singoli cookie, clicca qui
Se accedi ad un qualunque elemento sottostante questo banner, acconsenti all'uso dei cookie.
Changes - il magazine del Gruppo Unipol > L’amore inganna l’algoritmo

L’amore inganna l’algoritmo

Technology

Per combattere gli haters che popolano la Rete basta solo una parola. Perché le macchine non valutano le sfumature del linguaggio. E il rischio è che, per accontentare chi invoca misure più stringenti, i sistemi censurino più di quanto necessario.

​Per ingannare un algoritmo, all you need is love. Basta infatti inserire la parola "amore" in un contesto che, lungi dall'essere romantico, racchiuda un significato aggressivo, per disorientare gli algoritmi dei principali motori di ricerca e superare i filtri anti haters. Lo dimostrerebbe una ricerca della finlandese Aalto University che ha testato le capacità di filtrare gli "hate speech" di sette programmi usati comunemente da social media e siti.

«Abbiamo inserito semplici errori di battitura, tolto qualche spazio o aggiunto parole neutre all'originale commento negativo», ha spiegato Tommi Groendahl, alla guida del gruppo di ricerca. «Eliminare gli spazi tra le parole si è rivelato l'attacco più potente, e una combinazione di tutti questi metodi è stata efficace anche contro Perspective, il programma di filtro utilizzato da Google. Infatti, una frase come 'ti odio' passa facilmente attraverso le maglie della rete che dovrebbe bloccarla quando viene modificata in 'ti odio amore'», ha illustrato il ricercatore. Dobbiamo concluderne che gli algoritmi che ci difendono da insulti e incitazioni all'odio non sono efficaci? «Non proprio. Anzi, mi pare che lo studio finlandese non dimostri granché» obietta Paolo Gallina, professore di Meccanica applicata alle macchine e di Robotica all'università di Trieste. «Perché la domanda da porsi non è quante volte gli algoritmi hanno sbagliato a identificare espressioni aggressive, ma in che percentuale sul totale dei messaggi offensivi noi usiamo refusi, spaziature sbagliate o frapponiamo termini di significati opposti. Dato che è evidente che questo avvenga in una minoranza di casi, possiamo dedurne non che gli algoritmi sbagliano nella maggior parte dei casi, ma l'opposto: che sono quasi sempre efficaci, ma non infallibili».

Mettiamo comunque che un giorno l'algoritmo capisca che un hater lo sta ingannando tramite la soppressione degli spazi tra le parole ed elimini il suo messaggio. Neppure questo basterebbe a sopprimere ogni possibilità di hate speech: uno può sempre inventarsi un altro trucchetto, come l'eliminazione delle doppie per aggirare i controlli. «Ecco perché, quando si tratta di prendere decisioni su una mole enorme di dati, in genere la robotica non agisce in autonomia, ma viene supportata dall'elemento umano» prosegue il docente. «Basti pensare all'ambito militare dove, neppure sulla base di analisi precedenti, i droni si alzano in volo e sparano automaticamente. Perfino le analisi più accurate possono indicare una probabilità al massimo del 95% che un bersaglio non riguardi vittime civili, e dunque premere il "grilletto" resta sempre una responsabilità umana, anche se assunta a distanza», chiarisce Gallina. E lo stesso deve valere per i post da censurare. Quanto all'analisi dei testi, «è molto diverso scrivere: 'io odio tizio' oppure 'io odio Tizio', dice la mia amica, e questo per me è inaccettabile» spiega Gallina. «Dunque un algoritmo che reagisse immediatamente all'uso di alcuni termini aggressivi incorrerebbe comunque in errori di valutazione, estromettendo dalla Rete soggetti che non sono haters». 

Anche i ricercatori finlandesi, a dire il vero, hanno notato che la stessa espressione in contesti diversi può essere offensiva o no: questo significherebbe, a loro parere, che le attuali tecniche di analisi del testo, che non riescono a tenere conto del contesto, sono insufficienti se usate da sole. Ma il primo ad ammetterlo è stato un gigante come Facebook che ha indicato come caso limite su cui valutare il suo operato un invito che in inglese suona così: "burn flags, not fags", ovvero "bruciate le bandiere, non le sigarette". Va giudicato come un'offesa alla bandiera nazionale o un attacco agli omosessuali, che in slang sono detti fags? O invece si tratta di una mera campagna antifumo? Difficile per un algoritmo valutare le sfumature. Il rischio è che, per accontentare chi invoca misure anti haters, i sistemi di blocco censurino più di quanto necessario. Ma è questo ciò che ci auspichiamo, a dispetto della libertà di espressione? Insomma, «se al momento le rassicurazioni dei grandi gruppi del web di estromettere dalla Rete chi incita all'odio non sono del tutto credibili, la verità è che non esiste un'alternativa» riassume Gallina. Un primo screening della massa enorme dei dati online necessita per forza della potenza di calcolo dell'intelligenza artificiale, cui si deve aggiungere la capacità di fare distinzioni tipica degli esseri umani.

Mark Zuckerberg, il fondatore di Facebook, davanti alla commissione chiamata a giudicare il caso di Cambridge Analytica, ha dichiarato di usare in tutto 15 mila controllori, cui se ne aggiungeranno altri 5000. Tuttavia, per ora questi 20 mila guardiani del web sono in grado di reagire solo una volta che un utente abbia segnalato a Facebook dei contenuti inappropriati. È impensabile che da soli setaccino l'intera Rete. Quindi tocca per forza affidarsi agli algoritmi, che andranno sempre più migliorando la loro comprensione dei testi e dei contesti. Ecco allora, insinua il docente italiano, che ricerche come quella della Aalto University, che screditano in generale il lavoro di questi sistemi «paiono dettati dalla volontà di favorire altri algoritmi di propria produzione o di propagandare la propria collaborazione nel perfezionare quelli esistenti. Insomma, sembrano più operazioni di marketing scientifico che obiezioni fondate allo stato delle cose».  

 

 

Gli algoritmi non sono inclusivi<img alt="" src="/PublishingImages/algoritmo%20sessista.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/algoritmo-sessistaGli algoritmi non sono inclusiviLa tecnologia ha delle falle che provocano sessismo e razzismo. Ma siamo in tempo per cambiare rotta. C’è chi sta provando a mutare le cose, come Joy Buolamwini, la poetessa dei codici del MIT.Rosita-Rijtano2021-03-07T23:00:00Zhttps://changes.unipol.it
È tempo di professional branding<img alt="" src="/PublishingImages/professional%20branding.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/professional-brandingÈ tempo di professional brandingIl tempo della ricreazione in rete è finito: la crisi del mondo del lavoro morde. Quando possiamo lasciare tracce di noi su Internet, facciamolo seminando delle “molliche” professionali. Filippo-Poletti2021-03-03T23:00:00Zhttps://changes.unipol.it
Privacy: le stanze senza muri di Clubhouse <img alt="" src="/PublishingImages/TECHNOLOGY%20Clubhouse.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/clubhouse-privacyPrivacy: le stanze senza muri di Clubhouse È il social del momento. Si basa sulla voce e ha già attirato l’attenzione di esperti e appassionati, ma non solo. Da Roma ad Amburgo, a Clubhouse guardano con interesse e crescente preoccupazione anche i Garanti della Privacy. Ecco perché.Luca-Politi2021-02-23T23:00:00Zhttps://changes.unipol.it
La piattaforma ci salverà?<img alt="" src="/PublishingImages/platform%20economy.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/platform-economyLa piattaforma ci salverà?La Platform Economy è un modello di business basato sui dati e sull’incrocio tra domanda e offerta in un campo digitale. Le prospettive sono rosee, nonostante la crisi. Ma i problemi di sostenibilità ed equità sono irrisolti.Luca-Politi2021-02-17T23:00:00Zhttps://changes.unipol.it
Sage fa scuola ai big del mondo <img alt="" src="/PublishingImages/economia-circolare.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/sage-zero-spazzaturaSage fa scuola ai big del mondo All’Università di Berkeley, Sage Lenier, insegna come ridurre a zero la spazzatura. E dalle aule è arrivata al World Economic Forum per spiegarlo a tutti.Elisa-Venco2021-02-16T23:00:00Zhttps://changes.unipol.it

 

 

Il virus nemico del sonno <img alt="" src="/PublishingImages/covid%20sonno.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/covid-sonnoIl virus nemico del sonno Il diffondersi della pandemia ha modificato le abitudini notturne delle persone e ha cambiato il tempo e la qualità del dormire. Le ricadute sulla salute.Roberta-Lazzarini2021-01-26T23:00:00Zhttps://changes.unipol.it
Significati e significanti: le parole cambiano e ci cambiano<img alt="" src="/PublishingImages/parole-virus.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/parole-virusSignificati e significanti: le parole cambiano e ci cambianoA un anno dall’inizio della pandemia, anche le cose che diciamo sono diverse. Tra vecchi e nuovi termini abbiamo dovuto imparare un altro linguaggio, per definire l’incertezza.Diana-De-Caprio2021-02-23T23:00:00Zhttps://changes.unipol.it
C’è bisogno di una slow-sharing<img alt="" src="/PublishingImages/slow-sharing.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/slow-sharingC’è bisogno di una slow-sharingDopo gli anni della ricerca ossessiva di scalabilità, profitti e quotazioni veloci, l’economia della condivisione si converte a un tempo lento e si concentra su uno schema nuovo ispirato al modello cooperativo.Antonio-Belloni2021-02-24T23:00:00Zhttps://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD