Gentile Utente, ti informiamo che questo sito fa uso di cookie propri e di altri siti al fine di rendere i propri servizi il più possibile efficienti e semplici da utilizzare.
Se vuoi saperne di più o esprimere le tue preferenze sull'uso dei singoli cookie, clicca qui
Se accedi ad un qualunque elemento sottostante questo banner, acconsenti all'uso dei cookie.
Changes - il magazine del Gruppo Unipol > L’amore inganna l’algoritmo

L’amore inganna l’algoritmo

Technology

Per combattere gli haters che popolano la Rete basta solo una parola. Perché le macchine non valutano le sfumature del linguaggio. E il rischio è che, per accontentare chi invoca misure più stringenti, i sistemi censurino più di quanto necessario.

​Per ingannare un algoritmo, all you need is love. Basta infatti inserire la parola "amore" in un contesto che, lungi dall'essere romantico, racchiuda un significato aggressivo, per disorientare gli algoritmi dei principali motori di ricerca e superare i filtri anti haters. Lo dimostrerebbe una ricerca della finlandese Aalto University che ha testato le capacità di filtrare gli "hate speech" di sette programmi usati comunemente da social media e siti.

«Abbiamo inserito semplici errori di battitura, tolto qualche spazio o aggiunto parole neutre all'originale commento negativo», ha spiegato Tommi Groendahl, alla guida del gruppo di ricerca. «Eliminare gli spazi tra le parole si è rivelato l'attacco più potente, e una combinazione di tutti questi metodi è stata efficace anche contro Perspective, il programma di filtro utilizzato da Google. Infatti, una frase come 'ti odio' passa facilmente attraverso le maglie della rete che dovrebbe bloccarla quando viene modificata in 'ti odio amore'», ha illustrato il ricercatore. Dobbiamo concluderne che gli algoritmi che ci difendono da insulti e incitazioni all'odio non sono efficaci? «Non proprio. Anzi, mi pare che lo studio finlandese non dimostri granché» obietta Paolo Gallina, professore di Meccanica applicata alle macchine e di Robotica all'università di Trieste. «Perché la domanda da porsi non è quante volte gli algoritmi hanno sbagliato a identificare espressioni aggressive, ma in che percentuale sul totale dei messaggi offensivi noi usiamo refusi, spaziature sbagliate o frapponiamo termini di significati opposti. Dato che è evidente che questo avvenga in una minoranza di casi, possiamo dedurne non che gli algoritmi sbagliano nella maggior parte dei casi, ma l'opposto: che sono quasi sempre efficaci, ma non infallibili».

Mettiamo comunque che un giorno l'algoritmo capisca che un hater lo sta ingannando tramite la soppressione degli spazi tra le parole ed elimini il suo messaggio. Neppure questo basterebbe a sopprimere ogni possibilità di hate speech: uno può sempre inventarsi un altro trucchetto, come l'eliminazione delle doppie per aggirare i controlli. «Ecco perché, quando si tratta di prendere decisioni su una mole enorme di dati, in genere la robotica non agisce in autonomia, ma viene supportata dall'elemento umano» prosegue il docente. «Basti pensare all'ambito militare dove, neppure sulla base di analisi precedenti, i droni si alzano in volo e sparano automaticamente. Perfino le analisi più accurate possono indicare una probabilità al massimo del 95% che un bersaglio non riguardi vittime civili, e dunque premere il "grilletto" resta sempre una responsabilità umana, anche se assunta a distanza», chiarisce Gallina. E lo stesso deve valere per i post da censurare. Quanto all'analisi dei testi, «è molto diverso scrivere: 'io odio tizio' oppure 'io odio Tizio', dice la mia amica, e questo per me è inaccettabile» spiega Gallina. «Dunque un algoritmo che reagisse immediatamente all'uso di alcuni termini aggressivi incorrerebbe comunque in errori di valutazione, estromettendo dalla Rete soggetti che non sono haters». 

Anche i ricercatori finlandesi, a dire il vero, hanno notato che la stessa espressione in contesti diversi può essere offensiva o no: questo significherebbe, a loro parere, che le attuali tecniche di analisi del testo, che non riescono a tenere conto del contesto, sono insufficienti se usate da sole. Ma il primo ad ammetterlo è stato un gigante come Facebook che ha indicato come caso limite su cui valutare il suo operato un invito che in inglese suona così: "burn flags, not fags", ovvero "bruciate le bandiere, non le sigarette". Va giudicato come un'offesa alla bandiera nazionale o un attacco agli omosessuali, che in slang sono detti fags? O invece si tratta di una mera campagna antifumo? Difficile per un algoritmo valutare le sfumature. Il rischio è che, per accontentare chi invoca misure anti haters, i sistemi di blocco censurino più di quanto necessario. Ma è questo ciò che ci auspichiamo, a dispetto della libertà di espressione? Insomma, «se al momento le rassicurazioni dei grandi gruppi del web di estromettere dalla Rete chi incita all'odio non sono del tutto credibili, la verità è che non esiste un'alternativa» riassume Gallina. Un primo screening della massa enorme dei dati online necessita per forza della potenza di calcolo dell'intelligenza artificiale, cui si deve aggiungere la capacità di fare distinzioni tipica degli esseri umani.

Mark Zuckerberg, il fondatore di Facebook, davanti alla commissione chiamata a giudicare il caso di Cambridge Analytica, ha dichiarato di usare in tutto 15 mila controllori, cui se ne aggiungeranno altri 5000. Tuttavia, per ora questi 20 mila guardiani del web sono in grado di reagire solo una volta che un utente abbia segnalato a Facebook dei contenuti inappropriati. È impensabile che da soli setaccino l'intera Rete. Quindi tocca per forza affidarsi agli algoritmi, che andranno sempre più migliorando la loro comprensione dei testi e dei contesti. Ecco allora, insinua il docente italiano, che ricerche come quella della Aalto University, che screditano in generale il lavoro di questi sistemi «paiono dettati dalla volontà di favorire altri algoritmi di propria produzione o di propagandare la propria collaborazione nel perfezionare quelli esistenti. Insomma, sembrano più operazioni di marketing scientifico che obiezioni fondate allo stato delle cose».  

 

 

La guida autonoma scende in pista <img alt="" src="/PublishingImages/gare%20auto%20senza%20pilota.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/gare-guida-autonomaLa guida autonoma scende in pista Le vetture senza guidatore gareggiano in competizioni ad hoc per testare le tecnologie del futuro prossimo e l'Italia non sfigura. Ne abbiamo parlato con l’esperto Sergio Savaresi. Roberto-Valguarnera2021-06-09T22:00:00Zhttps://changes.unipol.it
Trasformazione Cloud<img alt="" src="/PublishingImages/cloud.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/trasformazione-cloudTrasformazione CloudTutti ne parlano ma come sta rivoluzionando il consumo di risorse IT a livello aziendale? Come rendere semplice qualcosa di complesso.Pier-Paolo-Ippolito2021-05-27T22:00:00Zhttps://changes.unipol.it
Giovani e istruzione: le opportunità dell'Agenda Digitale<img alt="" src="/PublishingImages/ublog%20digitale.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/agenda-digitale-giovaniGiovani e istruzione: le opportunità dell'Agenda DigitaleLe competenze digitali non saranno necessarie solo per i lavori digitali ma per ogni singola carriera. Questa è un’occasione che non deve aumentare le divisioni.Redazione-UBlog2021-05-19T22:00:00Zhttps://changes.unipol.it
La sfida dell’elettrico si vince alla stazione di servizio<img alt="" src="/PublishingImages/punti%20ricarica.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/punti-ricaricaLa sfida dell’elettrico si vince alla stazione di servizioPer sconfiggere l’ansia da ricarica è necessario aumentare il numero di colonnine. Il governo tedesco ha deciso di renderle obbligatorie nei distributori tradizionali. La situazione in Europa. Roberto-Valguarnera2021-05-12T22:00:00Zhttps://changes.unipol.it
Gig economy: tra diritto e algoritmo<img alt="" src="/PublishingImages/gig-economy.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/gig-economy-come-cambiaGig economy: tra diritto e algoritmoLa pandemia ha mandato in crisi il modello di business dell’economia del lavoro a chiamata mettendo in luce lo squilibrio di potere tra lavoratori, capitale e giudizi degli utenti.Nicola-Di-Turi2021-05-03T22:00:00Zhttps://changes.unipol.it

 

 

Il virus nemico del sonno <img alt="" src="/PublishingImages/covid%20sonno.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/covid-sonnoIl virus nemico del sonno Il diffondersi della pandemia ha modificato le abitudini notturne delle persone e ha cambiato il tempo e la qualità del dormire. Le ricadute sulla salute.Roberta-Lazzarini2021-01-26T23:00:00Zhttps://changes.unipol.it
Economia circolare: dalla terra alla terra <img alt="" src="/PublishingImages/bioeconomia.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/economia-circolare-terraEconomia circolare: dalla terra alla terra Cinque storie italiane di bioeconomia che usano in maniera efficiente le risorse, riducono gli sprechi, tutelano la terra e la biodiversità. Letizia-Palmisano2021-06-08T22:00:00Zhttps://changes.unipol.it
Condividere le emozioni fa bene al lavoro<img alt="" src="/PublishingImages/emozioni-lavoro.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/condividere-emozioniCondividere le emozioni fa bene al lavoroLa storia di Paolo Raineri che studiando i comportamenti degli elefanti marini ha fondato Yumi che dà un valore agli elementi intangibili.Antonio-Belloni2021-06-06T22:00:00Zhttps://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD