Gentile Utente, ti informiamo che questo sito fa uso di cookie propri e di altri siti al fine di rendere i propri servizi il più possibile efficienti e semplici da utilizzare.
Se vuoi saperne di più o esprimere le tue preferenze sull'uso dei singoli cookie, clicca qui
Se accedi ad un qualunque elemento sottostante questo banner, acconsenti all'uso dei cookie.
Changes - il magazine del Gruppo Unipol > L’amore inganna l’algoritmo

L’amore inganna l’algoritmo

Technology

Per combattere gli haters che popolano la Rete basta solo una parola. Perché le macchine non valutano le sfumature del linguaggio. E il rischio è che, per accontentare chi invoca misure più stringenti, i sistemi censurino più di quanto necessario.

​Per ingannare un algoritmo, all you need is love. Basta infatti inserire la parola "amore" in un contesto che, lungi dall'essere romantico, racchiuda un significato aggressivo, per disorientare gli algoritmi dei principali motori di ricerca e superare i filtri anti haters. Lo dimostrerebbe una ricerca della finlandese Aalto University che ha testato le capacità di filtrare gli "hate speech" di sette programmi usati comunemente da social media e siti.

«Abbiamo inserito semplici errori di battitura, tolto qualche spazio o aggiunto parole neutre all'originale commento negativo», ha spiegato Tommi Groendahl, alla guida del gruppo di ricerca. «Eliminare gli spazi tra le parole si è rivelato l'attacco più potente, e una combinazione di tutti questi metodi è stata efficace anche contro Perspective, il programma di filtro utilizzato da Google. Infatti, una frase come 'ti odio' passa facilmente attraverso le maglie della rete che dovrebbe bloccarla quando viene modificata in 'ti odio amore'», ha illustrato il ricercatore. Dobbiamo concluderne che gli algoritmi che ci difendono da insulti e incitazioni all'odio non sono efficaci? «Non proprio. Anzi, mi pare che lo studio finlandese non dimostri granché» obietta Paolo Gallina, professore di Meccanica applicata alle macchine e di Robotica all'università di Trieste. «Perché la domanda da porsi non è quante volte gli algoritmi hanno sbagliato a identificare espressioni aggressive, ma in che percentuale sul totale dei messaggi offensivi noi usiamo refusi, spaziature sbagliate o frapponiamo termini di significati opposti. Dato che è evidente che questo avvenga in una minoranza di casi, possiamo dedurne non che gli algoritmi sbagliano nella maggior parte dei casi, ma l'opposto: che sono quasi sempre efficaci, ma non infallibili».

Mettiamo comunque che un giorno l'algoritmo capisca che un hater lo sta ingannando tramite la soppressione degli spazi tra le parole ed elimini il suo messaggio. Neppure questo basterebbe a sopprimere ogni possibilità di hate speech: uno può sempre inventarsi un altro trucchetto, come l'eliminazione delle doppie per aggirare i controlli. «Ecco perché, quando si tratta di prendere decisioni su una mole enorme di dati, in genere la robotica non agisce in autonomia, ma viene supportata dall'elemento umano» prosegue il docente. «Basti pensare all'ambito militare dove, neppure sulla base di analisi precedenti, i droni si alzano in volo e sparano automaticamente. Perfino le analisi più accurate possono indicare una probabilità al massimo del 95% che un bersaglio non riguardi vittime civili, e dunque premere il "grilletto" resta sempre una responsabilità umana, anche se assunta a distanza», chiarisce Gallina. E lo stesso deve valere per i post da censurare. Quanto all'analisi dei testi, «è molto diverso scrivere: 'io odio tizio' oppure 'io odio Tizio', dice la mia amica, e questo per me è inaccettabile» spiega Gallina. «Dunque un algoritmo che reagisse immediatamente all'uso di alcuni termini aggressivi incorrerebbe comunque in errori di valutazione, estromettendo dalla Rete soggetti che non sono haters». 

Anche i ricercatori finlandesi, a dire il vero, hanno notato che la stessa espressione in contesti diversi può essere offensiva o no: questo significherebbe, a loro parere, che le attuali tecniche di analisi del testo, che non riescono a tenere conto del contesto, sono insufficienti se usate da sole. Ma il primo ad ammetterlo è stato un gigante come Facebook che ha indicato come caso limite su cui valutare il suo operato un invito che in inglese suona così: "burn flags, not fags", ovvero "bruciate le bandiere, non le sigarette". Va giudicato come un'offesa alla bandiera nazionale o un attacco agli omosessuali, che in slang sono detti fags? O invece si tratta di una mera campagna antifumo? Difficile per un algoritmo valutare le sfumature. Il rischio è che, per accontentare chi invoca misure anti haters, i sistemi di blocco censurino più di quanto necessario. Ma è questo ciò che ci auspichiamo, a dispetto della libertà di espressione? Insomma, «se al momento le rassicurazioni dei grandi gruppi del web di estromettere dalla Rete chi incita all'odio non sono del tutto credibili, la verità è che non esiste un'alternativa» riassume Gallina. Un primo screening della massa enorme dei dati online necessita per forza della potenza di calcolo dell'intelligenza artificiale, cui si deve aggiungere la capacità di fare distinzioni tipica degli esseri umani.

Mark Zuckerberg, il fondatore di Facebook, davanti alla commissione chiamata a giudicare il caso di Cambridge Analytica, ha dichiarato di usare in tutto 15 mila controllori, cui se ne aggiungeranno altri 5000. Tuttavia, per ora questi 20 mila guardiani del web sono in grado di reagire solo una volta che un utente abbia segnalato a Facebook dei contenuti inappropriati. È impensabile che da soli setaccino l'intera Rete. Quindi tocca per forza affidarsi agli algoritmi, che andranno sempre più migliorando la loro comprensione dei testi e dei contesti. Ecco allora, insinua il docente italiano, che ricerche come quella della Aalto University, che screditano in generale il lavoro di questi sistemi «paiono dettati dalla volontà di favorire altri algoritmi di propria produzione o di propagandare la propria collaborazione nel perfezionare quelli esistenti. Insomma, sembrano più operazioni di marketing scientifico che obiezioni fondate allo stato delle cose».  

 

 

Web reputation: governare le crisi<img alt="" src="/PublishingImages/Web-reputation-changes-unipol.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/web-reputation-governare-le-crisiWeb reputation: governare le crisiL’incontro a CUBO Unipol tra Daniele Chieffi, Direttore Comunicazione e PR Dipartimento per l’Innovazione Tecnologica e la Digitalizzazione Presidenza del Consiglio e Fernando Vacarini, Responsabile Media Relations Gruppo Unipol e Direttore Changes.Redazione-Changes2020-09-16T22:00:00Zhttps://changes.unipol.it
L'auto connessa è quasi realtà<img alt="" src="/PublishingImages/auto%20connessa.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/auto-connessaL'auto connessa è quasi realtàI dati parlano di una forte crescita dei servizi per la connessione dei veicoli con le infrastrutture di telecomunicazione. Rosario-Murgida2020-09-16T22:00:00Zhttps://changes.unipol.it
Vita e lavoro racchiusi in uno schermo <img alt="" src="/PublishingImages/videocentrismo.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/videocentrismoVita e lavoro racchiusi in uno schermo In questo 2020 così surreale l’esperienza videocentrica ha subito un’accelerazione senza precedenti. E il video è diventato un riflesso su cui incentrare la nostra vita quotidiana e il lavoro a distanza.Giampaolo-Colletti2020-09-08T22:00:00Zhttps://changes.unipol.it
Il DNA è già un business<img alt="" src="/PublishingImages/business%20dna.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/business-dnaIl DNA è già un businessUn’analisi del MIT stima che entro il 2021 saranno oltre 100 milioni le persone censite attraverso i geni. Così la scienza aiuta il marketing sulla strada di consumi personalizzati e nuove esperienze di acquisto.Elisa-Venco2020-09-06T22:00:00Zhttps://changes.unipol.it
La nuova frontiera è il 6G<img alt="" src="/PublishingImages/tecnologia%206G.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/tecnologia-6gLa nuova frontiera è il 6GMentre oriente e occidente si sfidano a colpi di Bit verso il pieno lancio del 5G, c’è già chi pensa alla nuova generazione della comunicazione wireless: il 6G. Ma cos’è e cosa consentirà di fare? Luca-Politi2020-09-01T22:00:00Zhttps://changes.unipol.it

 

 

Quanti pensieri nella testa del digital consumer<img alt="" src="/PublishingImages/digital%20consumer%20covid.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/digital-consumer-covidQuanti pensieri nella testa del digital consumerLa tecnologia digitale agisce sempre di più sul nostro modo di pensare e di acquistare. Un fenomeno amplificato dall’epidemia di Coronavirus.Vittorio-Verdone2020-09-09T22:00:00Zhttps://changes.unipol.it
Vita e lavoro racchiusi in uno schermo <img alt="" src="/PublishingImages/videocentrismo.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/videocentrismoVita e lavoro racchiusi in uno schermo In questo 2020 così surreale l’esperienza videocentrica ha subito un’accelerazione senza precedenti. E il video è diventato un riflesso su cui incentrare la nostra vita quotidiana e il lavoro a distanza.Giampaolo-Colletti2020-09-08T22:00:00Zhttps://changes.unipol.it
Il DNA è già un business<img alt="" src="/PublishingImages/business%20dna.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/business-dnaIl DNA è già un businessUn’analisi del MIT stima che entro il 2021 saranno oltre 100 milioni le persone censite attraverso i geni. Così la scienza aiuta il marketing sulla strada di consumi personalizzati e nuove esperienze di acquisto.Elisa-Venco2020-09-06T22:00:00Zhttps://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD