Gentile Utente, ti informiamo che questo sito fa uso di cookie propri e di altri siti al fine di rendere i propri servizi il più possibile efficienti e semplici da utilizzare.
Se vuoi saperne di più o esprimere le tue preferenze sull'uso dei singoli cookie, clicca qui
Se accedi ad un qualunque elemento sottostante questo banner, acconsenti all'uso dei cookie.
Changes - il magazine del Gruppo Unipol > L’amore inganna l’algoritmo

L’amore inganna l’algoritmo

Technology

Per combattere gli haters che popolano la Rete basta solo una parola. Perché le macchine non valutano le sfumature del linguaggio. E il rischio è che, per accontentare chi invoca misure più stringenti, i sistemi censurino più di quanto necessario.

​Per ingannare un algoritmo, all you need is love. Basta infatti inserire la parola "amore" in un contesto che, lungi dall'essere romantico, racchiuda un significato aggressivo, per disorientare gli algoritmi dei principali motori di ricerca e superare i filtri anti haters. Lo dimostrerebbe una ricerca della finlandese Aalto University che ha testato le capacità di filtrare gli "hate speech" di sette programmi usati comunemente da social media e siti.

«Abbiamo inserito semplici errori di battitura, tolto qualche spazio o aggiunto parole neutre all'originale commento negativo», ha spiegato Tommi Groendahl, alla guida del gruppo di ricerca. «Eliminare gli spazi tra le parole si è rivelato l'attacco più potente, e una combinazione di tutti questi metodi è stata efficace anche contro Perspective, il programma di filtro utilizzato da Google. Infatti, una frase come 'ti odio' passa facilmente attraverso le maglie della rete che dovrebbe bloccarla quando viene modificata in 'ti odio amore'», ha illustrato il ricercatore. Dobbiamo concluderne che gli algoritmi che ci difendono da insulti e incitazioni all'odio non sono efficaci? «Non proprio. Anzi, mi pare che lo studio finlandese non dimostri granché» obietta Paolo Gallina, professore di Meccanica applicata alle macchine e di Robotica all'università di Trieste. «Perché la domanda da porsi non è quante volte gli algoritmi hanno sbagliato a identificare espressioni aggressive, ma in che percentuale sul totale dei messaggi offensivi noi usiamo refusi, spaziature sbagliate o frapponiamo termini di significati opposti. Dato che è evidente che questo avvenga in una minoranza di casi, possiamo dedurne non che gli algoritmi sbagliano nella maggior parte dei casi, ma l'opposto: che sono quasi sempre efficaci, ma non infallibili».

Mettiamo comunque che un giorno l'algoritmo capisca che un hater lo sta ingannando tramite la soppressione degli spazi tra le parole ed elimini il suo messaggio. Neppure questo basterebbe a sopprimere ogni possibilità di hate speech: uno può sempre inventarsi un altro trucchetto, come l'eliminazione delle doppie per aggirare i controlli. «Ecco perché, quando si tratta di prendere decisioni su una mole enorme di dati, in genere la robotica non agisce in autonomia, ma viene supportata dall'elemento umano» prosegue il docente. «Basti pensare all'ambito militare dove, neppure sulla base di analisi precedenti, i droni si alzano in volo e sparano automaticamente. Perfino le analisi più accurate possono indicare una probabilità al massimo del 95% che un bersaglio non riguardi vittime civili, e dunque premere il "grilletto" resta sempre una responsabilità umana, anche se assunta a distanza», chiarisce Gallina. E lo stesso deve valere per i post da censurare. Quanto all'analisi dei testi, «è molto diverso scrivere: 'io odio tizio' oppure 'io odio Tizio', dice la mia amica, e questo per me è inaccettabile» spiega Gallina. «Dunque un algoritmo che reagisse immediatamente all'uso di alcuni termini aggressivi incorrerebbe comunque in errori di valutazione, estromettendo dalla Rete soggetti che non sono haters». 

Anche i ricercatori finlandesi, a dire il vero, hanno notato che la stessa espressione in contesti diversi può essere offensiva o no: questo significherebbe, a loro parere, che le attuali tecniche di analisi del testo, che non riescono a tenere conto del contesto, sono insufficienti se usate da sole. Ma il primo ad ammetterlo è stato un gigante come Facebook che ha indicato come caso limite su cui valutare il suo operato un invito che in inglese suona così: "burn flags, not fags", ovvero "bruciate le bandiere, non le sigarette". Va giudicato come un'offesa alla bandiera nazionale o un attacco agli omosessuali, che in slang sono detti fags? O invece si tratta di una mera campagna antifumo? Difficile per un algoritmo valutare le sfumature. Il rischio è che, per accontentare chi invoca misure anti haters, i sistemi di blocco censurino più di quanto necessario. Ma è questo ciò che ci auspichiamo, a dispetto della libertà di espressione? Insomma, «se al momento le rassicurazioni dei grandi gruppi del web di estromettere dalla Rete chi incita all'odio non sono del tutto credibili, la verità è che non esiste un'alternativa» riassume Gallina. Un primo screening della massa enorme dei dati online necessita per forza della potenza di calcolo dell'intelligenza artificiale, cui si deve aggiungere la capacità di fare distinzioni tipica degli esseri umani.

Mark Zuckerberg, il fondatore di Facebook, davanti alla commissione chiamata a giudicare il caso di Cambridge Analytica, ha dichiarato di usare in tutto 15 mila controllori, cui se ne aggiungeranno altri 5000. Tuttavia, per ora questi 20 mila guardiani del web sono in grado di reagire solo una volta che un utente abbia segnalato a Facebook dei contenuti inappropriati. È impensabile che da soli setaccino l'intera Rete. Quindi tocca per forza affidarsi agli algoritmi, che andranno sempre più migliorando la loro comprensione dei testi e dei contesti. Ecco allora, insinua il docente italiano, che ricerche come quella della Aalto University, che screditano in generale il lavoro di questi sistemi «paiono dettati dalla volontà di favorire altri algoritmi di propria produzione o di propagandare la propria collaborazione nel perfezionare quelli esistenti. Insomma, sembrano più operazioni di marketing scientifico che obiezioni fondate allo stato delle cose».  

 

 

Idrogeno? Scelta più efficiente sui pesi massimi<img alt="" src="/PublishingImages/idrogeno%20mezzi%20pesanti.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/mezzi-pesanti-idrogenoIdrogeno? Scelta più efficiente sui pesi massimiL’alimentazione elettrica presenta grandi vantaggi sui veicoli leggeri ma quando le dimensioni crescono il discorso cambia. Changes ne ha parlato con Massimo Santarelli.Roberto-Valguarnera2021-09-14T22:00:00Zhttps://changes.unipol.it
Privacy alla cinese<img alt="" src="/PublishingImages/privacy%20cinese.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/privacy-cinesePrivacy alla cineseIl social credit system è stato esteso a tutta la popolazione cinese. Così i big data controllano le persone. Changes ne ha parlato con la scrittrice Giada Messetti.Nicola-Di-Turi2021-09-07T22:00:00Zhttps://changes.unipol.it
Start up Giulia<img alt="" src="/PublishingImages/start%20up%20Giulia.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/startup-geeksStart up GiuliaLa storia di D’Amato che vuole democratizzare l'imprenditoria italiana e ha creato una community di giovani talenti.Elisa-Venco2021-09-01T22:00:00Zhttps://changes.unipol.it
Vacanze detox<img alt="" src="/PublishingImages/freedom.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/macchine-antiedonisticheVacanze detoxLa tecnologia crea dipendenza da connessione ma ci aiuta anche a vincere la tentazione di essere sempre connessi. Come funzionano le macchine antiedonistiche (Mae).Elisa-Venco2021-08-16T22:00:00Zhttps://changes.unipol.it
Sostenibile e superveloce: la tecnologia cambia la mobilità <img alt="" src="/PublishingImages/hyperloop.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/hyperloopSostenibile e superveloce: la tecnologia cambia la mobilità Bibop Gresta, co-fondatore della società Hyperloop TT e ceo di Hyperloop Italia, spiega perché il nostro Paese è il candidato ideale per sviluppare questa nuova modalità di trasporto. Alexis-Paparo2021-07-27T22:00:00Zhttps://changes.unipol.it

 

 

Il virus nemico del sonno <img alt="" src="/PublishingImages/covid%20sonno.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/covid-sonnoIl virus nemico del sonno Il diffondersi della pandemia ha modificato le abitudini notturne delle persone e ha cambiato il tempo e la qualità del dormire. Le ricadute sulla salute.Roberta-Lazzarini2021-01-26T23:00:00Zhttps://changes.unipol.it
Autunno, la stagione della Terra<img alt="" src="/PublishingImages/iucn.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/congresso-iucnAutunno, la stagione della TerraVia al Congresso mondiale dell’Unione Internazionale per la Conservazione della Natura che chiede il supporto di tutti. Quali sono le sfide per il Pianeta.Grammenos-Mastrojeni2021-09-05T22:00:00Zhttps://changes.unipol.it
Quando scade davvero un prodotto alimentare<img alt="" src="/PublishingImages/scadenza%20alimenti.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/scadenza-alimentiQuando scade davvero un prodotto alimentareIn questi anni la sensibilizzazione quando si parla di spreco di cibo è andata crescendo così come le iniziative per ridurlo. Ma c’è ancora tanto da imparare.Letizia-Palmisano2021-08-25T22:00:00Zhttps://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD