Changes - il magazine del Gruppo Unipol > Robot umani, troppo umani

Robot umani, troppo umani

Technology

Anche le macchine possono avere un cuore. Ne sono convinti gli studiosi dell’Affective Computing che indaga le emozioni umane e le sue manifestazioni per migliorare in senso collaborativo l’interazione uomo-automi.

«Lo sai, io riesco a sentire la paura che hai dentro e vorrei poter fare qualcosa perché te ne liberassi, così non ti sentiresti più solo». Lei è Samantha ed è un robot. O meglio, è l'intelligenza artificiale di Her, il film di Spike Jonze, vincitore del Premio Oscar nel 2013.

Sul rapporto tra Samantha e il protagonista Theodore Twombly, interpretato da Joaquin Phoenix, si basa l'intera trama della pellicola. Una relazione fondata sulla capacità di provare sentimenti, di avvertire empatia e quindi affetto. Uno uomo e una macchina. Certo è fantascienza, ma Samantha non è una macchina fredda, non è una calcolatrice, né un robot aspirapolvere e neanche uno dei nostri smart speaker.

Samantha apprende ed elabora emozioni. Proprio su questo si basa l'Affective Computing, un ramo dell'intelligenza artificiale che deve il suo nome ad un libro pubblicato nel 1995 da Rosalind Picard, ricercatrice dell'MIT di Boston, unanimemente ritenuta la pioniera di questo nuovo settore di ricerca, secondo cui macchine e robot possono riconoscere, comprendere e finanche avere e manifestare emozioni.

Non solo ricerca, però. Secondo il report Global Forecast to 2025 pubblicato da MarketsandMarkets, gli investimenti delle imprese nel settore passeranno dai 28,6 miliardi di dollari del 2020 ai 140 nel 2025.

Nel nostro paese l'Istituto italiano di Tecnologia ha lanciato il progetto di ricerca Whisper, con l'obiettivo di studiare le interazioni uomo-uomo e uomo-macchina, per migliorare la relazione tra noi e i robot in un'ottica collaborativa.

Cos'è l'Affective computing?
Uno dei limiti riconosciuti alle macchine è proprio l'assenza di emozioni che pure giocano un ruolo determinante nelle nostre decisioni. L'Affective Computing si propone proprio l'obiettivo di studiare questa dimensione, facendo leva sulle scienze ingegneristiche, sulla robotica, sulla psicologia, sulla filosofia e sulle scienze umane in genere.

«Lo scopo della nostra ricerca è quello di rendere una macchina consapevole dello stato interno ed emotivo della persona che si trova davanti», sottolinea a Changes Alessandra Sciutti, ricercatrice e coordinatrice Unità Architetture Cognitive per Tecnologie Collaborative dell'IIT. «Recentemente – racconta - abbiamo svolto un esperimento dotando un robot di una guida interiore che gli offre comfort quando le sue azioni rendono felici le persone con cui interagisce. Questo ha permesso al robot di instaurare un meccanismo di adattamento e di avere un determinato comportamento con una persona che dimostrava apprezzamento per le sue azioni e non verso un'altra indifferente».

Come avviene lo studio delle emozioni?

Le dimensioni dell'Affective Computing riguardano principalmente la codifica dell'espressione emotiva attraverso dati e informazioni su caratteristiche specifiche umane: azioni, reazioni, espressioni del viso, voce, postura. «È l'approccio basato sulle features, su caratteristiche in presenza delle quali posso insegnare alla macchina a comportarsi in un certo modo», dice Alessandra Sciutti.

Un altro approccio è quello “deep learning", ovvero una classe di algoritmi di machine learning che si ispira alla stessa struttura del cervello umano basandosi sulle reti neurali artificiali. “Questo approccio funziona attraverso la somministrazione ripetuta di immagini o suoni, fino a che non avviene nel robot il riconoscimento di quegli stati su cui orientare il suo comportamento".

Aldilà del fascino della ricerca, per quale motivo interagire con macchine che possano riconoscere le nostre emozioni è così importante? «Perché finalmente potremmo passare da robot visti come strumenti a robot collaborativi, che prendono con noi decisioni in base anche al nostro stato emotivo e alla nostra reazione».

I campi d'applicazione dell'Affective Computing

Da robot-mezzo a robot-collaboratore, dunque. Una rivoluzione rilevante e applicabile nei tantissimi campi in cui l'uomo agisce con ausili informatici.

Pensiamo innanzitutto al settore della riabilitazione fisioterapica e della salute in genere. Qui la comprensione da parte delle macchine dello stato emotivo del paziente (fatica, dolore, sollievo) attraverso le sue reazioni facciali, potrebbe aiutare a modulare carichi, dosaggi, cure in genere.

Nell'ambito aziendale l'affective computing può apportare un grande impatto sulle funzioni di customer service o customer experience, in cui boot o assistenti vocali si relazionano con il cliente con maggiore empatia, ottimizzando l'assistenza e quindi anche la customer satisfaction.

Nella didattica le intelligenze artificiali basate sull'affective computing possono, invece, accompagnare l'alunno nello studio e nell'apprendimento, adeguando i metodi di insegnamento anche al contesto emotivo dello studente.

Diverse aziende, inoltre, applicano i metodi dell'Affective Computing per studiare le reazioni dei clienti, o dei target di una campagna di marketing e per scoprire su quali reazioni emotive poter lavorare per guidare un certo comportamento d'acquisto.

È il caso dell'azienda italiana Emotiva. «Abbiamo applicato l'Affective Computing allo studio del comportamento dei consumatori», spiega a Changes il Co-founder Andrea Sempi. “La nostra è una analisi predittiva che cerca di capire «l'attivazione dei muscoli facciali, ovviamente con il consenso delle persone analizzate». Qui non c'è una risposta verbale (come avviene per esempio nelle tradizionali survey telefoniche o nei focus group), ma inconscia​, quindi meno viziata dal contesto.

Un'ultima doverosa precisazione: le emozioni umane e la loro espressione non sono tutte uguali, ma cambiano da soggetto a soggetto, e sono spesso influenzate dalla cultura di appartene​nza di ciascuno di noi. «Questa differenziazione interindividuale complica la situazione – osserva Alessandra Sciutti - Ecco perché oggi abbiamo bisogno di un approccio ancor di più interdisciplinare per affrontare questa nostra ennesima sfida». ​

 

 

Guida autonoma: tra sogno e realtà<img alt="" src="/PublishingImages/futuro%20guida%20autonoma.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/guida-autonomaGuida autonoma: tra sogno e realtàVetture che guidano da sole: è veramente imminente il loro ingresso sul mercato? Potremo utilizzarle presto? Gianfranco-Burzio2022-01-19T23:00:00Zhttps://changes.unipol.it
NFT: una rivoluzione appena iniziata<img alt="" src="/PublishingImages/nft.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/nftNFT: una rivoluzione appena iniziataIl mercato dei Non-fungible Token nel 2021 è esploso e sempre più oggetti digitali sono certificati e venduti tramite questa modalità. Ma come funzionano e quali sono le loro applicazioni future nel “mondo reale”? Luca-Politi2021-12-27T23:00:00Zhttps://changes.unipol.it
La tecnologia non è neutra <img alt="" src="/PublishingImages/tecnologia%20non%20è%20neutra.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/tecnologia-neutraLa tecnologia non è neutra Le tecnologie intellettuali come l’orologio e la macchina così come quelle digitali hanno un’influenza diretta sul nostro pensiero.Monica-Bormetti2021-12-08T23:00:00Zhttps://changes.unipol.it
Il metaverso entra in tv<img alt="" src="/PublishingImages/metaverso-televisione.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/metaverso-televisioneIl metaverso entra in tvLa televisione si trasferisce nell’universo Android, iOS, Apple, Google, Amazon, Meta. E questo avrà impatti fortissimi sia sui contenuti audiovisivi e sull’hardware degli apparecchi. Claudio-Plazzotta2021-11-30T23:00:00Zhttps://changes.unipol.it
Nel collo di bottiglia dei chip<img alt="" src="/PublishingImages/crisi-chip.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/crisi-chipNel collo di bottiglia dei chipLa domanda di beni elettronici e di energia pulita è esplosa. Le materie prima mancano. Perché la transizione verso la sostenibilità ha mandato in crisi domanda e offerta.Luca-Politi2021-11-14T23:00:00Zhttps://changes.unipol.it

 

 

Il virus nemico del sonno <img alt="" src="/PublishingImages/covid%20sonno.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/covid-sonnoIl virus nemico del sonno Il diffondersi della pandemia ha modificato le abitudini notturne delle persone e ha cambiato il tempo e la qualità del dormire. Le ricadute sulla salute.Roberta-Lazzarini2021-01-26T23:00:00Zhttps://changes.unipol.it
Clima 2022: serve un’alleanza per la transizione<img alt="" src="/PublishingImages/transizione%20sostenibile.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/transizione-sostenibileClima 2022: serve un’alleanza per la transizioneEcologica o sostenibile? La strada per il cambiamento e la salvaguardia del Pianeta è aperta. Ma la partita va giocata tutti insieme.Grammenos-Mastrojeni2022-01-11T23:00:00Zhttps://changes.unipol.it
C’è una second life per le batterie<img alt="" src="/PublishingImages/seconda%20vita%20batterie.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/seconda-vita-batterieC’è una second life per le batterieIl deperimento della “benzina sostenibile” delle auto elettriche è lento. Dopo una decina d'anni la densità energetica cala ma possono essere impiegate per altri usi.Elena-Comelli2022-01-12T23:00:00Zhttps://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD