Gentile Utente, ti informiamo che questo sito fa uso di cookie propri e di altri siti al fine di rendere i propri servizi il più possibile efficienti e semplici da utilizzare.
Se vuoi saperne di più o esprimere le tue preferenze sull'uso dei singoli cookie, clicca qui
Se accedi ad un qualunque elemento sottostante questo banner, acconsenti all'uso dei cookie.
Changes - il magazine del Gruppo Unipol > Faccia a faccia con i robot

Faccia a faccia con i robot

Technology

Perché inseguiamo la fisionomia umana anche quando costruiamo macchine? La robotica è diventata sociale e crea emozioni. Changes ne ha parlato con Luisa Damiano.

Può un robot interagire alla pari con l'uomo? È possibile installare le nostre emozioni al suo interno? E le macchine riusciranno mai a cogliere lo stato d'animo di una persona in carne ed ossa? C'è chi sostiene che guadagneranno presto un livello di autonomia e di singolarità decisionale. C'è chi, invece, limita le loro competenze a mansioni specifiche, predeterminate dall'uomo. Di sicuro, però, dopo averle concepite, le guardiamo e proviamo a rifletterci in loro. Ne avvertiamo un'assoluta necessità. Due occhi, due braccia, due gambe. E poi due orecchie, un naso e una bocca. Perché inseguiamo la fisionomia dell'uomo anche mentre concepiamo delle macchine? «Nel campo della robotica sociale è ritenuto fondamentale dotare i robot della capacità di comunicare con gli umani al livello delle emozioni. Si tratta di un ingrediente essenziale della presenza sociale dei robot, cioè della loro capacità di presentarsi agli umani. Più precisamente: essere riconoscibili dagli umani come altri agenti sociali, non meri strumenti, ma agenti con cui è possibile interagire socialmente», spiega a Changes Luisa Damiano, docente di Filosofia della Scienza all'Università di Messina.  

Del resto per esperire le emozioni che proviamo, le espressioni facciali e la gestualità restano i nostri strumenti primari. Così ci aspettiamo che anche le macchine con cui ci relazioniamo mostrino un lato “umano" tutto loro, espresso - perché no - anche mediante una verosimiglianza corporea con l'uomo. È una riflessione proposta già negli anni Settanta da Masahiro Mori, pioniere degli studi sulla reazione emotiva dell'uomo verso robot e macchine. Secondo lo studioso giapponese i robot suscitano nell'uomo un senso di familiarità maggiore se aggiungono elementi realistici al loro corredo fisionomico. Braccia, gambe, tratti facciali stimolano nell'uomo la volontà di instaurare un rapporto con le macchine. 

«L'empatia artificiale è un'etichetta che abbiamo introdotto per definire agenti robotici capaci di interagire con gli umani attraverso segnali affettivi o emozionali», ragiona la prof.ssa Damiano, autrice di Vivere con i robot (Raffaello Cortina, Milano, 2019, pp. 220) assieme a Paul Dumouchel, docente di Filosofia alla Ritsumeikan University di Kyoto. «Ma la nostra tesi sull'empatia artificiale e la robotica delle emozioni non implementa la visione classica delle emozioni, che le definisce come eventi soggettivi, individuali e privati. I robot non esperiscono emozioni, né dispongono di meccanismi che possono generare esperienze emozionali. Dispongono invece di meccanismi per coordinare le loro espressioni emozionali a quelle degli utenti, attraverso posture, espressioni facciali, gesti, comunicazione verbale. E attraverso la capacità di coordinare le loro espressioni emozionali con le nostre, ci coinvolgono in interazioni con coloriture affettive che hanno caratteristiche specifiche. E come sosteniamo, vanno prese sul serio e studiate, nelle loro peculiarità e nei loro effetti sull'uomo».

E così se nelle scuole i robot sociali iniziano a essere impiegati come mediatori educativi o terapeutici, in particolare per aiutare i bambini con bisogni speciali a sviluppare le loro competenze sociali come riconoscere le emozioni altrui e imparare a modulare opportunamente la forza esercitata nei contatti fisici con gli altri, in Giappone è diffusa la pratica di consegnare gli anziani ospiti di case di cura all'assistenza dei robot. E in molti hanno testimoniato di preferire il rapporto con i robot che forniscono loro assistenza, al rapporto con assistenti in carne ed ossa, dal momento che non si sentirebbero giudicati, né in una condizione di subordinazione assistenziale.

«È comprensibile che le persone anziane, in particolare quando vivono situazioni delicate di perdita di autonomia, prediligano contesti in cui non si sentono esposte al giudizio altrui. Ma il ricorso a supporti robotici per lo svolgimento di alcuni compiti può offrire alle persone anziane una maggiore autonomia, generando una sensazione più forte di indipendenza. E inoltre alleggerire il carico degli operatori, le cui condizioni di lavoro sono generalmente difficili. In questo senso riteniamo i robot connettori sociali, mediatori atti a migliorare le relazioni sociali tra umani», ragiona Luisa Damiano.

L'etica, naturalmente, gioca un ruolo-chiave nell'interazione tra oggetti tecnologici e persone, in particolare quando gli ambiti applicativi coinvolgono anziani e bambini. Le domande si moltiplicano: si può ad esempio evitare che gli assistiti diventino oggetto di discriminazione da parte degli assistenti robotici, volti a privilegiare - inconsapevolmente - le urgenze di alcuni pazienti e non di altri?  «L'obiettivo è produrre regole capaci di rispondere alla novità. L'abbiamo chiamata etica sintetica, ovvero un'indagine etica sui robot sociali condotta insieme da filosofi e robotici, ma anche da antropologi, psicologi, sociologi. Deve trattarsi di indagini interdisciplinari sugli aspetti etici delle interazioni sociali e affettive uomo-robot dirette a produrre linee-guida e indicazioni traducibili in soluzioni applicative concrete. Allo stesso tempo l'etica sintetica vuole sfruttare i robot sociali come strumenti per studiare e comprendere meglio noi umani come agenti etici. Come si trasformano le nostre condotte etiche quando interagiamo con i robot sociali? Come cambiano le nostre scelte valoriali nei contesti interattivi uomo-robot caratterizzati dall'instaurarsi di forme di coordinazione affettiva? Rispondere a queste domande è essenziale per il futuro dell'evoluzione sociale e morale della nostra specie», spiega la docente dell'ateneo siciliano.

E se c'è chi agita la minaccia della marcia infernale di macchine ormai autonome, potenzialmente nocive per l'uomo che ha contribuito a concepirle, la scala delle priorità, secondo Damiano, prevede un gradino superiore: «Il pericolo che attualmente ci minaccia non è un'autonomia delle macchine tale da generare la singolarità. La vera minaccia risiede nel fatto che l'intelligenza artificiale sta concentrando il potere in un numero sempre minore di individui, rendendo sempre più difficile attribuire loro la responsabilità delle loro azioni. Questo problema, pur avendo una evidente dimensione tecnica, è un problema politico. È il problema del potere di alcuni sugli altri e, inseparabilmente, il problema della legittimità di tale potere. Se assumiamo questa prospettiva, la questione della singolarità appare come l'oppio dei popoli. E degli intellettuali».​

 

 

È tempo di professional branding<img alt="" src="/PublishingImages/professional%20branding.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/professional-brandingÈ tempo di professional brandingIl tempo della ricreazione in rete è finito: la crisi del mondo del lavoro morde. Quando possiamo lasciare tracce di noi su Internet, facciamolo seminando delle “molliche” professionali. Filippo-Poletti2021-03-03T23:00:00Zhttps://changes.unipol.it
Privacy: le stanze senza muri di Clubhouse <img alt="" src="/PublishingImages/TECHNOLOGY%20Clubhouse.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/clubhouse-privacyPrivacy: le stanze senza muri di Clubhouse È il social del momento. Si basa sulla voce e ha già attirato l’attenzione di esperti e appassionati, ma non solo. Da Roma ad Amburgo, a Clubhouse guardano con interesse e crescente preoccupazione anche i Garanti della Privacy. Ecco perché.Luca-Politi2021-02-23T23:00:00Zhttps://changes.unipol.it
La piattaforma ci salverà?<img alt="" src="/PublishingImages/platform%20economy.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/platform-economyLa piattaforma ci salverà?La Platform Economy è un modello di business basato sui dati e sull’incrocio tra domanda e offerta in un campo digitale. Le prospettive sono rosee, nonostante la crisi. Ma i problemi di sostenibilità ed equità sono irrisolti.Luca-Politi2021-02-17T23:00:00Zhttps://changes.unipol.it
Cortocircuito social<img alt="" src="/PublishingImages/social%20violante.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/cortocircuito-social-violanteCortocircuito socialTwitter blocca Trump, TikTok e Instagram solo ora si preoccupano dei minori. C’è un vuoto normativo in rete e una catena che rischia di promuovere l’estremismo. Changes ne ha parlato con Luciano Violante. Nicola-Di-Turi2021-02-07T23:00:00Zhttps://changes.unipol.it
Insicuri a casa propria<img alt="" src="/PublishingImages/sicurezza%20domotica.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/sicurezza-domoticaInsicuri a casa propriaNegli ultimi anni, ancora prima della Pandemia, è cresciuto il senso di insicurezza domestica degli italiani. La tecnologia ha offerto un prezioso salvagente, forse solo consolatorio. Ma perché ci sentiamo sempre più in pericolo tra le mura di casa?Luca-Politi2021-02-01T23:00:00Zhttps://changes.unipol.it

 

 

Il virus nemico del sonno <img alt="" src="/PublishingImages/covid%20sonno.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/covid-sonnoIl virus nemico del sonno Il diffondersi della pandemia ha modificato le abitudini notturne delle persone e ha cambiato il tempo e la qualità del dormire. Le ricadute sulla salute.Roberta-Lazzarini2021-01-26T23:00:00Zhttps://changes.unipol.it
Significati e significanti: le parole cambiano e ci cambiano<img alt="" src="/PublishingImages/parole-virus.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/parole-virusSignificati e significanti: le parole cambiano e ci cambianoA un anno dall’inizio della pandemia, anche le cose che diciamo sono diverse. Tra vecchi e nuovi termini abbiamo dovuto imparare un altro linguaggio, per definire l’incertezza.Diana-De-Caprio2021-02-23T23:00:00Zhttps://changes.unipol.it
C’è bisogno di una slow-sharing<img alt="" src="/PublishingImages/slow-sharing.jpg" style="BORDER:0px solid;" />https://changes.unipol.it/slow-sharingC’è bisogno di una slow-sharingDopo gli anni della ricerca ossessiva di scalabilità, profitti e quotazioni veloci, l’economia della condivisione si converte a un tempo lento e si concentra su uno schema nuovo ispirato al modello cooperativo.Antonio-Belloni2021-02-24T23:00:00Zhttps://changes.unipol.it

SEGUI GRUPPO UNIPOL
TAG CLOUD