Dormiresti mentre l’auto guida da sola?

Ha fatto molto discutere il video diventato virale sul social cinese Weibo di una famiglia profondamente addormentata in un SUV Li Auto L9 che, guidando in autonomia, raggiunge la
La leadership oggi richiede di capire come sta cambiando il processo della presa di decisioni manageriale, in questa ibridizzazione di uomo e macchina.
La reputazione di un’azienda, il suo social standing, si costruisce con fatti, relazioni e gestione dei rischi che possono danneggiare queste relazioni di marca. l’intelligenza artificiale (IA) può supportare il brand in tutto il ciclo del reputation management, nella comprensione delle attese relazionali degli stakeholder, nella produzione rilevante e dinamica di contenuti di branding e nell’ efficienza della loro distribuzione. Può anche aiutare a gestire i rischi e le crisi, anticipando e prevedendo eventi e comportamenti dannosi e potenziando la precisione e velocità di comunicazione durante la gestione del rischio relazionale e reputazionale.
Abbiamo imparato negli ultimi anni a fare leva sulle risorse predittive del machine learning, che hanno rivoluzionato – dentro a più ampie trasformazioni digitali delle supply chain e dei business – i sistemi di interazione con i clienti e gli altri stakeholder, rendendo possibile la personalizzazione dei contenuti di branding, delle raccomandazioni in ambito commerciale e delle risposte/interazioni di customer service. Abbiamo anche assistito alla ancora più stupefacente automazione del listening del cliente, nella modalità non strutturata delle conversazioni social e delle interfacce testuali e voice, grazie al Natural Language Processing, reso possibile nuovi sistemi a reti neurali. Il NLP e l’IA predittiva sono diventate sempre più sofisticate, sfruttando anche grandi volumi di dati per prevedere rischi reputazionali e il sentiment degli stakeholder, anche in contesti di conversazioni di significato ambiguo. Analizzando tendenze sui social media, cicli di notizie e persino comunicazioni interne, questa tecnologia consente alle aziende di identificare potenziali crisi prima che si aggravino. Una grande azienda di servizio ha utilizzato l’IA predittiva per monitorare il sentiment sui social media durante il lancio di un nuovo programma di fedeltà. Il sistema ha segnalato un’ondata crescente di feedback negativi riguardo alle percepite disuguaglianze nella struttura dei premi del programma. Cambiando rapidamente lo schema, si è mitigata una potenziale crisi di relazione con i propri clienti. Tuttavia, non sempre la macchina riesce ad interpretare correttamente il significato di testi e conversazioni in linguaggio naturale. Capita che questi sistemi interpretino erroneamente tweet sarcastici come feedback positivi, con le conseguenze negative immaginabili.
Negli ultimi 2 anni l’innovazione in ambito IA si è accelerata oltre ogni precedente previsione, con progressi in particolare nella generative e agentic IA. Modelli di Linguaggio di Grandi Dimensioni (LLM) come GPT-4 e DALL-E di OpenAI, Gemini di Google e Claude di Anthropic, ma anche il più recente Deepseek di fattura cinese, hanno cominciato ad offrire capacità generative senza precedenti con la creazione di contenuti, risposte, immagini, idee e coding.
Nel 2024, Coca-Cola ha lanciato una campagna di marketing globale utilizzando l’IA generativa per creare annunci pubblicitari personalizzati. Secondo l’azienda, la campagna ha portato a un aumento significativo sia dell’engagement dei clienti che a un significativo incremento della fedeltà al brand.
I sistemi di generative IA sono diventate di uso comune e di grande utilità. A volte però le risposte e raccomandazioni che ne emergono contengono errori (allucinazioni) e valutazioni viziate da pregiudizi e opinioni eticamente discutibili, non sempre facili da identificare, soprattutto se l’operatore umano non è competente sull’ argomento e non adotta le regole di base di una interazione di qualità con la macchina (prompt engineering).
La gestione di questi rischi IA-based prevede che si lavori a più livelli sulla qualità dei processi, a partire dai dati per il training dei sistemi, che diventano tanto più affidabili quanto più sono validati localmente ma anche quanto più sono proprietari e/o comunque specializzati. Ecco da dove nascono i grandi progetti in collaborazione tra i grandi brand e le grandi tech companies. Molte aziende del pharma hanno da subito tirato la volata degli investimenti in questi sistemi proprietari. È del 2024 invece che Coca Cola ha annunciato una partnership da più di un miliardo di dollari con Microsoft.
Questi danni possono anche essere parte di progetti di attacchi al brand. La capacità di creare contenuti iperrealistici ma falsi, come fake news o video deepfake è stata sfruttata per danneggiare la reputazione di manager e aziende. E la minaccia può arrivare anche dall’interno. È noto il caso di un ex dipendente di un’azienda tecnologica che ha utilizzato un LLM per creare e rendere pubblici falsi memo interni, che descrivevano comportamenti aziendali non etici. Questi esempi evidenziano la necessità di meccanismi di verifica robusti e di misure di cybersecurity per proteggersi da attacchi reputazionali guidati dall’ IA, particolarmente importanti in una fase in cui la distribuzione algoritmica dei contenuti sui social media privilegia e potenzia i contenuti adversarial e a forte impatto emotivo (fonte: università di Cambridge), senza più seri controlli editoriali delle fake news. Nel 2023, Unilever ha collaborato con una startup tecnologica per sviluppare un sistema di IA in grado di rilevare e segnalare fake news sui suoi brand in tempo reale.
Ma la sfida forse più problematica proviene dall’Agentic IA, che coinvolge agenti in grado di prendere decisioni e agire autonomamente. La letteratura riporta casi di dealer che hanno venduto automobili per 1 euro e un’azienda finanziaria messa sotto accusa per comportamenti discriminatori contro le minoranze, a causa dell’assegnazione di finanziamenti effettuata dal suo bot. Certo è importante che gli agenti IA rispondano a criteri di trasparenza, responsabilità e allineamento IA valori aziendali. Ma questo non è sempre possibile dando delega totale alle macchine, perché le decisioni su problemi complessi (non lineari, a variabili incerte e con soluzioni multiple come la gran parte delle decisioni che coinvolgono relazioni e comunità sociali) le prende ancora meglio l’uomo, con la sua capacità di adattamento, l’immaginazione, l’empatia e la capacità di navigare i dilemmi etici. Il futuro degli agenti IA è quindi un futuro fatto di ricca ma anche variabile interazione con i decisori umani. La leadership oggi richiede di capire come sta cambiando il processo della presa di decisioni manageriale, in questa ibridizzazione di uomo e macchina. Come ci ricorda un recente articolo di Mike Walsh in Harvard Business Review è necessario ridisegnare al livello strategico i processi decisionali che coinvolgano gli IA-powered systems sulla scala dell’intera organizzazione.
Foto credito: Cash Macanaya/Unsplash