Grazie all’intelligenza artificiale è partita una corsa per allenare modelli sempre più efficienti nel campo delle traduzioni. E tra i protagonisti di questo scenario c’è anche un esempio tutto italiano.
Settemila cento quarantasei. Secondo l’autorevole database di Ethnologue ammontano a tanto le lingue parlate nel mondo. Una cifra enorme, che ben ci racconta la complessità dello scenario linguistico del pianeta. Un mondo unito dalla comunicazione globale, ma ancora diviso dalle tante barriere linguistiche. Tuttavia, nei prossimi decenni ad abbattere questi muri potrebbe concorrere in via determinante anche la tecnologia digitale, che con la diffusione dell’intelligenza artificiale sta trovando soluzioni sempre più efficaci per raggiungere il grande sogno del traduttore universale.
Altro che fantascienza, qui Star Trek (dove lo strumento era diffusissimo e rappresentato in diversi modi) non c’entra niente. Lungo la strada del traduttore universale si è invece scatenata una molto più realistica competizione economico-tecnologica tra i principali big del digitale.
L’Universal Speech Model di Google
Google che sta lavorando da anni per sviluppare un modello linguistico universale capace di supportare migliaia di lingue del mondo. Si chiama USM, Universal Speech Model ed è alla base del programma 1000 Languages Initiative con cui Palo Alto vuole sfruttare le capacità del machine learning per allenare i propri sistemi. Il modello, in sostanza, permetterebbe la traduzione istantanea di frasi scritte o vocali nei vari linguaggi, senza ostacoli. I numeri del modello di Google, d’altronde, sono impressionanti: si parla di due miliardi di parametri allenati con 12 milioni di ore di parlato, 28 miliardi di frasi e al momento 300 lingue. Dati, che, come tipico dei Large Language Model, sono destinati ad aumentare esponenzialmente nel corso degli anni.
Il sistema Seamless di Meta
Il guanto della sfida al traduttore universale lanciato da Google è stato recentemente colto anche da Meta che ha sviluppato Seamless, un sistema che traduce il parlato in 36 lingue diverse in tempo reale. Il più avanzato tra i modelli sviluppati da Meta si chiama SEAMLESSM4T v2 e al momento promette di tradurre 101 lingue sorgente in 36 lingue di output. Il sistema traduce agevolmente il testo in testo, riconosce le voci in 96 lingue diverse, traduce dal parlato a testo da 101 a 96 lingue e da testo a parlato da 96 a 36 lingue. Non solo, Meta ha anche sviluppato SeamlessStreaming per la traduzione simultanea mentre si parla, come fosse un interprete umano e SeamlessExpressive, che produce un effetto simile ai deepfake, ovvero conserva le caratteristiche tipiche di una voce, facendo però parlare il soggetto in un altro linguaggio.
Il traduttore multimediale di Chat-GPT4o
Open AI con il suo modello Chat-GPT4o, ha sviluppato un sistema che riesce a gestire in maniera simultanea e integrata testo, voce e video. Un’intelligenza generativa multimediale che rispetto alle precedenti versioni processa dati e offre output in maniera molto più veloce. Un’altra caratteristica di questo modello lanciato da Open AI è la sua capacità di interagire in tempo reale con l’utente (per esempio tramite telecamera), ragionando in maniera simultanea e dando così risposte quanto più contestualizzate possibili.
Il supercomputer Leonardo per un’Italia protagonista
Anche il nostro Paese si è iscritto alla corsa verso il traduttore universale con un ruolo tutt’altro che periferico. Questo grazie soprattutto al supercomputer Leonardo, una macchina superpotente capace di compiere calcoli complessissimi e simulazioni molto realistiche. Leonardo è stato inaugurato nel 2022 presso il tecnopolo Cineca di Bologna e da allora ha collaborato a diversi progetti anche nel campo dell’intelligenza artificiale. «Per quel che riguarda i Large Language Model, i nostri sistemi di supercalcolo sono già stati resi disponibili a diversi progetti, fra cui hanno già visto i primi rilasci: MINERVA con la leadership dell’Università La Sapienza di Roma, Modello Italia di igenius start-up con base a Milano, e Velvet, sviluppato dall’azienda italiana Almawave», ha detto a Changes Alessandra Poggiani, direttrice generale di Cineca.
Nel campo della traduzione universale è da segnalare la partnership siglata da Cineca con Translated, startup italiana da anni attiva nel campo dell’uso dell’AI generativa per la ricerca di modelli di traduzione automatica. Un impegno che ha permesso a Translated di lanciare Lara, il traduttore universale basato proprio sugli algoritmi di intelligenza artificiale allenati su enormi dataset.
Il progetto di Translated e Cineca si propone proprio di migliorare il processo di allenamento dei modelli sfruttando l’enorme potenza di calcolo di Leonardo. «In pratica, Traslated potrà accedere a calcolo su Graphics Processing Unit (GPU) di Leonardo per il proprio addestramento e questa grande potenza di calcolo permette un’accelerazione notevole nel processo di training, garantendo rapidi progressi», ci spiega Poggiani che poi precisa: «Il progetto con Translated è già iniziato. Abbiamo già fatto i primi test ed è iniziata la fase di produzione che durerà dai 6 ai 9 mesi».
Ma la sfida che vede in campo Cineca e Translated ha anche un altro valore: quello dell’unione di forze tra il mondo della ricerca e quello del business. A rimarcarlo è la direttrice generale di Cineca: «Il progetto è esemplificativo della sfida che noi di Cineca abbiamo ben in mente: il trasferimento tecnologico dal campo scientifico e della ricerca a quello dell’innovazione di sistema a beneficio anche dell’industria. Il progetto con Translated attiene a questo filone di ricerca applicata all’innovazione, e ci attendiamo benefici importanti per lo sviluppo del mercato». Come dire, davvero in questo caso l’unione fa la forza.
Crediti foto: Rubaitul Azad/Unsplash