Musica e IA: matrimonio di convenienza

Sharing


Musica e IA: matrimonio di convenienza

Molta produzione musicale è già, se non direttamente creata, quanto meno modellata dal pugno di ferro degli algoritmi. Dobbiamo rassegnarci a una creatività artistica ridotta a una serie di parole di chiave?

«It sucks». Non usa mezzi termini, Nick Cave, nel giudicare una canzone «alla Nick Cave» scritta – o meglio: assemblata – da ChatGPT, la chatbot lanciata nel novembre del 2022 diventata immediatamente uno degli argomenti tecnologici caldi degli ultimi mesi, nonché parco giochi per migliaia di esperimenti di questo tipo. Ovvero, creare qualcosa «alla maniera di…» grazie all’Intelligenza Artificiale.

Rispondendo sul suo sito/newsletter The Red Hand Files a un fan che gli sottoponeva un possibile risultato, ottenuto dopo aver fatto ingurgitare e riprocessare a ChatGPT l’opera omnia del musicista, Cave ha rispolverato lo spirito punk di quando era giovane e ha tagliato corto. «Questa roba fa schifo. È una parodia, una grottesca presa in giro». Aggiungendo una considerazione filosofica più meditata e sulla quale forse vale la pena riflettere: «Capisco che ChatGPT sia nella sua infanzia, ma l’aspetto spaventoso dell’Intelligenza artificiale è proprio questo: che sarà sempre nella sua infanzia. Avrà sempre un orizzonte ulteriore a cui tendere, sempre più velocemente. E non può essere rallentata in alcun modo». Insomma: l’apocalisse è vicina, e potrebbe avere il suono di un brutto brano di Nick Cave. O dei Beatles, di George Gerswhin, di Wolfgang Amadeus Mozart e di chiunque altro nella storia dell’umanità abbia creato della musica che oggi costituisce la dieta quotidiana di algoritmi pronti a sfornare miliardi di «computer generated songs».

Da Turing ai programmi open source

La frase «sembra roba suonata da un computer» è stata usata in senso spregiativo per decenni, in genere per indicare musica fredda, asettica, priva di fantasia, infarcita di cliché. Il punto è che se in un domani forse non troppo distante una canzone sembrerà scritta da un computer è perché probabilmente sarà proprio così. «Scritta», naturalmente, è un modo di dire. Ciò che l’IA fa è riconoscere dei pattern, estrarre delle informazioni basiche, fissare degli schemi che vengono poi ricombinati per produrre canzoni «originali» che assomigliano al modello di riferimento. O che ne mescolano diversi. Tutto questo attraverso l’uso di reti neuronali artificiali (modelli matematici che ricalcano le reti neuronali del cervello umano) e delle più raffinate tecnologie di deep learning. Alle origini di questo processo (che molti artisti paventano essere un processo di sostituzione del fattore umano, come nelle peggiori distopie fantascientifiche) c’è un nome leggendario nella storia dell’informatica: quello di Alan Turing. Il matematico inglese ideò all’inizio degli Anni 50, poco prima di morire, una macchina delle dimensioni di un intero laboratorio capace di riprodurre tre semplici melodie. Quarant’anni dopo David Cope approntò il sistema EMI (la sigla, ironicamente uguale a quella della più grande casa discografica britannica, stava per «Experiments in Music Intelligence»), in grado di creare musica nuova nello stile di Johan Sebastian Bach.

In un prossimo futuro, chiunque potrà probabilmente produrre una sinfonia dal suo smartphone. Gli strumenti già ora disponibili sono molti e diversificati. Da Amper, programma open source che permette anche al più dilettante degli aspiranti autori musicali di produrre brani sulla base di parametri fissati preliminarmente (ritmo, genere musicale, atmosfera, ecc.) a Lo-fi Player, brevettato da Google Magenta, stanza virtuale nella quale si possono mixare pezzi hip-hop e lo-fi cambiando le impostazioni (anche qui: tempo, mood, durata, strumenti utilizzati) in base alla variazioni degli elementi nella stanza che quindi fungono da semplice interfaccia. Siccome le canzoni sono fatte di musica e parole, abbiamo intelligenze artificiali perfettamente in grado di scrivere un testo come ad esempio LyricJam, sviluppato da un dipartimento di scienze linguistiche di una università canadese. C’è poi una piattaforma di IA di proprietà di TikTok, Jukedek, che in pochi secondi può fornire a chiunque la preview di un brano personalizzato, che poi si potrà scaricare e possedere con licenza royalty free del costo inferiore a un dollaro.

L’ultimo esempio rende molto chiaro quale è il primo settore a dover tremare in ambito musicale: quello delle library e degli stock, e quindi tutti quei musicisti che campano creando tappeti sonori, jingle e brani strumentali da usare in video e pubblicità. In questo caso sì che, per ovvie ragioni economiche, il famigerato processo di sostituzione è già in atto. Per avere una hit parade completamente figlia dell’Intelligenza Artificiale si dovrà attendere ancora un po’, forse, ma nel frattempo sono già venuti alla ribalta, anche se per ora non con fortune commerciali degne di nota, diversi artisti virtuali. Rapper, trapper, cantanti pop inesistenti ma in qualche modo credibili proprio perché costruiti sull’impronta di centinaia di prototipi simili passati al setaccio dell’IA. Oppure collettivi come gli Auxuman, personaggi in 3-D inventati dall’artista anglo-iraniano Ash Koosha, ciascuno con una sua personalità e in grado di rilasciare dichiarazioni nelle interviste. Qui i vantaggi per una industria discografica del futuro (sempre che gli stessi discografici non vengano soppiantati a loro volta da cyborg o avatar) sono ovvi: una scuderia di artisti che non invecchiano, non hanno cali di ispirazione, non muoiono di overdose e che nel momento in cui passano di moda si possono comodamente…resettare.

Apocalittici vs integrati

Per ora siamo ancora nella fase delle curiosità e degli esperimenti, ma l’accelerazione di cui parlava Nick Cave è sotto gli occhi di tutti. Gli apocalittici come lui mettono in guardia con toni da profeti di sventura, gli integrati come coloro abituati a lavorare creativamente in simbiosi con le macchine (ad esempio artiste come Holly Herndon, Arca, la sempreverde Björk) dicono che non c’è nulla di cui preoccuparsi e che il cosiddetto “fattore umano” sarà sempre determinante. Il ruolo dell’elettronica, in fondo, è una costante nella creazione musicale degli ultimi sessant’anni, benché fin qua in termini solo ausiliari.

D’altra parte, molta della musica attuale è già, se non direttamente creata, quanto meno modellata dal pugno di ferro degli algoritmi. Soprattutto quelli che delineano il profilo della canzone pop ideale in epoca di streaming e calo dell’attenzione generalizzato. Se si esaminano i brani di maggior successo degli ultimi anni ci si accorge che hanno tutti le stesse caratteristiche: cantato e ritornelli subito all’inizio per catturare nei primi venti secondi (solo superati quelli uno streaming equivale a un ascolto, e quindi diventa monetizzabile), incisi strumentali spariti, sempre meno cambi di tonalità e di accordi per venire incontro all’ascolto distratto tipico di tempi in cui la complessità è bandita. Il risultato è esattamente quello che fa orrore a Cave quando ascolta la versione clonata del suo stile: un costante, omogeneo, indistinguibile accrocchio di luoghi comuni.  Citiamo nuovamente l’artista australiano: «Le canzoni nascono dalla sofferenza, dalla complessa battaglia umana, e da quel che ne so gli algoritmi non hanno sentimenti. I dati non soffrono. ChatGPT non ha un essere interiore, non è stata da nessun parte, non ha dovuto affrontare nulla, non ha l’audacia per superare i propri limiti, e di conseguenza la capacità di condividere esperienze che la trascendono». Tutto vero, caro Nick. Ma di quanti artisti in carne e ossa, purtroppo, potremmo dire lo stesso?

Copywriter, giornalista, critico musicale e docente di comunicazione. In pubblicità ha ideato campagne per brand come Fiat, Sanpaolo Intesa, Lancia, Ferrero, 3/Wind. Insegna comunicazione presso lo IAAD di Torino e la Scuola Holden. Collabora con testate quali Rolling Stone, Il Fatto Quotidiano, Rumore. Ha scritto e tradotto diversi volumi di storia e critica musicale per case editrici come Giunti e Arcana.​