La musica è finita. E non è colpa dell’IA
Dopo secoli di armonie, la musica tonale sembra essersi chiusa su se stessa. Lo prova l’IA, che oggi compone hit perfettamente umane.
Intanto, grazie per le tante risposte al sondaggio. Diciamo che ha vinto senza alcun dubbio il lunedì. Più della metà dei votanti si è espresso per lasciar tutto com’è oggi. Purtroppo ha votato una piccola parte dei lettori, ma capisco che per farlo occorre un account Substack e non tutti hanno voglia di farlo.
È da molto tempo che ho in mente di scrivere questa Insalata. Qualcosa, però, mi ha sempre frenato. Dire che la musica — così come la conosciamo — ha raggiunto i suoi limiti, che non si possa più scrivere nulla di davvero originale, può essere complicato da accettare. Anzi, chi sostiene questo rischia di passare per quello che vuole salire in cattedra e parlare di un certo tipo di musica come se fosse migliore di quella che ascoltano gli altri.
Perché mi sono deciso ad affrontare l’argomento proprio adesso? Perché questa settimana ho avuto una nuova epifania grazie a uno strumento che permette di fare musica tramite (indovinate un po’?) l’intelligenza artificiale. E posso dire che da una settimana non faccio altro.
Lo strumento si chiama Suno, molti di voi lo conosceranno. Io stesso ci avevo già giocato tempo fa. Giocato, appunto — mentre questa volta ci ho dato dentro in maniera più approfondita.
In particolare, ho voluto provare a farmi “rimasterizzare” alcuni vecchi brani che avevo scritto da ragazzo, quando comporre musica con i tracker o i sequencer era il mio passatempo preferito. Quando ho ascoltato il risultato sono rimasto un po’ scioccato, lo ammetto. Quello che questi strumenti sono in grado di fare è davvero incredibile: non generano soltanto brani perfettamente credibili, ma — come nel caso di un pezzo per chitarra solista — il risultato aveva stile, gusto, sentimento. E quegli stessi sentimenti li hanno suscitati in me mentre ascoltavo.
In questo piccolo esempio potrete ascoltare il brano in versione midi che ho caricato su Suno e dal secondo 28 la versione che ha proposto l’IA grazie a un piccolo prompt che le ho sottoposto.
E allora c’è un punto su cui riflettere: se una macchina è riuscita a replicare il “tocco magico” di un chitarrista in carne e ossa, significa che anche quel tocco magico è schematizzabile, classificabile, riproducibile. Lo stesso vale per le canzoni: se un’IA riesce a creare da zero un brano che non sfigurerebbe nelle classifiche di ascolto — o persino in un evento come Sanremo — allora vuol dire che è tutto prevedibile, tutto già fatto, tutto già ascoltato.
Ed eccoci qui, dunque, a riprendere ciò che molti musicisti e compositori avevano intuito già nel Novecento. La musica — quantomeno quella tonale (vedremo più avanti di cosa si tratta) — ha raggiunto un suo limite intrinseco. Non la musica in assoluto, sia chiaro, ma quella imbrigliata dentro gli schemi della tonalità, che resiste da secoli e che ormai ha visto tentare tutte le combinazioni possibili, seppure sia stata forzata in ogni modo da musicisti illuminati.
La musica, per come la conosciamo, ha detto tutto quello che poteva. E la prova è qui: in un’IA che può creare qualcosa che un essere umano produrrebbe senza difficoltà. «Ma come? L’IA non è in grado di creare!» Giusta obiezione: infatti l’IA non crea davvero — rimescola. Ed è proprio perché tutto è già stato detto che riesce a produrre qualcosa di assolutamente credibile.
Poi, certo, ci sono mille distinzioni, lo vedremo. La musica infatti non è soltanto melodia e armonia: è anche testo, lirica, poesia. Non conosco abbastanza la materia per poterlo dire con certezza, ma sono abbastanza convinto che anche sotto quel punto di vista, quello del testo — visti i risultati raggiunti dall’IA — si possa pensare che un certo limite sia stato raggiunto. Io però mi limiterò alla musica.
In questa Insalata scoprirete quindi cos’è la musica tonale, da dove è nata e dove è arrivata; chi ha tentato di superarla, chi ha già fatto un passo più in là e perché una larga parte della musica che ascoltiamo oggi non è altro che un rimescolamento di cose già ascoltate.
Dalla nascita all’esaurimento del linguaggio tonale
Per tre secoli la musica occidentale è vissuta dentro un’architettura perfetta. La tonalità — il sistema che ordina i suoni attorno a un centro, la tonica — è stata una delle invenzioni più potenti della cultura europea.
Con Bach la struttura divenne geometria. Ne “Il clavicembalo ben temperato” la tonalità trovò il suo equilibrio perfetto, come un edificio completato dopo secoli di costruzione. Con Mozart la tonalità acquista una fluida eleganza; con Beethoven diventa materia viva, passionale, capace di raggiungere le più alte vette del dramma. Ogni nota trova senso nella tensione e nella risoluzione, come una frase che deve finire con il punto giusto.
Il sistema tonale crea una grammatica precisa: tutte le frasi, tutte le melodie devono partire da un punto, attraversare un percorso di tensioni e risoluzioni, e tornare infine alla distensione della tonica (da cui il termine “tonale”). Questa Insalata non vuole certo essere un corso di armonia, ma basti sapere che la “tonalità” è quella che dà il nome al brano. Quando si dice che un pezzo è in “Do maggiore”, ad esempio, si sta proprio indicando il suo centro tonale.
Questa grammatica ha retto la musica per secoli — diciamo da metà Cinquecento fino a fine Ottocento. Poi succede qualcosa: il sistema comincia a mostrare i suoi limiti, e qualcuno prova a superarlo. Wagner, nel Tristano e Isotta, allunga la catena delle dominanti fino a sospendere la risoluzione (è famosissimo il “Tristan Chord”, l’accordo di Tristano. Nel video qui di seguito un grande maestro lo spiega meglio di quanto potrei fare io).
La distensione del ritorno alla tonica viene forzata, prolungando all’infinito il momento della tensione. La musica diventa desiderio puro, mai appagato. Debussy, poco dopo, rompe definitivamente il sistema: dissolve le regole nella luce del colore, sostituisce la tensione con l’atmosfera. È la prima crepa nella cupola di cristallo della tonalità.
Poi arriva il colpo di martello: Arnold Schönberg. Tra il 1908 e il 1923 (più di un secolo fa, pensate), con opere come Pierrot Lunaire e la nascita della dodecafonia, Schönberg elimina la gerarchia dei suoni: non esiste più una nota “principale”, tutte hanno lo stesso diritto. È la rivoluzione copernicana della musica. Da lì in avanti, i suoi allievi Alban Berg e Anton Webern portano il nuovo linguaggio alle estreme conseguenze: musica fatta di frammenti, di cellule sonore che si rispondono come riflessi, senza più centro né gravità. È l’inizio della musica atonale, dove la tonalità — come sistema di senso — muore ufficialmente.
Vi lascio qui sopra un video dove Samuel Andreyev spiega “Pierrot Lunaire” di Schoenberg: vedrete che la maggior parte di voi non capirà quello che ascolterà. Tranquilli, siete in buona compagnia. Io stesso non posso dire di ascoltarlo per il puro piacere di ascoltare qualcosa, almeno non nel senso in cui si ascolta una canzone. Questo perché siamo cresciuti in un contesto dove la tonalità è ancora predominante. Il nostro orecchio, o meglio il nostro cervello, è programmato per aspettarsi quella precisa successione di tensioni e risoluzioni che interpretiamo come naturali — ma che, in realtà, sono una costruzione culturale durata secoli.
La tonalità, però, non è sparita dopo la scoperta dell’atonalità. Mentre la musica “colta” sperimentava l’assenza di un centro, quella “popolare” continuava a parlarne con disinvoltura. E sì, so che il termine “musica colta” può infastidire qualcuno, però non va letto come qualcosa di superiore. No, serve a distinguere la musica d’arte — quella dei compositori che lavorano come fossero quasi dei ricercatori del suono — dalla musica di consumo, quella che ascoltiamo per il piacere di farlo.
In ogni caso, la musica tonale nel Novecento ha continuato a forzare i limiti di un sistema che aveva già detto tutto. A tutto questo si aggiunse una nuova componente: l’arrangiamento. Grazie ai nuovi strumenti elettrici ed elettronici, la musica acquisì un altro respiro e un universo di colori inesplorato.
Il jazz, per esempio, nacque dentro la tonalità ma la forzò come nessuno: la piegò, la estese, la contaminò. Dal blues e dal bebop fino a John Coltrane, la tonalità divenne un elastico tirato fino a spezzarsi. Il modal jazz di Miles Davis e il free jazz di Ornette Coleman liberarono definitivamente la melodia dal dovere di “tornare a casa”. Nel jazz moderno la tonalità sopravvive come un fantasma: riconoscibile ma mai stabile, più una suggestione che una regola.
Nel frattempo, la cultura popolare del secondo Novecento scopriva un’altra via di fuga. Il rock mantenne la tonalità come struttura portante, ma ne esaltò il lato fisico, la ripetizione dei riff, l’impatto potente — anche grazie a chitarre, bassi elettrici e sintetizzatori. Sotto il fronte del rock e del metal arrivarono i King Crimson, i Tool, i Meshuggah, pionieri del metal e del progressive.
Lì la musica divenne post-tonale, costruita su pattern ritmici e dissonanze più che su progressioni armoniche. La tensione non si risolveva più: si accumulava. Il centro tonale non spariva, ma diventava irrilevante, sostituito da un’idea puramente architettonica del suono.
Nell’ambito “colto”, invece, a metà del Novecento arrivò a sconquassare definitivamente tutto John Cage, che compì l’ultimo passo: negò che la musica dovesse esistere un “sistema” di note ordinate. Curiosità: Cage, tra le altre cose, partecipò nel 1959 a “Lascia o raddoppia” con Mike Bongiorno dimostrando che un tempo la distanza tra musica “colta” e contesto “popolare” non era poi così grande.
Con 4’33’’ del 1952, fece sedere un pianista davanti allo strumento per quattro minuti e trentatré secondi di silenzio. In realtà, non era silenzio: erano i suoni dell’ambiente, i colpi di tosse, i respiri, i rumori della sala. Cage capovolse il concetto: non esiste il silenzio. Tutto è suono, e tutto il suono è musica. Fu la dissoluzione completa della tonalità e, insieme, della distinzione stessa tra suono e musica.
Dal Barocco a Cage, il percorso è quello di un linguaggio che si consuma esplorando ogni possibile combinazione. La tonalità ha creato meraviglie, ma è un linguaggio finito: una grammatica che, dopo secoli di uso, non produce più stupore. Il jazz l’ha allungata, il metal l’ha deformata, Schönberg e Berg l’hanno disintegrata, Cage l’ha oltrepassata.
Oggi la musica vive nei frammenti di tutti questi mondi — armonici, modali, ritmici, algoritmici — ma la lingua madre, la tonalità, è ormai come il latino: perfettamente leggibile, ma non più viva.
L’intelligenza artificiale come prova della fine della tonalità
Se il Novecento ha messo in crisi la tonalità, il XXI secolo l’ha sezionata. Non per distruggerla, ma per comprenderla al punto da poterla replicare matematicamente.
La musica tonale — quella che ha dominato dal Settecento fino a oggi — si fonda su regole estremamente coerenti: progressioni prevedibili, simmetrie, cadenze. È un linguaggio con una grammatica talmente chiara da poter essere appresa da una macchina.
Le intelligenze artificiali come Suno, Udio, Mubert o Aiva lo dimostrano con una precisione quasi inquietante. Date poche istruzioni — “una ballata romantica in stile Sanremo”, “una hit pop estiva alla xxx” — in pochi secondi producono canzoni perfettamente plausibili. Non parodie, ma brani strutturalmente corretti, melodicamente coerenti, armonicamente ortodossi. Funzionano perché il sistema tonale è prevedibile: ciò che per secoli abbiamo percepito come “emozione” è, da un punto di vista formale, un insieme di schemi codificabili.
Nel 2017 uno studio di Cancino-Chacón e colleghi ha mostrato che una rete neurale, addestrata su migliaia di brani di Bach, Mozart e dei Beatles, riesce a prevedere con elevata accuratezza la nota successiva di una melodia tonale. È la prova empirica di ciò che molti compositori del Novecento avevano intuito: la tonalità è un sistema chiuso, logicamente completo, e proprio per questo imitabile. L’intelligenza artificiale non ha bisogno di “ispirazione” per comporre in Do maggiore: basta che riconosca le relazioni statistiche tra le note e la funzione degli accordi. E l’intelligenza artificiale, ormai l’avrete capito, vive di relazioni statistiche.
Il risultato è spiazzante. Dove l’uomo cercava originalità, la macchina trova ripetizione. Eppure, la canzone che produce ci commuove lo stesso, perché parla la lingua che conosciamo — una lingua ormai troppo umana per essere ancora nostra. Si potrebbe dire che l’AI non ha ucciso la musica tonale: l’ha perfezionata fino all’inevitabile. Ha dimostrato che l’armonia, così come l’abbiamo conosciuta, è un sistema finito, una grammatica esausta. E forse proprio questo segna il confine tra la musica come arte e la musica come dato: quando una macchina può generare in pochi secondi una melodia che sembra uscita da Sanremo, significa che quel linguaggio è completamente mappato — e quindi, in un certo senso, finito.
Ma non è la fine della musica. È la fine di un paradigma. Perché ogni volta che un linguaggio si esaurisce, ne nasce un altro. E oggi, dopo secoli di centri tonali e dominanti, il centro non è più la nota: è il suono stesso, nel senso più pieno che John Cage aveva già intuito settant’anni fa.
Dopo la tonalità: il suono come nuova forma di musica
Quando un linguaggio si esaurisce, non scompare: cambia forma. Così, anche dopo la fine della tonalità, la musica non è morta. Si è disciolta — come un pigmento nell’acqua — in una moltitudine di nuovi linguaggi sonori.
Il Novecento aveva già preparato il terreno. Schönberg aveva abolito la gerarchia delle note, Berg ne aveva recuperato la malinconia nascosta, Cage aveva cancellato il confine tra musica e rumore. E in mezzo a tutto questo, Ennio Morricone si muoveva come un ponte tra due mondi. Per il cinema scriveva melodie limpide, tonali, tra le più belle della storia — linee che ancora oggi risuonano universali, come “C’era una volta il West” o “Nuovo Cinema Paradiso”. Ma nella sua produzione “seria”, quella che considerava realmente personale, Morricone scriveva musica moderna e atonale, parte della cosiddetta musica assoluta.
Morricone considerava la musica per film un mestiere nobile ma “applicato”, mentre riservava alla ricerca contemporanea la dignità della vera sperimentazione. È una contraddizione apparente: Morricone sapeva che la tonalità sopravvive solo dove serve a evocare memoria ed emozione, ma che come linguaggio creativo era già chiusa. Il suo successo popolare non negava la fine della tonalità — la confermava. Era la prova che, per comunicare, la musica aveva bisogno di tornare alle sue regole più antiche, proprio perché non ne esistevano più di nuove.
Oggi, in piena era digitale, quelle rivoluzioni — dodecafonia, jazz, metal, Morricone e Cage — si saldano in un’unica visione: la musica non è più un sistema, ma un ecosistema. Un flusso continuo in cui convivono armonia e caos, struttura e casualità, uomo e algoritmo.
Le playlist di Spotify, i beat generati da AI, i soundscape ambientali, i glitch elettronici e i riff dei Meshuggah appartengono tutti allo stesso orizzonte sonoro: un moderno paesaggio acustico che raffigura alla perfezione il presente. Un mondo in cui il concetto di “originalità” non passa più dalla progressione armonica, da una melodia o da una sequenza di accordi, ma dal modo in cui il suono abita lo spazio e il tempo.
Forse è questo il vero significato della “fine della musica tonale”: non la morte della bellezza, ma la fine del suo alfabeto tradizionale. L’arte dei prossimi decenni non parlerà più il linguaggio della tensione e della risoluzione, ma quello della presenza: di un suono che non vuole andare da nessuna parte, che esiste per essere ascoltato, non per arrivare a una tonica.
John Cage, in fondo, l’aveva già capito quando affermava: «Io non ho nulla da dire, e lo sto dicendo. E questa è la poesia che desideravo scrivere». La musica del futuro, probabilmente, non cercherà più di “dire” qualcosa. Saranno le macchine a farlo, con la precisione di un algoritmo tonale perfettamente addestrato. A noi resterà il compito più umano di tutti: ascoltare il silenzio tra i suoni — e riscoprire, lì dentro, la meraviglia.
PENSIERI FRANCHI
Chi è il vero autore di questo brano?
Farò il presuntuoso per un attimo: tutti conoscerete la musica che fa da sigla e sottofondo a quello che fu il podcast di Insalata Mista, giusto? Se non la conoscete, vi metto qui il link. Il podcast è sospeso, per ora. Chissà che non torni a breve.
In ogni caso — dicevo — ascoltate pure la musica e fatevi un’idea. Poi provate a immaginarne una versione rappata. È lo stesso esercizio che ho fatto io. Anzi, ho anche scritto il testo e l’ho sottoposto a Suno. Il risultato è quello che vi metto qui di seguito.
Che ne pensate? Bella, no? La musica, in fondo, è mia. Il testo pure. Ma tutto il resto ce l’ha messo Suno AI, che a sua volta avrà imparato a far cantare un gruppo di rapper romani studiando — o, meglio, rubando — da chissà quanti dischi. La questione è proprio questa, ed è al centro delle cause che le case discografiche hanno intentato contro questi sistemi, portando recentemente alla “mutilazione” di Udio.
La questione, però, non è solo formale. Non riguarda soltanto la licenza di utilizzo di questo brano — sulla quale, in teoria, dovrei essere a posto. Parlo della genesi del pezzo. Posso davvero rivendicarlo come mio al 100%? Posso caricarlo su Spotify come se fosse un brano che ho creato da solo? E ancora: se domani continuo a comporre come ho sempre fatto, usando il mio computer e i miei strumenti, ma prima di pubblicare i brani gli do “una ripassata” con uno di questi sistemi per renderli più professionali, credibili, perfetti dal punto di vista acustico… saranno ancora miei al 100%?
Perché basta che Suno (dico Suno perché è quello che sto usando) ci aggiunga un piccolo dettaglio — un tappeto lì dove non l’avevo pensato, uno stacco là dove per me c’era un’altra strofa — ed ecco che il brano non è più quello originale.
Forse dovremmo abituarci anche a questo: ad avere nell’IA un collega che ci dà dei pareri. Sapete quando si lavora in team e si fanno quelle sessioni di brainstorming per far nascere idee originali, no? Ecco, da questo punto di vista il tool AI potrebbe essere quel collega che ti suggerisce: «Hai provato qui a metterci una chitarra acustica che riprende il tema?». Tu lo fai, e ti piace. Sarà mica sua, la paternità del pezzo, no? O sì?
Se sei arrivato fino a qui, innanzitutto ti ringrazio.
Non ci siamo presentati: mi chiamo Franco Aquini e da anni scrivo di tecnologia e lavoro nel marketing e nella comunicazione.
Se hai apprezzato la newsletter Insalata Mista ti chiedo un favore: lascia un commento, una recensione, condividi la newsletter e più in generale parlane. Per me sarà la più grande ricompensa, oltre al fatto di sapere che hai gradito quello che ho scritto.
Franco Aquini




Vabè avevo scritto un bellissimo commento e l'ho perso...
Bravo! Si vede che l'argomento ti appassiona e lo "mastichi" eheheh
Mi fa piacere anche che tu abbia affronato, seppur velocemente, l'argomento "etica" delle GenAI. Aspetto una NL dedicata.