Davvero l’intelligenza artificiale può distruggere l’umanità? Parte 2
Dopo anni di teorie e dibattiti, l’intelligenza artificiale è già diventata un moltiplicatore di potere nei conflitti reali. Il problema, oggi, non è cosa può fare la macchina, ma chi potrebbe usarla
In questa inedita Insalata Mista in due parti ho provato a esplorare un timore nato dopo la lettura di un articolo di Stephen Witt sul New York Times dal titolo “Il prompt AI che potrebbe distruggere il mondo”. A me, che ho sempre bollato come catastrofisti i timori di un’IA capace di distruggere l’umanità che l’ha creata, quell’articolo ne ha suggerito un altro, ben più spaventoso: cosa succede se a utilizzare un’intelligenza artificiale particolarmente sviluppata sul fronte delle scienze è un gruppo di terroristi o uno Stato canaglia senza scrupoli?
Quello che tutti abbiamo potuto scoprire, oggi che sono passati tre anni dall’introduzione di ChatGPT, è che questi strumenti funzionano come straordinari acceleratori in determinati contesti, soprattutto in quelli scientifici. Chi non ha mai scritto codice riesce, con molta più semplicità e velocità, a creare programmi di alto livello; chi ha bisogno di un valido assistente per lo studio di qualsiasi materia può trovare — se capace di utilizzare questi strumenti nel modo giusto — un professore molto preparato, disponibile ventiquattr’ore su ventiquattro e con l’innaturale pazienza di ripetere le cose fino allo sfinimento (il nostro sfinimento, perché il suo non esiste ancora).
E allora la domanda delle domande diventa questa: quanto tempo passerà prima che qualcuno chieda a uno di questi modelli — esageriamo volutamente — come si progetta un agente patogeno in grado di annientare una bella fetta di umanità?
Nella prima parte di questa Insalata Mista abbiamo visto quali sono i rischi concreti, cosa ammettono candidamente le aziende che sviluppano questi modelli e cosa mettono nero su bianco enti e organizzazioni ufficiali come il NIST (National Institute of Standards and Technology) e la NTI (Nuclear Threat Initiative), arrivando a farci una domanda molto precisa: i framework sull’utilizzo di queste tecnologie sono molto utili per allontanare il pericolo di misuse (che sta per uso scorretto, abuso), ma cosa succede se qualcuno decide di fregarsene?
Già, perché standard, accordi e protocolli funzionano soltanto per chi li sottoscrive, e solo finché decide di rispettarli. Al di fuori di questo contesto rimangono invece carta straccia, e tutto questo ci ricorda drammaticamente quello che è successo col nucleare, che soltanto dopo una catastrofe planetaria ha spinto una parte del mondo a siglare degli accordi. Accordi che comunque, a qualche decennio di distanza, cominciano a essere presi sempre più alla leggera. Serve dunque un’altra Hiroshima dell’AI per spingere i Paesi del mondo a darsi delle regole precise?
In questa seconda parte indagheremo proprio questo aspetto: quanto è concreto il pericolo che gruppi di terroristi e Stati canaglia possano realmente costruirsi un’AI sufficientemente potente da rappresentare un pericolo per l’intera umanità; cosa possiamo fare e se davvero siamo ancora in tempo per fare qualcosa su questo fronte.
Lo faremo, come sempre, partendo da documenti ufficiali e rovistando in ciò che di pubblico emerge da società, enti e governi occidentali che stanno investendo massicciamente su queste tecnologie. Di certo riuscirò a grattare soltanto la superficie del problema, ma quello che ho trovato dice già molto sullo stato delle cose. Sarà poi facile fare un semplice esercizio di prospettiva, ragionando sulla progressione che questi modelli hanno avuto in soli tre anni e su quali meraviglie (o disgrazie?) potranno regalarci nel prossimo decennio.
Criminali, gruppi organizzati e modelli “sfuggiti”
Finché parliamo di modelli controllati dalle aziende, protetti da filtri e policy e addestrati per non rispondere a domande “pericolose”, il discorso resta relativamente rassicurante. Ma la realtà è più complessa: oggi circolano anche modelli non controllati, modificati o addestrati in contesti opachi, e per capirne i rischi bisogna partire da come funzionano davvero questi sistemi.
Quando si sente dire che un modello ha “70 miliardi di parametri”, non è un’esagerazione retorica: i parametri (o pesi) sono i numeri che determinano il comportamento del modello. Sono, in pratica, il suo cervello matematico. Durante l’addestramento questi valori vengono aggiornati miliardi di volte, confrontando ogni previsione con la risposta corretta e regolando di conseguenza la rete neurale. Volendo semplificare, se il software che esegue il modello è il corpo, allora i pesi sono la mente. Ed è proprio perché i pesi contengono tutta la “conoscenza” del modello che, se vengono copiati o trapelano, nessuno può più controllare come il modello verrà usato, modificato o riadattato.
Accanto a questi modelli “sfuggiti”, ci sono poi quelli sviluppati deliberatamente in contesti privi di trasparenza. Qui diventano fondamentali due report che, letti insieme, descrivono un panorama che raramente emerge nel dibattito pubblico.
Il primo è quello del Center for Security and Emerging Technology (CSET) dedicato al programma cinese di Military-Civil Fusion. Già il titolo pone il cosiddetto problema del dual-use, qui declinato nell’uso in ambito militare di tecnologie nate in ambito civile (e non il contrario, come di solito accade). A pagina 1 si legge che l’obiettivo dichiarato della strategia è “mobilitare e integrare risorse civili per sostenere la modernizzazione militare”. In pratica, la ricerca accademica, quella industriale e quella militare non sono compartimenti stagni, ma un unico ecosistema coordinato. La conseguenza è ovvia: molte capacità sviluppate dalle aziende private possono essere assorbite nei progetti militari senza alcuna disclosure pubblica. Non è una teoria complottista: è la struttura stessa del programma, così come descritta nel documento.
Se si unisce questo dato all’altro grande tema affrontato dalla Nuclear Threat Initiative (NTI), il quadro diventa più preoccupante. La NTI parte da un presupposto semplice: l’intelligenza artificiale applicata alla biologia è una rivoluzione straordinaria, ma può avere un “rovescio della medaglia”. Nell’Executive Summary scrive che gli strumenti di AI applicati alla biologia “Potrebbero essere accidentalmente o deliberatamente abusati per causare danni significativi, con il potenziale di causare una catastrofe biologica globale” (pagina 32). La frase successiva è ancora più chiara: queste tecnologie possono “Espandere l’accesso alle conoscenze e alle capacità per produrre tossine ben note, agenti patogeni o altri agenti biologici”. Non è facile catastrofismo per attirare qualche facile clic, sono documenti di enti ufficiali.
C’è un elemento ancora più interessante. A pagina 11 del report viene spiegato che i grandi modelli linguistici “possono essere utili per gli utenti con meno esperienza scientifica che cercano di saperne di più sugli agenti patogeni, sull’ingegneria degli agenti patogeni o sulle tecniche di laboratorio”. Significa che abbassano semplicemente la barriera d’ingresso. Non trasformano un incapace in un biologo, sia chiaro, ma permettono a chi ha conoscenze di base di arrivare più lontano e più velocemente di quanto fosse possibile prima.
I passaggi sulle capacità future sono altrettanto espliciti. Più avanti, nella sezione dedicata all’uso malevolo, la NTI riporta che “quasi tutti gli esperti hanno sottolineato la possibilità che un attore malintenzionato possa utilizzare un LLM per ottenere informazioni su come utilizzare una tossina, un agente patogeno o un altro agente biologico per causare danni”. Non dicono che accadrà, dicono che è possibile, e che la velocità con cui queste capacità si stanno sviluppando richiede un’attenzione immediata.
Presi insieme, questi elementi raccontano una storia molto diversa da quella dei chatbot che sbagliano le risposte o che possiamo utilizzare per eseguire compiti tutto sommato ancora banali (come riassumere un’email o scriverne una in un italiano perfetto), esistono modelli avanzati che possono essere copiati all’infinito, modificati, alleggeriti dei filtri, riaddestrati su nuovi dati; ed esistono programmi nazionali in cui l’intelligenza artificiale viene sviluppata senza trasparenza, con finalità che non prevedono la supervisione internazionale. Il rischio non è un’AI che si ribella — è piuttosto un’AI che finisce nelle mani di chi ha obiettivi molto concreti e nessun motivo per rispettare paletti e regolamenti.
In altre parole: l’AI non è pericolosa come “agente autonomo”, ma come moltiplicatore di competenze. E, come mostra la combinazione dei due documenti, quando questo moltiplicatore entra in ecosistemi non trasparenti o viene sfruttato da gruppi con intenzioni malevole, il problema non è più tecnico, ma umano.
Gli stati canaglia e la corsa all’AI militare
Quando si parla di “AI militare”, si tende subito a immaginare scenari futuristici, robot armati o droni autonomi. Ma nella realtà il problema è molto più terreno — e molto più vicino al presente. Non esiste un’unica “AI militare”: esiste un insieme di tecnologie che possono essere assorbite, adattate e integrate negli arsenali digitali e biologici degli stati. E soprattutto esiste un dato di fatto che nessuna regolamentazione potrà mai cancellare: non tutti gli stati del mondo hanno interesse a rendere trasparenti i propri programmi tecnologici. Al contrario: nessuno stato ha realmente intenzione di aprire le porte della ricerca tecnologica sugli armamenti perché è proprio lì che si concentrano i grandi investimenti in ricerca.
Il documento più chiaro su questo punto è di nuovo quello del Center for Security and Emerging Technology (CSET), che analizza la strategia cinese nota come Military-Civil Fusion. Se nella nostra percezione occidentale esiste una distinzione netta tra ricerca civile e militare, nel modello descritto nel report questa distinzione semplicemente non c’è.
Il report illustra inoltre come il governo cinese abbia costruito un vero e proprio ecosistema integrato, nel quale laboratori civili, industrie tecnologiche e strutture militari condividono infrastrutture, dati, competenze e personale. È uno dei grandi vantaggi, tra gli altri, di avere un governo accentratore e uno Stato che controlla tutto. Questo meccanismo rende quasi impossibile distinguere ciò che viene sviluppato per il mercato da ciò che viene sviluppato per scopi strategici. Ed è esattamente questo che preoccupa gli analisti di sicurezza internazionale: non la singola tecnologia, ma il contesto in cui si sviluppa. In un ambiente in cui la trasparenza non è un requisito, nessuno può sapere con precisione quali capacità AI vengano integrate nei sistemi militari, né con quali dataset vengano addestrate.
Un altro elemento che rende la corsa all’intelligenza artificiale militare particolarmente insidiosa è che, negli ultimi due anni, sono emerse diverse notizie — spesso parziali, talvolta prive di conferme indipendenti — sull’uso dell’AI in conflitti reali. Non parliamo di scenari futuristici da film, ma di dichiarazioni, immagini, video e report giornalistici che mostrano come l’AI stia già filtrando dentro la guerra contemporanea, quasi sempre in modo non trasparente.
L’esempio più citato è quello dell’Ucraina. In un’inchiesta, Reuters ha riportato che il Paese sta sperimentando “Dozzine di sistemi aumentati dall’intelligenza artificiale” per i propri droni militari, incluso software che permetterebbe agli UAV di navigare e identificare bersagli anche in contesti di forte disturbo elettronico. Le fonti del reportage parlano di sistemi in grado di riconoscere veicoli, strutture, movimenti, in un contesto in cui i satelliti e le comunicazioni radio non sono sempre affidabili. È impossibile verificare fino a che punto questi sistemi siano realmente autonomi — e Reuters stessa lo sottolinea — ma il fatto che se ne parli è già significativo.
Un’altra inchiesta, sempre di Reuters, racconta che l’Ucraina starebbe raccogliendo un enorme archivio di filmati provenienti dai droni sul campo di battaglia per addestrare modelli di intelligenza artificiale capaci di analizzare in tempo reale il fronte, prevedere movimenti e identificare bersagli. Il materiale sarebbe usato per migliorare precisione e reattività dei droni, rendendoli meno dipendenti dai comandi umani. Anche in questo caso, nessuna conferma ufficiale, ma la dinamica descritta è perfettamente coerente con ciò che sappiamo dell’AI applicata alla visione artificiale.
Fino a questo punto, potremmo anche dire che l’AI “ha fatto anche cose buone”, essendo utilizzata per lo più a fini difensivi da un esercito, quello ucraino, che, stando alle dichiarazioni di esperti della materia, ha raggiunto livelli tecnologici altissimi.
Situazioni simili ma non altrettanto positive emergono — sebbene ancora più difficili da verificare — nel contesto del conflitto israelo-palestinese. Diverse testate hanno riportato che l’IDF avrebbe utilizzato sistemi basati su AI per selezionare obiettivi a Gaza o per analizzare rapidamente grandi quantità di immagini satellitari e intercettazioni. È impossibile stabilire il grado di accuratezza di queste ricostruzioni, perché l’IDF non rilascia dettagli operativi e molte delle fonti sono anonime o indirette. D’altra parte, non sarebbe sorprendente: Israele investe in sistemi di analisi automatizzata da oltre un decennio, e l’AI è un’estensione naturale di strumenti già impiegati nella sorveglianza e nell’intelligence. Ne parlammo, tra l’altro, in un’altra Insalata Mista di qualche tempo fa.
L’uso dell’IA nella guerra disegnerà la geografia del futuro
Se ti interessano questi temi e sei finito qui tramite qualche link, prendi in considerazione l’iscrizione. È gratuita e ti permette di non perderti nessuna puntata!
Quello che emerge, al di là delle conferme che non possiamo avere, è un punto preciso: l’AI non è più confinata al mondo dei laboratori e degli articoli accademici. Sta entrando — spesso dalla porta di servizio — nelle dinamiche della guerra reale. Ed è qui che il discorso diventa globale e urgente, perché se anche solo una parte di queste notizie fosse vera, significherebbe che la possibilità per uno Stato di integrare sistemi basati su AI in droni, missili, analisi del campo di battaglia o identificazione dei bersagli non è più una questione di “futuro”, ma di presente. E in un presente in cui non esistono norme condivise né controlli internazionali, il rischio non è — lo ripeto un’altra volta ancora — l’IA “che decide da sola”, ma l’IA utilizzata in contesti già instabili, senza trasparenza, e senza alcuna forma di accountability.
Il paragone col nucleare: cosa regge e cosa non regge davvero
Quando si parla di tecnologie potenzialmente pericolose, il paragone che viene naturale è sempre quello con il nucleare. È l’unico precedente storico in cui l’umanità si è trovata a maneggiare qualcosa di talmente potente da spingere, quasi all’improvviso, una parte del mondo a sedersi a un tavolo e dire: «Okay, forse servono delle regole». E in effetti il paragone regge — ma solo fino a un certo punto.
La somiglianza più evidente è che sia il nucleare, sia l’intelligenza artificiale, sono tecnologie dual-use: possono cambiare il mondo in meglio o possono amplificarne i peggiori incubi. Il nucleare ha portato (e porterà, se ci diamo una svegliata) energia, enormi progressi nella medicina e nell’industria. L’AI promette cure personalizzate, ricerca scientifica accelerata, innovazione diffusa. Ma entrambe, se usate male, possono fare danni enormi. Questo è il primo punto del paragone, quello più facile.
Il secondo è che, come per il nucleare, la questione dell’AI supera immediatamente la sfera tecnica ed entra in quella politica e diplomatica. Una volta che una tecnologia ha una potenziale ricaduta globale, smette di essere solo “di chi la possiede” e diventa una questione che riguarda tutti. I trattati sul nucleare nascono da questo: dalla consapevolezza che, lasciate senza controllo, certe capacità possono sfuggire rapidamente di mano.
Da qui in poi, però, il paragone inizia a scricchiolare. Il nucleare richiede materie prime specifiche, impianti giganteschi, catene logistiche visibili, manodopera specializzata e un consumo energetico astronomico. Significa — e la storia ce l’ha confermato — che una centrale clandestina è difficile da nascondere, e che anche i programmi più segreti hanno comunque bisogno di strutture fisiche riconoscibili, ispezionabili, monitorabili. Da questo punto di vista, è difficile che una centrale venga nascosta. Una server farm che addestra un modello di linguaggio specializzato in biologia, invece…
L’AI è infatti una tecnologia molto più leggera (seppure tremendamente energivora) e molto più distribuita: non servono centrifughe o container di plutonio. Servono competenze, accesso a grandi quantità di dati e un numero di GPU che può essere mascherato in un data center qualunque. Un laboratorio può essere un edificio anonimo in un campus privato; uno sviluppo militare può camuffarsi dentro un’azienda civile, come ci ha mostrato il modello della Military-Civil Fusion cinese. E se un Paese decide di addestrare un modello avanzato senza dirlo a nessuno, non esiste nessun equivalente dell’IAEA che possa bussare alla porta per vedere cosa sta succedendo dentro. Sarebbe complicato farlo anche se le porte di quei data center fossero aperte e liberamente accessibili, figuriamoci nel contesto di un paese che già tende a utilizzare tattiche opache per nascondere quello che fa.
C’è poi un altro limite del paragone: il nucleare ha prodotto il suo evento-simbolo — Hiroshima/Nagasaki — prima che arrivassero i trattati. È stato l’orrore visibile e innegabile, che ha reso evidente a tutti la necessità di un coordinamento. Con l’AI questa dinamica potrebbe non verificarsi mai. Non avremo “un’esplosione” che costringe il mondo intero a fermarsi. È molto più probabile che gli incidenti, se mai arriveranno (e speriamo proprio di no), saranno piccoli, diffusi, difficili da attribuire, difficili da misurare.
Nel caso dell’AI, il rischio è fatto di piccole (ma devastanti) azioni che però non avranno quella componente di spettacolarità che potrà essere immortalata in un’immagine dal fortissimo impatto emotivo. E proprio per questo sarà molto più difficile da governare: l’assenza di un trauma collettivo rende più difficile trovare un consenso globale. Per dirla in maniera ancora più cruda: il drone che scova un gruppo di terroristi utilizzando l’AI non avrà mai l’impatto dell’immagine di un fungo atomico o dei corpi dilaniati dal fuoco e dalle radiazioni.
L’ultima, fondamentale differenza è che il nucleare, pur nella sua pericolosità, resta una tecnologia fisica. La sua proliferazione può essere rallentata con controlli, embarghi, ispezioni e diplomazia. L’AI no: è fatta di codice, di dati, di modelli che una volta rilasciati possono circolare all’infinito e che, come abbiamo visto, possono essere copiati, modificati, potenziati e riutilizzati al di fuori di qualsiasi regolamento. Non è un caso che molti esperti considerino la proliferazione dell’AI un problema potenzialmente più difficile di quella nucleare: non perché l’AI “distruggerà il mondo”, ma perché è intrinsecamente più facile da replicare, più difficile da controllare e più veloce nella sua evoluzione.
Il risultato è che il paragone col nucleare funziona come un monito per chi comanda — ci ricorda che certe tecnologie richiedono responsabilità collettiva — ma fallisce come modello operativo. Il nucleare ha una fisicità che l’AI non avrà mai. E se la storia ci ha insegnato qualcosa, è proprio questo: ciò che non puoi vedere, non puoi monitorare; ciò che non puoi monitorare, non puoi regolamentare e ciò che non puoi regolamentare, alla lunga, si diffonde.
Una tecnologia che non abbiamo mai regolato prima
A questo punto, dopo due puntate piene di documenti, fonti, esempi e scenari, una cosa dovrebbe emergere con chiarezza: il problema dell’intelligenza artificiale non è l’AI, tutt’altro. Il vero problema siamo noi. Sono le nostre intenzioni, le nostre debolezze, le nostre ambizioni politiche e militari. L’AI è un moltiplicatore, un acceleratore. E come tutti i moltiplicatori amplifica quello che trova: talento o violenza, creatività o potenza militare.
La sfida non è decidere se “fermare” l’AI o se “lasciarla correre”. Questa scelta, ovviamente, non esiste più. È decidere se riusciamo, come società globale, a introdurre almeno qualche forma di coordinamento prima che queste tecnologie diventino troppo diffuse per essere governate. Ed è complicato, perché a differenza del nucleare l’AI non lascia dietro di sé centrali, impianti, emissioni rilevabili. È invisibile, si replica facilmente (sempre di più con la crescita spaventosa della potenza di calcolo). Si modifica facilmente e altrettanto facilmente si priva di quei paletti che in occidente stiamo cercando faticosamente di imporre (forse). E soprattutto si diffonde molto più velocemente di quanto la politica riesca ad adattarsi.
Forse non avremo mai un “momento Hiroshima” dell’AI, cioè un singolo evento capace di cambiare all’istante la percezione globale del rischio. Più probabilmente avremo una serie di piccoli campanelli d’allarme, di incidenti limitati, di segnali deboli. Starà a noi decidere se ascoltarli o ignorarli. Ma una cosa è certa: non serve un mostro per fare un disastro. Servono poche persone determinate, un mondo instabile e lo strumento giusto. E quello strumento, oggi, ha un nome molto preciso.
Se sei arrivato fino a qui, innanzitutto ti ringrazio.
Non ci siamo presentati: mi chiamo Franco Aquini e da anni scrivo di tecnologia e lavoro nel marketing e nella comunicazione.
Se hai apprezzato la newsletter Insalata Mista ti chiedo un favore: lascia un commento, una recensione, condividi la newsletter e più in generale parlane. Per me sarà la più grande ricompensa, oltre al fatto di sapere che hai gradito quello che ho scritto.
Franco Aquini



