Robot, IA e guerra mondiale: quello che nessuno vuole immaginare
Trump bombarda l'Iran, il Pentagono litiga con Anthropic e OpenAI firma con la difesa americana. Droni e IA stanno già riscrivendo le regole della guerra.
Il fenomeno degli utenti che cancellano il proprio account ChatGPT per passare ad Anthropic è ormai considerabile un esodo di massa. Una presa di posizione etica e morale che i consumatori stanno facendo per dare un segnale forte. Non è la prima volta che la sospensione di un abbonamento mensile diventa un gesto politico e un segnale da lanciare a una multinazionale. L’ultima che ricordo fu il caso di Jimmy Kimmel, la cui trasmissione fu sospesa da Disney quando si espresse contro Trump con una battuta che non venne gradita dal presidente. Gli utenti reagirono in massa sospendendo l’abbonamento e la trasmissione di Kimmel fu riaperta, con tanto di battuta di quest’ultimo al rientro sulla scena: «ora però riattivate l’abbonamento».
Si potrebbe chiamare “la protesta da 10€ al mese”, quella che ci permette di dare un segnale comodamente da casa, sul nostro divano, risparmiando 10€ al mese di abbonamento a una piattaforma o a un servizio. Semplice, comodo e altrettanto potente quanto uno sciopero di piazza. Ma perché tutto questo sta succedendo con ChatGPT?
Al centro della questione c’è sempre lui, Trump, e la sua decisione di riaccendere il materiale esplosivo sepolto da tempo nella regione mediorientale, tornando a bombardare l’IRAN insieme all’alleato di sempre, Israele. Il Pentagono, nella persona del segretario della difesa Pete Hegseth, ha chiesto il supporto incondizionato delle aziende proprietarie di modelli di intelligenza artificiale e una sola di queste aziende — Anthropic, con il suo CEO Dario Amodei — si è rifiutata di collaborare.
Meno ostile invece è stato il capo di OpenAI, Sam Altman, padre di ChatGPT, il quale ha dato praticamente la massima disponibilità (vedremo poi i dettagli nei paragrafi successivi) e questo ha chiaramente fatto scattare la protesta contro il popolare chatbot a favore di quello che sta guadagnando sempre più popolarità, Claude di Anthropic. Nonostante ciò, molte fonti riportano l’uso di Anthropic negli scenari di guerra. Come mai? L’azienda non si è opposta all’uso dei suoi modelli in contesti di guerra?
La situazione, in effetti, è molto più complessa di così. Ed è la prima volta nella storia in cui succede una cosa nuova, che merita attenzione. Fino ad oggi, infatti, la tecnologia di consumo ha avuto una qualche origine militare. I grandi investimenti in armamenti hanno spinto i reparti militari a sperimentare tecnologie e infrastrutture impossibili da finanziare al di fuori dei budget miliardari dei governi. Poi, in un secondo momento, le tecnologie più importanti sono uscite dai laboratori militari per allargarsi al grande pubblico. Pensiamo per esempio a internet e alle reti in generale, così come al sistema di posizionamento satellitare GPS.
In qualche modo, la popolazione era all’oscuro di dove la ricerca tecnologica fosse arrivata, perché coperta da segreto militare. Oggi, con il meccanismo dei grandi fondi di investimento capaci di raccogliere capitali incredibili da investire poi in startup che in un attimo diventano multinazionali dalla disponibilità praticamente infinita, il paradigma si è di fatto invertito: le grandi rivoluzioni tecnologiche passano prima dai consumatori e arrivano successivamente all’ambito militare.
Succede quindi una cosa inedita: se prima non potevamo immaginare dove la tecnologia militare si potesse spingere, oggi invece, al netto delle sfumature e delle diverse implementazioni, sappiamo benissimo dove potrà andare un esercito dotato di intelligenza artificiale o di robot antropomorfi. Tanto che si invertono gli attori: è la difesa militare a chiedere in prestito la tecnologia alle società private e non più il contrario.
Dunque noi oggi sappiamo benissimo dove potrebbe spingersi un esercito con accesso illimitato a modelli di intelligenza artificiale evoluti come Claude di Anthropic. Così come abbiamo visto dove si è spinta la Cina con la robotica. Quello che una volta sarebbe stato un segreto militare, oggi viene messo in mostra durante i festeggiamenti del Capodanno cinese per mostrare al mondo intero, in una velatissima minaccia avvolta di gioioso fasto cerimoniale, quanto in oriente siano già pronti a sostituire gli esseri umani con robot capaci di un’agilità e una instancabilità sconosciuta ai migliori militari umani.
Vale la pena dunque di fare una riflessione su quale futuro ci aspetta, soprattutto oggi che la più grande potenza del mondo è guidata da un pazzo che non conosce regola alcuna e che ha già mostrato — oggi più di ieri — di non rispettare alcun patto o alleanza nata proprio per allontanare lo spettro di una guerra mondiale.
Come possono essere utilizzate le tecnologie odierne in ambito militare? Come possono cambiare la guerra del futuro? E se davvero stiamo rischiando un conflitto mondiale, come ce lo immaginiamo? Ho cercato delle risposte e, come sempre, ve le riporto in questa Insalata Mista.
Com’è andata davvero tra il Pentagono, OpenAI e Anthropic
La storia che trovate raccontata nei titoli dei giornali è — ovviamente — più complicata di quanto sembri, e vale la pena ricostruirla dall’inizio perché contiene una lezione importante su come funziona il potere nel momento in cui incontra la tecnologia.
Tutto nasce da un contratto. Nel luglio 2025, il Dipartimento della Difesa americano assegna ad Anthropic un accordo del valore massimo di 200 milioni di dollari per sviluppare capacità di intelligenza artificiale avanzata a supporto della sicurezza nazionale. Claude — il modello di Anthropic — diventa così, secondo quanto riportato dal Wall Street Journal, il primo grande modello AI a girare all’interno delle reti classificate del Pentagono. Non solo: secondo la documentazione pubblica di Project Maven, il programma di intelligenza artificiale militare del Dipartimento della Difesa lanciato nel 2017, Claude viene utilizzato anche nel gennaio 2026 durante l’operazione in Venezuela che porta alla cattura di Nicolás Maduro, integrato attraverso la piattaforma di Palantir (Wikipedia, Project Maven).
Il problema esplode però quando il Pentagono chiede una modifica contrattuale sostanziale, cioè che i suoi modelli AI fossero disponibili per “qualsiasi uso legale”, senza eccezioni esplicite. Anthropic allora si rifiuta, mettendo due paletti: nessun uso per sistemi d’arma completamente autonomi, e nessun uso per la sorveglianza di massa dei cittadini americani. Come ha spiegato lo stesso CEO Dario Amodei in una nota interna poi riportata dal Financial Times, il Pentagono aveva offerto di accettare i termini di Anthropic a patto di eliminare una frase specifica, cioè quella relativa “all’analisi di dati acquisiti in massa” — che era esattamente lo scenario che Anthropic voleva evitare (CNBC, 5 marzo 2026).
Le trattative si sono rotte definitivamente il 28 febbraio, appena pochi giorni fa, con il post di Trump sul social Truth in cui ordinava a ogni agenzia federale di cessare immediatamente l’uso dei prodotti Anthropic. Il segretario alla Difesa Pete Hegseth ha poi stabilito che l’azienda è un “rischio per la supply chain della sicurezza nazionale” — una designazione che, come ha sottolineato Anthropic stessa, non era mai stata applicata pubblicamente a un’azienda americana (NPR, 27 febbraio 2026).
Nelle stesse ore, però, a chiudere un accordo con il Pentagono è OpenAi. Sam Altman aveva dichiarato pubblicamente, pochi giorni prima, di condividere le stesse “linee rosse” di Anthropic. Poi però ha firmato lo stesso. Il contratto, stando alla descrizione che OpenAI ne ha dato, include tre divieti: nessun uso per la sorveglianza di massa degli americani, nessun uso per guidare sistemi d’arma autonomi dove la legge richieda controllo umano, nessun uso per decisioni ad alto rischio senza supervisione umana (Built In, 4 marzo 2026). Sul piano formale, non sembra poi così diverso da quello che chiedeva Anthropic. La differenza, come ha spiegato Altman stesso ammettendo di aver “fatto in fretta” e che il risultato era apparso “opportunistico e sciatto”, sta nell’approccio: Anthropic chiedeva garanzie esplicite nel testo contrattuale, OpenAI si è affidata alle leggi esistenti (CNBC, 3 marzo 2026).
Il MIT Technology Review ha sintetizzato bene il problema: fidarsi che il governo non violi la legge offre poche garanzie a chiunque ricordi che le pratiche di sorveglianza di massa rivelate da Edward Snowden erano state ritenute legali dagli stessi organismi interni che le avevano autorizzate (MIT Technology Review, 2 marzo 2026). Il risultato pratico, però, è che ChatGPT ha subito un’ondata di disiscrizioni — secondo TechCrunch le disinstallazioni sono cresciute del 295% — mentre Claude è balzato al primo posto nell’App Store di Apple.
Quali sono le tecnologie attualmente in uso e come potrebbero evolvere con il supporto dell’IA
Per capire cosa sta succedendo davvero sui campi di battaglia di oggi, bisogna partire da un programma che pochissimi conoscono fuori dagli ambienti militari, ovvero Project Maven. Lanciato nell’aprile 2017 dal Dipartimento della Difesa americano con il nome ufficiale di Algorithmic Warfare Cross-Functional Team, Maven nacque da una preoccupazione precisa: i principali sistemi d’arma americani impiegano dai 15 ai 20 anni per diventare operativi, mentre la Cina sta accelerando sempre di più il suo vantaggio nell’intelligenza artificiale applicata alla difesa. La soluzione è stata quindi quella di prendere in prestito il meglio della tecnologia privata. Come dicevo nell’introduzione, per la prima volta non è stato il settore civile ad attingere da quello militare, bensì il contrario.
Google firmò il primo contratto da 9 milioni di dollari per sviluppare un sistema di visione artificiale capace di analizzare i video dei droni e identificare potenziali bersagli. L’esperimento funzionò, ma scatenò una rivolta interna: migliaia di dipendenti firmarono una petizione e Google abbandonò il progetto nel 2018. Maven sopravvisse, passando nelle mani di altri contractor come Palantir, Amazon Web Services, e infine Anthropic — e nel frattempo si trasformò in qualcosa di molto più grande (Bloomberg, 28 febbraio 2024).
Oggi Maven è operativo in ogni comando militare americano nel mondo. Ha suggerito bersagli in Iraq, Siria e Yemen — alcuni dei quali sono stati poi distrutti. In Ucraina, secondo quanto documentato dall’Observer Research Foundation, ha elaborato immagini satellitari in tempo (quasi) reale, riconoscendo automaticamente equipaggiamenti, batterie e colonne di mezzi russi, e trasmettendo coordinate ai sistemi HIMARS (ORF, 30 dicembre 2025). Il suo ruolo non è sparare: è decidere, o meglio, suggerire a un essere umano che cosa colpire, comprimendo in pochi minuti un processo che prima richiedeva giorni. Con le recentissime operazioni contro l’Iran di fine febbraio, secondo quanto riportato da Interesting Engineering e Nature, questo sistema ha raggiunto una soglia mai vista prima: quasi 900 attacchi nelle prime 12 ore di conflitto, un ritmo che nelle guerre precedenti avrebbe richiesto settimane, reso possibile dall’AI che genera raccomandazioni di targeting e comprime i cicli di pianificazione (Nature, 6 marzo 2026).
Maven però è solo la parte visibile di un ecosistema tecnologico molto più vasto. Il Pentagono ha più di 800 progetti attivi di intelligenza artificiale militare, e per il 2026 ha richiesto un budget record di 14,2 miliardi di dollari per ricerca su AI e sistemi autonomi (Usanas Foundation, gennaio 2026). Il programma “Replicator”, avviato dal Dipartimento della Difesa, ha ricevuto 1 miliardo di dollari nel 2025 con l’obiettivo di dispiegare rapidamente migliaia di droni autonomi e imbarcazioni di superficie a basso costo.
L’idea è creare un esercito parallelo di macchine usa e getta: veloci, economiche, sostituibili. Nel frattempo, la Marina americana ha già dispiegato una flotta di droni di allerta precoce nel Golfo Persico, e nell’ottobre 2023 un’imbarcazione senza equipaggio della US Navy ha attaccato per la prima volta un bersaglio con razzi veri, senza alcuna direzione tattica da parte di un operatore umano (Centre for International Governance Innovation). Parallelamente, la spesa militare globale in intelligenza artificiale è quasi raddoppiata tra il 2022 e il 2023 — da 4,6 a 9,2 miliardi di dollari — e secondo le stime del Belfer Center di Harvard dovrebbe raggiungere i 38,8 miliardi entro il 2028 (Belfer Center, dicembre 2025). Investimenti che, tra le altre cose, hanno prosciugato il mercato delle memorie RAM, portando aumenti in diversi settori — tra cui quello dei computer e di tutto ciò che utilizza memorie — che possono arrivare al 500%.
La Cina non è ferma a guardare. DeepSeek, il modello presentato all’inizio del 2025 come alternativa efficiente ai modelli occidentali, gira su chip Huawei di produzione domestica: esattamente il tipo di “sovranità algoritmica” che Pechino costruisce da anni per rendere i suoi sistemi militari indipendenti dalle filiere tecnologiche americane. Nel corso del 2025, l’esercito cinese ha iniziato ad acquistare sistemi basati su DeepSeek in quantità crescente, e lo stesso Pentagono, nel suo rapporto annuale sulla Cina di dicembre 2025, ha dovuto ammettere che il vantaggio tecnologico americano si è ridotto. (Nanonets, 5 marzo 2026). Zeng Yi, un alto dirigente della società di difesa cinese Norinco, aveva anticipato tutto già nel 2018 con una frase che all’epoca sembrava fantascienza: «Nei campi di battaglia futuri non ci sarà gente che combatte» (Wikipedia, Lethal autonomous weapon).
Cos’è la Pax Silica e perché la corsa ai chip è la nuova corsa agli armamenti
Se la Cina si sta costruendo una filiera tecnologica autonoma per non dipendere dall’Occidente nei suoi sistemi militari, dall’altra parte dell’oceano qualcuno ha deciso che era ora di rispondere in modo altrettanto esplicito. L’11 dicembre 2025, a Washington, il Dipartimento di Stato americano ha convocato il primo summit della Pax Silica — un nome scelto non a caso, che richiama la Pax Romana e la Pax Americana per dire una cosa semplice e inquietante: la pace, oggi, si garantisce controllando chip, data center e modelli di intelligenza artificiale, non più solo eserciti e arsenali nucleari. Al tavolo si sono seduti Giappone, Corea del Sud, Singapore, Paesi Bassi, Regno Unito, Israele, Emirati Arabi e Australia. L’India ha aderito a febbraio 2026. L’Europa è ancora fuori, in attesa di capire a quale prezzo potrà entrare.
Quello che la Pax Silica rende ufficiale è qualcosa a cui accennavamo nel paragrafo precedente: chi controlla la filiera dei semiconduttori controlla chi potrà permettersi un esercito di droni autonomi, chi avrà accesso ai sistemi di targeting come Maven, chi potrà addestrare i modelli che comprimono in minuti le decisioni che una volta richiedevano giorni. Le alleanze militari del Novecento servivano a garantirsi un ombrello di sicurezza collettiva. Quelle del ventunesimo secolo si stringono per non ritrovarsi tagliati fuori dalla prossima generazione di chip. È la stessa logica del petrolio, applicata al silicio: e come è successo con il petrolio, chi non sceglie da che parte stare rischia di non avere accesso a nessuna delle due pompe.
Una terza guerra mondiale come in Terminator, con robot al posto dei soldati umani, farà più o meno vittime civili?
La domanda sembra provocatoria ma è al centro di uno dei dibattiti più seri e meno pubblicizzati della ricerca militare internazionale. E la risposta, come spesso accade quando la realtà è più complicata dell’immaginario collettivo, non è né sì né no.
Cominciamo dalla tesi ottimista, che non è campata in aria. Ronald Arkin, professore al Georgia Institute of Technology e tra i massimi esperti mondiali di robotica militare, sostiene che i sistemi robotici autonomi potrebbero avere caratteristiche strutturalmente superiori rispetto ai soldati umani nel rispettare il diritto internazionale umanitario. Non devono proteggersi a ogni costo, quindi possono permettersi di non sparare in situazioni ambigue. Non hanno paura, stanchezza, rabbia, vendetta — tutte variabili che nella storia hanno prodotto massacri di civili. Possono integrare più informazioni da più fonti in frazioni di secondo prima di decidere se aprire il fuoco (IEEE Spectrum). Nell’argomento c’è una logica: la storia delle guerre moderne è piena di atrocità commesse da soldati esauriti, traumatizzati o semplicemente spaventati. Una macchina senza ormoni del cortisolo non spara su un matrimonio perché ha scambiato i festeggiamenti per un’imboscata.
Ma Human Rights Watch, che su questo tema lavora da oltre un decennio, ribalta l’argomentazione con una considerazione che, in effetti, fa riflettere: distinguere un combattente da un civile richiede di interpretare le intenzioni, e le intenzioni si leggono da cose che nessuna macchina sa leggere — il tono della voce, la postura del corpo, il contesto emotivo di una situazione (Human Rights Watch, “Losing Humanity”, 2012). Un robot in zona di combattimento potrebbe sparare a un bambino che impugna un’arma, il che potrebbe essere tecnicamente una risposta legale ma non necessariamente quella più etica. Un soldato umano potrebbe ricordarsi dei propri figli, abbassare l’arma e cercare un’altra soluzione. Il CICR, il Comitato Internazionale della Croce Rossa, ha preso una posizione netta: esistono limiti non negoziabili all’autonomia nei sistemi d’arma, e i limiti sono necessari adesso, non in un futuro ipotetico (ICRC casebook).
C’è però una terza dimensione del problema che viene raramente discussa, ed è quella più inquietante. Anche se i robot facessero meno vittime civili per singolo conflitto, renderebbero le guerre molto più frequenti. È la tesi sviluppata in un paper pubblicato su arXiv nel 2024 da un gruppo di ricercatori di machine learning: quando il costo umano della guerra sparisce — quando non tornano le bare, quando nessuna madre protesta davanti al Congresso — il costo politico di avviare un conflitto crolla (arXiv, 2024). È già successo con i droni: la possibilità di condurre operazioni militari in Afghanistan, Pakistan, Yemen e Libia senza perdite di personale americano ha abbassato enormemente la soglia politica di intervento. Con eserciti di robot sostituibili a basso costo, quella soglia si avvicina allo zero. Meno morti per guerra, ma molte più guerre: il bilancio finale potrebbe essere peggiore.
A questo si aggiunge il problema della responsabilità. Quando un sistema autonomo uccide illegalmente, chi risponde? Non il robot. Non necessariamente il programmatore, che ha seguito le specifiche. Non sempre il comandante, che ha autorizzato una categoria di obiettivi ma non necessariamente quella singola azione. Il diritto internazionale umanitario, come ricorda un report del Congressional Research Service americano del 2021, “non prevede alcun divieto domestico o internazionale allo sviluppo o all’uso di sistemi d’arma letali autonomi“, ma è stato scritto per esseri umani e non contempla la possibilità di delegare la decisione di uccidere a un algoritmo (Wikipedia, Lethal autonomous weapon). Nell’ottobre 2023, 156 paesi all’ONU hanno votato una risoluzione storica chiedendo di negoziare uno strumento giuridicamente vincolante entro la Settima Conferenza di Revisione del 2026. Solo cinque paesi hanno votato contro: tra questi, Stati Uniti e Russia (Usanas Foundation, gennaio 2026). Il messaggio diplomatico è stato chiaro come raramente accade alle Nazioni Unite.
Quindi: una guerra mondiale con i robot farebbe meno vittime di una con i soldati? Forse sì, nelle prime settimane. Ma la domanda giusta non è se la prima guerra di questo tipo sarebbe meno sanguinosa. La domanda giusta è se ne seguirebbero molte altre.
Se hai bisogno di migliorare il posizionamento su Google del tuo sito aziendale, di contenuti di qualità per il tuo blog, per i tuoi social o le tue campagne, puoi affidarti a WebSalad, la mia micro agenzia di contenuti composta esclusivamente da giornalisti che scrivono per passione.
Se non ti interessano i contenuti fuffa, ma vuoi fare le cose sul serio, chiama noi. Scrivi a franco@websalad.it
Se sei arrivato fino a qui, innanzitutto ti ringrazio.
Non ci siamo presentati: mi chiamo Franco Aquini e da anni scrivo di tecnologia e lavoro nel marketing e nella comunicazione.
Se hai apprezzato la newsletter Insalata Mista ti chiedo un favore: lascia un commento, una recensione, condividi la newsletter e più in generale parlane. Per me sarà la più grande ricompensa, oltre al fatto di sapere che hai gradito quello che ho scritto.
Franco Aquini




Buongiorno Franco. La tua newsletter di oggi mi pone due domande. L'Europa? A che serve l'ONU? Credo non otterrò risposte soddisfacenti...comunque sia davvero una bella newsletter oggi, complimenti! Ivano
Buongiorno Franco. Puntata interessantissima.. grazie per tutti i tuoi contributi.. ci sei mancato per qualche mese..