L’uso dell’IA nella guerra disegnerà la geografia del futuro
Un articolo del NYT fa luce su come e quali strumenti di IA abbia utilizzato Israele nella guerra contro la Palestina e alimenta il sospetto che Israele sia un campo di prova per altri eserciti.
Chi segue Insalata Mista da un po’, sa che di solito non mischio le opinioni personali con i fatti. Tant’è che per le opinioni ho creato una rubrica a sé, Pensieri Franchi, tramite la quale perdo ogni settimana una gran quantità di lettori, ma questo è un altro discorso.
Ci ho tenuto a fare questa premessa perché in questa Insalata, al contrario, proverò a fare un’ipotesi tutt’altro che campata in aria. Un’ipotesi che nasce da un fatto, anzi da una serie di fatti, che messi in fila sembrerebbero non lasciare dubbi a riguardo. E tuttavia, un conto è se un’ipotesi del genere la fa un editorialista importante o un esperto di politica internazionale e questioni militari, un conto è se la faccio io. Su questo, non credo ci possa essere il minimo dubbio.
Fatta questa premessa, provate a leggere i fatti così come li ho letti io e poi fatemi sapere se la ritenete un’ipotesi campata in aria. Ah, un’ultima cosa: si parla del conflitto israelo-palestinese. Nessuna opinione avrete in questo contesto sulla guerra in sé. Non c’entrerebbe niente e non sarebbe il contesto giusto.
Come l’IA è stata già impiegata nella guerra
Mentre ci divertiamo a chiedere ai grandi modelli di linguaggio le cose più bizzarre; mentre questi modelli estremamente grandi, complessi e energivori vengono integrati in una serie di dispositivi dall’uso quotidiano, c’è qualcuno che - sarebbe stato assurdo non fosse stato così - ha ben pensato di integrare l’intelligenza artificiale negli strumenti utilizzati sui territori di guerra.
Fino ad oggi ne avevo soltanto il sospetto, come credo la maggior parte di voi. Un articolo uscito ieri sul NYT ha però spazzato via ogni dubbio: Israele sta utilizzando con profitto l’intelligenza artificiale contro la Palestina già da qualche anno. L’articolo va ancora più a fondo e ci spiega nei dettagli come.
Secondo quanto riportato dall’articolo del New York Times, alla fine del 2023 Israele era sulle tracce di Ibrahim Biari, un comandante di Hamas coinvolto negli attacchi del 7 ottobre. Biari era nascosto nella rete di tunnel sotto Gaza, rendendone impossibile l’individuazione con i metodi tradizionali. Così, i militari israeliani hanno deciso di rispolverare una tecnologia sperimentale, nata dieci anni prima ma mai testata sul campo: un sistema capace di localizzare approssimativamente una persona analizzando le sue telefonate, potenziato ora con l'integrazione dell'intelligenza artificiale dai tecnici dell'Unità 8200.
Il 31 ottobre, grazie a questa nuova arma digitale, Israele è riuscita ad individuare la posizione di Biari e - pur senza avere certezze sull’esattezza dell’informazione - ha lanciato un raid aereo che ha effettivamente ucciso Biari. Purtroppo, insieme a Biari, ha ucciso anche 125 civili (o forse più), secondo le stime di Airwars.
Questo primo test di uno strumento basato su intelligenza artificiale nel contesto bellico si dimostra fondamentale per due motivi: il primo è che siamo all’inizio di una grande scissione del mondo militare, dove da una parte ci sarà chi potrà contare su questo tipo di tecnologie, il che ci ricorda un po’ quello che capitava nel secolo scorso (ma ancora oggi) con chi possiede nei propri arsenali armi atomiche. Il secondo motivo invece è quello che ci conferma come Israele sia sostanzialmente un terreno di sperimentazione per una serie di tecnologie del futuro prossimo - diremmo imminente - e questa è la considerazione che si collega poi all’ipotesi di cui parlavo nell’introduzione e che espliciterò nell’ultimo paragrafo.
Visto che ho parlato dell’Unità 8200, un rapido cenno per capire cos’è: si tratta del cuore hi-tech dell’intelligence israeliana: si occupa di intercettazioni, decrittazione, spionaggio elettronico e guerra cibernetica. Nata nel 1952 come Unità 515 a Jaffa, oggi l’Unità 8200 è anche sospettata di aver collaborato alla creazione del virus Stuxnet insieme alla NSA e ha dato vita a realtà come NSO Group, produttrice di Pegasus, lo spyware capace di trasformare un qualsiasi smartphone in una perfetta microspia tascabile.
Israele è il test per i grandi eserciti mondiali?
C’è una frase in particolare, nell’articolo da cui ho preso spunto, che mi ha fatto alzare le orecchie, ed quella che riporto per intero qui di seguito:
«Nessun'altra nazione è stata così attiva come Israele nella sperimentazione di strumenti di IA in battaglie in tempo reale» hanno detto i funzionari della difesa europei e americani, dando un'anteprima di come tali tecnologie possono essere utilizzate nelle guerre future e di come potrebbero anche andare male.
Israele è molto attiva nella ricerca tecnologica, soprattutto quella applicata alla sicurezza, ed è da anni all’avanguardia in numerose tecnologie militari e balistiche. Lo scudo per la difesa contro gli attacchi missilistici, i droni, ma anche la violazione di dispositivi crittografati come gli smartphone, fino ai ben noti sistemi di intercettazione, al centro anche recentemente di scandali che hanno riguardato il nostro paese. Sto parlando del caso Paragon, di cui ho già parlato in una precedente Insalata Mista.
Tuttavia, qui si tratta di tutto un altro campo, qualcosa che potrebbe dare un vantaggio strategico enorme al paese che non solo è dotato di questi strumenti, ma che li padroneggia a tal punto da poterli usare in concreto sui campi di battaglia. Ci sono due scenari di guerra che vedono gli Stati Uniti attivi in prima persona nell’invio di armi e nella condivisione di informazioni: la difesa dell’Ucraina dall’invasione russa (o quantomeno quello che ne rimane) e l’attacco di Israele alla Palestina all’indomani della carneficina del 7 ottobre. È evidente che uno soltanto dei due è lo scenario più adatto per sperimentare sul campo questo genere di nuove tecnologie, ed è proprio quello che Israele sta facendo.
La geografia del futuro potrebbe essere già scritta
Partiamo da un presupposto: tutto quello che trapela sui segreti e sulle tecnologie militari è soltanto una frazione di quello che possiamo realmente sapere. Giustamente, sarebbe una follia se gli uffici stampa si mettessero a spiattellare ai giornali di tutto il mondo cosa intendono utilizzare e come intendono farlo, no?
Prendiamo quindi quello che sappiamo, cioè che Israele è stata in grado di utilizzare una tecnologia che, in base all’audio delle telefonate, ha geolocalizzato la posizione di una persona. Non basta. Negli ultimi 18 mesi, Israele ha accelerato sull’uso militare dell’intelligenza artificiale creando software di riconoscimento facciale capace di operare anche su volti oscurati o parzialmente danneggiati. Ha creato modelli di linguaggio in arabo con annessi chatbot in grado di analizzare messaggi di testo e post sui social e altri tipi di dati in lingua araba.
Dietro queste tecnologie ci sarebbe una collaborazione tra i tecnici dell’unità 8200 e riservisti che lavorerebbero per i soliti noti della tecnologica, ovvero Google, Microsoft e Meta. Questo gruppo avrebbe dato vita a “The Studio”, un hub di innovazione dedicato ai progetti basati sull’intelligenza artificiale che però avrebbe portato anche ad errori gravi, come vittime civili e arresti ingiusti.
«L'urgente necessità di far fronte alla crisi ha accelerato l'innovazione, in gran parte alimentata dall'IA», ha detto Hadas Lorber, capo dell'Istituto per la ricerca applicata in A.I presso l'Istituto di tecnologia Holon di Israele ed ex direttore senior del Consiglio di sicurezza nazionale israeliano. Ha poi aggiunto «Ha portato a tecnologie rivoluzionarie sul campo di battaglia e vantaggi che si sono rivelati critici in combattimento».
Ancora più spaventoso è questo strumento, che Israele avrebbe già messo in campo e che ci avvicina tremendamente al futuro disegnato da film come Minority Report. Cito di nuovo:«Israele ha anche usato l'IA per setacciare i dati accumulati dai funzionari dell'intelligence sui membri di Hamas. Prima della guerra, Israele costruì un algoritmo di apprendimento automatico - nome in codice "Lavanda" - che poteva ordinare rapidamente i dati per dare la caccia ai militanti di basso livello. È stato addestrato su un database di membri confermati di Hamas e aveva lo scopo di prevedere chi altro avrebbe potuto far parte del gruppo. Sebbene le previsioni del sistema fossero imperfette, Israele lo usò all'inizio della guerra a Gaza per aiutare a scegliere obiettivi di attacco».
È evidente come tutte queste tecnologie fossero a livello primordiale prima dell’inizio della guerra di Israele contro Gaza e che oggi hanno compiuto un enorme passo in avanti che, grazie all’apporto fondamentale da parte di riservisti impiegati nelle grandi aziende americane, entreranno quasi certamente a far parte del bagaglio di strumenti dell’esercito statunitense.
Con questi strumenti evoluti e addestrati direttamente sul campo di guerra, gli eserciti di Israele e Stati Uniti avranno un vantaggio competitivo enorme nei prossimi anni. Un vantaggio colmabile forse sul fronte degli algoritmi, ma non sul fronte del riscontro pratico sul campo di battaglia. Perché per addestrare i modelli in quel contesto, serve una guerra.
L’ipotesi più spaventosa: la Palestina come terreno di esercitazione
Maturata la considerazione che gli strumenti più evoluti basati su intelligenza artificiale hanno bisogno di essere addestrati sul campo, è evidente che serva una guerra per poterli testare e mettere a punto. Tuttavia, gli equilibri geografici non avrebbero permesso agli Stati Uniti (faccio un esempio) di entrare a gamba tesa in una guerra qualsiasi. C’erano fondamentalmente due alternative possibili, come abbiamo già visto: Ucraina e Israele.
Con Israele però gli Stati Uniti mantengono ottimi rapporti da tempo (anche l’amministrazione Biden, apertamente ostile al premier israeliano, non ha mai fatto mancare il suo supporto militare). Inoltre, Israele possedeva già un know-how notevole in campo tecnologico e un reparto di ricerca e sviluppo particolarmente avanzato. Quale contesto migliore per testare sul campo i nuovi strumenti di intelligenza artificiale se non una guerra contro la Palestina?
Capite quindi che l’ipotesi potrebbe non essere così campata in aria, cioè quella di aver tollerato senza troppo protestare l’enorme massacro di civili compiuto da Israele ai danni di Gaza City e di tutta la Palestina, in aperta e palese violazione di tutte le leggi umanitarie e non solo. Su Benjamin Netanyahu è vero che pende un mandato di cattura della Corte Penale Internazionale che tuttavia nessuno eseguirà mai. Perché? Come mai c’è questa tolleranza nei confronti di Israele? È soltanto perché questa guerra — che ricordiamo essere soltanto l’ultimo episodio di una lunga sequenza — è partita all’indomani di un massacro disumano da parte di Hamas o forse perché sarebbe stato un terreno perfetto per testare i nuovi strumenti militari basati su intelligenza artificiale?
Diventa anche chiaro, a questo punto, come mai le aziende che stanno sviluppando questi strumenti operino sistematicamente in perdita, con consumi di energia e di calcolo che non avrebbero senso se non ci fosse dietro un interesse nazionale superiore. Diventa altrettanto chiaro, alla luce di tutto questo, come appaiano delicati i rapporti con l’Asia e con i costruttori di GPU che permettono a questi sistemi di funzionare. Così come le materie prime con cui si costruiscono i chip (le famose terre rare che proprio di recente la Cina, in seguito ai dazi adottati da Trump, ha dichiarato di non voler fornire più agli Stati Uniti).
Quale che sia la verità — non sta certo a me indovinarla — il futuro che si prospetta è straordinariamente complicato. In primo luogo perché l’intelligenza artificiale segnerà uno spartiacque ben più importante dell’atomica nel distinguere i paesi più potenti militarmente da quelli che invece non lo saranno. In secondo luogo perché i paesi che più stanno spingendo su questi strumenti, non possiedono né le fabbriche di processori, né la tecnologia, né le materie prime. E questo mette tutto in una luce di straordinaria complessità geopolitica.
Che sia un’ipotesi folle o meno, rimane un dato di fatto: l’intelligenza artificiale sta cambiando il mondo molto più profondamente di quanto la società abbia percepito.
» COSE MOLTO UTILINK: Quando gli estremismi convergono
A proposito di quello che ho scritto nei Pensieri Franchi del 25 aprile, c’è un fenomeno molto particolare che si sta verificando in alcune zone del nord Italia. È un fenomeno preoccupante e nascosto, io stesso lo ignoravo totalmente, ed è quello dei gruppi di estrema destra che si mettono insieme a quelli di estrema sinistra e a cospirazionisti vari (gruppi pro-russia, novax, no-5G, ecc.).
Vi consiglio la lettura di questo incredibile lavoro giornalistico a opera di Valerio Renzi nella sua newsletter S’è Destra.
» PENSIERI FRANCHI: Quando le istituzioni si comportano da bullo
→ “Pensieri Franchi” è il mio editoriale. O meglio, i miei pensieri in libertà.
C’è una forma di bullismo che non viene perseguita né tantomeno condannata, quantomeno in molti contesti istituzionali. Un caso eclatante di bullismo non condannato, anzi sostenuto con forza dalle istituzioni, è quello che riguarda il licenziamento dell’insegnante dell’asilo nido del trevigiano, “colpevole” di aver aperto un profilo su OnlyFans, la piattaforma dove i creator possono pubblicare contenuti visibili soltanto da chi si abbona. OnlyFans non è un sito di contenuti per adulti ma ormai è sinonimo di questo utilizzo che ne viene fatto nella larghissima parte dei casi.
Parlo di bullismo per due fatti: il primo è il modo in cui si è diffusa la notizia che la maestra d’asilo aveva un profilo OnlyFans: tramite diffusione di immagini sulla chat del calcetto del compagno di una mamma. Ovvero l’ambito peggiore, il più vile e becero, dove si consuma, nel 99% dei casi, non solo il bullismo sessuale, ma anche il cosiddetto Revenge Porn. Il solo gesto di condivisione su una chat di maschi di immagini di una donna (siano state fatte volutamente o meno) sarebbe da condannare. “Eh ma lei le ha pubblicate”. No, su OnlyFans per poter accedere ti devi abbonare e non esiste la facoltà di diffondere quel materiale. È un po’ come se una persona te le inviasse personalmente, non puoi diffonderle. Quindi il primo atto da condannare è proprio questo: la diffusione via chat di queste immagini.
Poi queste immagini vengono intercettate dalla compagna di questo personaggio, la quale — per gelosia o per altri motivi che non interessano — ha ritenuto di doverne parlare non privatamente con altre mamme, bensì su Facebook. Immagino facendo nomi e cognomi o comunque fornendo dettagli che avrebbero potuto facilmente ricondurre all’insegnante. Secondo gesto grave: se ritieni che la condotta dell’insegnante non sia in linea con l’educazione che vuoi che venga data a tuo figlio/a, ne parli con il preside o con altri genitori, in ogni caso privatamente.
Terzo fatto: la mamma, supportata dal consenso di due o tre mamme (contro centinaia che le avevano consigliato di lasciar stare), sarebbe andata dal preside che poi avrebbe deciso di licenziare l’insegnante “per giusta causa”, ovvero perché il profilo "contrasta con l'ispirazione cattolica che orienta l’indirizzo educativo della scuola”. Ma quale profilo? Quello di una piattaforma a cui non si può accedere pubblicamente se non abbonandosi? Quale ispirazione cattolica? Che il cattolicesimo deve entrare forse anche nel merito dell’abbigliamento scelto o di come ci si può mostrare sulle piattaforme private? Bisogna allora pensare di mandare le nostre donne (perché guarda il caso sempre di donne si tratta) al mare con il velo per non vederle in costume? E soprattutto: cosa c’entra questo con l’asilo e l’educazione dei figli? Hanno per caso appurato se l’insegnante teneva delle lezioni su come ci si fotografa per ottenere più follower su OnlyFans?
L’insegnante ha ovviamente impugnato il licenziamento e sono quasi certo che la scuola sarà costretta a tornare sui suoi passi. Lo credo e lo spero fortemente perché, sebbene viviamo in tempi davvero bui, che si debba accettare di essere scaduti in questo clima da caccia alle streghe, di agire con atti ufficiali e addirittura con il licenziamento per assecondare alcuni genitori benpensanti colpevoli — loro sì — di bullismo e altri gesti da condannare, è veramente triste e ed è indice di uno stato basso e vergognoso di un paese ormai alla frutta.
Un’ultima domanda mi viene a questo punto: e se fosse stato un insegnante uomo a pubblicare foto su un profilo Only Fans? Qualcuno si sarebbe scandalizzato? Lo dico con cognizione di causa: ovviamente no. Perché questo fatto ci racconta ancora di un ultimo, enorme problema della nostra bell’Italia: il problema con le donne, di cui ci ricordiamo solo perché occupano quotidianamente le pagine dei quotidiani, sì, però quasi esclusivamente quelle della cronaca nera.
Franco A.
» SFAMA LA FOMO!
Cos’è la F.O.M.O.?1
Google paga (tanto) Samsung per preinstallare Gemin
Durante il processo antitrust contro Google è emerso che quest’ultima paga a Samsung una “somma enorme” ogni mese per preinstallare l'app AI Gemini sui suoi smartphone. L’accordo, iniziato a gennaio 2025, prevede anche la condivisione dei ricavi degli abbonamenti Gemini. Il Dipartimento di Giustizia punta ora a vietare a Google futuri accordi di default su dispositivi mobili.
Fonte: theverge.com
Ray-Ban Meta: traduzione in tempo reale disponibile anche in Italia
Gli occhiali Ray-Ban Meta ora offrono la traduzione live in inglese, spagnolo e francese anche senza connessione internet. Meta continua a migliorare il dispositivo, che presto permetterà anche messaggi, musica e riconoscimento visivo direttamente dagli occhiali.
Fonte: DDay.it
Apple e Meta multate per 700 milioni di euro dall'UE
La Commissione Europea ha sanzionato Apple per 500 milioni e Meta per 200 milioni per violazioni del Digital Markets Act: Apple avrebbe limitato le informazioni sugli acquisti alternativi all'App Store, Meta imposto scelte forzate sulla gestione dei dati pubblicitari.
Fonte: DDay.it
La rete di ricarica in Italia sfiora quota 66.000 punti
Al 31 marzo 2025 in Italia sono attivi 65.992 punti di ricarica per auto elettriche, con una crescita annua del 21,8%. Cresce anche la copertura in autostrada: il 45,5% delle aree di servizio è ora dotato di stazioni di ricarica, di cui l’86% in corrente continua e il 64% con potenza superiore a 150 kW. Secondo Motus-E, l’Italia è tra i migliori Paesi europei per infrastruttura di ricarica in rapporto alla rete stradale.
Fonte: DMove.it
Stellantis e Factorial Energy: batterie allo stato solido cariche in 18 minuti
Stellantis e Factorial Energy hanno validato le celle FEST da 375 Wh/kg, capaci di ricaricarsi dal 15% al 90% in soli 18 minuti. Il progetto segna un passo decisivo verso batterie allo stato solido più leggere, performanti e adatte anche ai modelli elettrici ad alte prestazioni. I primi test su strada sono previsti entro il 2026.
Fonte: DMove.it
Se sei arrivato fino a qui, innanzitutto ti ringrazio.
Non ci siamo presentati: mi chiamo Franco Aquini e da anni scrivo di tecnologia e lavoro nel marketing e nella comunicazione.
Se hai apprezzato la newsletter Insalata Mista ti chiedo un favore: lascia un commento, una recensione, condividi la newsletter e più in generale parlane. Per me sarà la più grande ricompensa, oltre al fatto di sapere che hai gradito quello che ho scritto.
Franco Aquini
La F.O.M.O., un acronimo che sta per Fear Of Missing Out, è la deriva moderna del tam tam dei social network unita all’enorme disponibilità di strumenti di informazione e di intrattenimento. In pratica, è la paura di perdersi qualcosa e di non essere sempre al passo con i tempi. Con questa rubrica rispondiamo a queste paure, riassumendo in breve le notizie più significative della settimana, pescate dal mondo della tecnologia, dell’entertainment e del lifestyle.
Caro Franco sono molto felice di aver letto quello che hai scritto sulla maestra della provincia di Treviso (provincia in cui casulamente risiedo anche io) perchè è un caso che mi ha profondamente turbato, ricorda molto la pubblica gogna e la richiesta popolare del capestro negli anni bui della storia. Il meccanismo è il medesimo e fa anche un po' paura perchè significa che la nostra mentalità non si è evoluta nel corso della storia e che i mezzi tecnologici di cui disponiamo vengono utilizzati sempre per riprodurre lo stesso schema comportamentale che evidentemente è segno di una profonda, abnorme arretratezza culturale. Spero che la maestra d'asilo non solo impugni il licenziamento ma che denunci anche quel papà e quelle mamme che l'hanno bullizzata; mi piacerebbe anche che poi qualcuno si chieda come sia possibile che una maestra d'asilo (ma non solo lei ovviamente) possa sopravvivere con 1200€ al mese... Grazie e buona giornata.
Esiste un libro che approfondisce quanto introduce come elemento di dubbio. Si intitola “Laboratorio Palestina” di Antony Lowenstein, ebreo di famiglia sionista, edito da Fazi Editore.