Davvero l’intelligenza artificiale può distruggere l’umanità? - Parte 1
Dalle battute su HAL 9000 ai documenti ufficiali che parlano di “rischi catastrofici”: l’intelligenza artificiale è entrata in un territorio nuovo, più serio e meno controllabile di quanto pensassimo.
Quando è arrivata tra di noi ChatGPT — la prima concreta espressione di quello che oggi intendiamo per intelligenza artificiale — sono stati in molti a trovare nelle sue risposte significati inquietanti che, in realtà, erano soltanto il risultato di ciò che caratterizza un modello di linguaggio: tentare di dare la risposta più plausibile alla domanda che gli abbiamo posto sulla base di ciò che ha appreso durante la fase di addestramento.
Così, alle domande catastrofiste su un’eventuale fine del mondo, ChatGPT rispondeva come probabilmente aveva imparato leggendo milioni di libri, testi e articoli. Tra questi ci saranno stati sicuramente anche romanzi di fantascienza in cui un’intelligenza artificiale si ribella all’uomo cercando di distruggerlo. Chi non ne ricorda almeno uno su questa falsariga? (E perché proprio 2001: Odissea nello spazio?).
Certo è che se chiedi a una macchina come può annientare il mondo e l’umanità e questa ti risponde con un piano ben preciso, un certo brivido lo provi, questo è chiaro. Da lì a pensare che questo tipo di intelligenza artificiale possa rappresentare un vero pericolo ce ne passa, e personalmente ho sempre bollato questo genere di articoli come puro click-bait. Solo chi non sa come ragiona un modello di linguaggio come quelli alla base di queste chat può temere che un sistema del genere sviluppi il libero arbitrio e decida di ribellarsi ai suoi creatori annientandoli. Ma cosa succede se non c’entrano né il libero arbitrio né la volontà dell’intelligenza artificiale? Come la mettiamo, invece, se dietro questi piani diabolici c’è la mano dell’uomo?
È solo uno degli interrogativi che hanno iniziato a frullarmi in testa dopo aver letto un articolo di Stephen Witt sul New York Times (che trovate tradotto su Internazionale n. 1640 del 14/11/2025 — ve l’ho già suggerito di abbonarvi a Internazionale?), dal titolo “Il prompt AI che potrebbe distruggere il mondo”. Quale titolo più esplicito potrebbe far drizzare le antenne a chiunque provi un minimo di ansia o inquietudine verso queste nuove tecnologie? Uno come me un titolo del genere l’avrebbe bollato subito come sensazionalistico, ma c’è un problema: il New York Times rimane una delle testate più autorevoli al mondo e Stephen Witt non è certo l’ultimo arrivato. Il suo “How Music Got Free” è stato selezionato per il J. Anthony Lukas Book Prize del 2016, il Financial Times Business Book of the Year Award del 2015 e il Los Angeles Times Book Prize for Current Interest. Insomma, è uno che ne sa.
Quello che quest’articolo ha fatto, sostanzialmente, è stato spostare la mia attenzione dal pericolo diretto che un’intelligenza artificiale possa fare volontariamente qualcosa contro l’essere umano al modo in cui potrebbe essere sfruttata deliberatamente da un gruppo di persone o da un’intera nazione. Sì, perché la domanda di fondo è una e una soltanto: noi possiamo regolamentarla, limitarla, imporre paletti e impedire che se ne faccia un certo uso. Ma questi regolamenti devono poi essere sottoscritti da tutti, cosa si fa invece con chi decide di tirarsene fuori senza alcuna intenzione di rispettarli?
Ed è proprio qui che viene in mente un’altra situazione analoga: il nucleare, qualcosa che si sapeva dall’inizio avrebbe rivoluzionato la scienza ma che, se messo nelle mani sbagliate, avrebbe anche potuto rappresentare un pericolo enorme. E cos’è che ha portato una larga parte del pianeta ad accordarsi per non utilizzarlo più come arma offensiva? Ovviamente l’episodio noto a tutti, cioè quello in cui gli Stati Uniti decisero di usare quest’arma devastante contro il Giappone.
Una volta visti gli effetti, tutte le nazioni (o quasi) si accordarono per un uso estremamente controllato di questa tecnologia. E di conseguenza, il primo pensiero che viene è: servirà un’altra Hiroshima per convincerci a metterci d’accordo sull’uso che dovremo fare dell’intelligenza artificiale? E, soprattutto, visto quello che è successo nei decenni successivi a Hiroshima/Nagasaki, quanto ci vorrà perché qualcuno si dimentichi degli impegni presi e ricominci a farsi beffe degli accordi?
Un’Insalata Mista evidentemente molto impegnativa. Proprio per questo — spero non me ne vogliate — ho deciso di dividerla in due parti. Non ho certo la presunzione di darvi risposte definitive, ma come sempre posso provare a fornirvi quante più fonti autorevoli possibile. Se tutto questo vi porterà a farvi qualche domanda in più, come è successo a me, allora vorrà dire che avrò fatto un buon lavoro.
Non sono solo i catastrofisti di Twitter
Per molto tempo chi parlava di “rischio esistenziale” legato all’intelligenza artificiale sembrava appartenere a quella categoria un po’ folkloristica di persone che sui social riescono a vedere un’apocalisse ovunque. È stato facile ignorarli e in parte è stato anche giusto farlo, perché per anni sono mancate le basi solide per sostenere un discorso così estremo, e soprattutto è mancata qualsiasi forma di riconoscimento istituzionale che potesse anche solo lontanamente avallare queste paure.
Poi, però, a un certo punto è successo qualcosa. La discussione è uscita dalla bolla degli appassionati (o ossessionati) online ed è arrivata dove nessuno si aspettava: nei documenti ufficiali, firmati da persone e istituzioni abituate a pesare le parole. Nel 2023, un gruppo di esperti che comprendeva, tra gli altri, Sam Altman (dov’è che l’abbiamo già sentito? Ah già, è il creatore di OpenAI e di ChatGPT), Geoffrey Hinton, Yoshua Bengio, Demis Hassabis e altri nomi di questo calibro, ha sottoscritto una dichiarazione di una riga in cui si affermava che mitigare il rischio di estinzione causato dall’AI dovrebbe essere una priorità globale allo stesso livello delle pandemie e della guerra nucleare. Non era un tweet provocatorio: era un documento istituzionale, asciutto e austero come tutti i documenti istituzionali. Ed è questo che ha colpito più di tutto.
Da lì in poi la soglia si è spostata. Il Regno Unito ha pubblicato un report dal titolo che non poteva essere più chiaro di così: Frontier AI: capabilities and risks – discussion paper. Un report che però, una volta aperto, parla con sorprendente naturalezza di scenari di “uso catastrofico” dei sistemi più avanzati.
Si legge in questo documento:”In generale, i sistemi di intelligenza artificiale di frontiera non sono robusti, ovvero spesso falliscono in situazioni sufficientemente diverse dai loro dati di addestramento. In particolare, le misure di sicurezza per impedire ai modelli di intelligenza artificiale di frontiera di soddisfare richieste dannose (come la progettazione di attacchi informatici) non sono robuste e gli utenti ‘avversari’ che mirano a aggirare queste misure di sicurezza ci sono riusciti. Approcci semplici di ‘jailbreak’, come sollecitare il modello a rispondere affermativamente a una richiesta, sono spesso sufficienti, sebbene prompt più insoliti possano essere più efficaci. L’intelligenza artificiale che elabora input visivi può essere particolarmente vulnerabile, e i metodi per generare automaticamente prompt avversari possono peggiorare la situazione. Sebbene la robustezza dell’intelligenza artificiale sia un campo di ricerca ben sviluppato con migliaia di articoli pubblicati, nella pratica la mancanza di robustezza è ancora un problema irrisolto che colpisce tutti i tipi di modelli di apprendimento automatico, inclusi modelli linguistici, modelli di immagini, e altri agenti di intelligenza artificiale”.
Gli Stati Uniti, attraverso il NIST, hanno iniziato a definire linee guida per i modelli cosiddetti “dual use”, cioè quelli che possono essere utili nella ricerca medica quanto nella creazione di agenti biologici se finiti nelle mani sbagliate. La California ha approvato una legge che chiede ai produttori di sistemi avanzati di valutare concretamente la possibilità che le loro tecnologie vengano impiegate per attacchi su larga scala o per colpire infrastrutture critiche. E tutto questo è successo senza toni apocalittici, senza drammatizzazioni, senza retorica. Anzi: con la calma glaciale del linguaggio tecnico, quello che invece di spaventare sembra quasi voler evitare qualsiasi allarmismo, ma che proprio per questo lascia una sensazione più persistente di qualsiasi titolo a effetto.
A quel punto, liquidare il tutto come paranoia collettiva è diventato difficile, perché a parlare non erano più gli entusiasti del “ci stermineranno tutti” o i nostalgici di HAL 9000, ma gli stessi ricercatori che questa tecnologia l’hanno creata e la conoscono meglio di chiunque altro. Personaggi come Hinton, Bengio o Hassabis, cioè persone che per anni hanno difeso il potenziale dell’intelligenza artificiale, oggi ammettono, pur con tutte le cautele del caso, che ci sono scenari da non prendere alla leggera. Non scenari certi, non imminenti, non inevitabili: semplicemente possibilità che meritano di essere considerate.
Il risultato è che siamo entrati in una fase nuova, in cui parlare di rischio non è più un esercizio di immaginazione, ma una questione tecnica, politica e persino diplomatica. Non significa che domani accadrà qualcosa, né che dobbiamo cominciare a guardare con serio interesse a quel bunker da costruire in cantina, ma significa riconoscere che il discorso è diventato serio, che le istituzioni lo stanno trattando come tale e che ignorarlo, oggi, non sarebbe prudente quanto ignorarlo dieci anni fa. La domanda non è più “l’AI potrebbe sviluppare una volontà autonoma e farci del male?”, ma qualcosa di molto più concreto: “cosa potrebbe fare chi ha interesse a usarla male?”. E soprattutto: “siamo pronti ad affrontare questa possibilità?”.
Cosa vuol dire davvero “rischio catastrofico”, senza arrivare a Skynet
Quando si parla di “rischio catastrofico” legato all’intelligenza artificiale si tende immediatamente a saltare alla conclusione più intuitiva, spettacolare e cinematografica: un sistema che, a un certo punto, sviluppa una sorta di coscienza, decide che l’uomo è un ostacolo e ne pianifica lo sterminio.
È un’immagine che ci portiamo dietro da decenni, perché il cinema e la letteratura hanno fatto un lavoro straordinario nell’imprimerla nella memoria collettiva. Ma la verità è che nessuno dei documenti ufficiali che citano la parola “catastrofe” sta parlando di questo. Nessuno descrive un’AI malvagia, nessuno prevede un computer che si ribella, nessuno immagina un’entità onnipotente che prende il controllo delle centrali elettriche. Il tipo di rischio di cui parlano governi, istituti scientifici e laboratori è molto più concreto, molto più sobrio e, paradossalmente, molto più credibile.
Il punto centrale, che spesso sfugge, è che un’intelligenza artificiale non deve “volerci” fare del male per diventare parte di un problema. Basta che consenta a qualcun altro di farlo meglio, più velocemente, con meno competenze tecniche di quante ne sarebbero necessarie oggi. Tutte le analisi più serie convergono su un concetto semplice: modelli molto avanzati potrebbero abbassare la soglia tecnica necessaria per compiere azioni estremamente dannose.
Non stiamo parlando di un’AI che improvvisamente decide di progettare un virus da sola, ma di un modello che, se interrogato nel modo giusto e con finalità tutt’altro che nobili, potrebbe fornire spiegazioni, collegamenti, procedure e indicazioni che oggi richiederebbero anni di studio, un laboratorio specializzato, e soprattutto competenze difficili da acquisire.
Ecco perché i report governativi parlano di “misuse” — ovvero uso improprio — e non di ribellione autonoma. Il rischio non è il libero arbitrio della macchina, ma l’intenzionalità dell’essere umano. Il pericolo con le intelligenze artificiali, per ora, è tutta nel secondo caso. Perché parliamo di uno strumento capace di assistere in campi scientifici avanzati, inclusi quelli che non vorremmo mai vedere nelle mani sbagliate.
A rendere questo scenario più plausibile del solito immaginario fantascientifico è il fatto che i primi segnali, seppur deboli, li abbiamo già visti. Alcuni laboratori che sviluppano sistemi avanzati hanno condotto test interni per valutare fino a che punto un modello possa assistere in compiti sensibili, dalla biologia alla cybersecurity.
In media, le capacità sono ancora limitate e sotto controllo, ma vi sono stati casi specifici — sempre in ambiente controllato — in cui un modello ha dimostrato di fornire un aiuto concreto, superiore a quello delle risorse disponibili pubblicamente. Non stiamo parlando di scenari da film, ma di piccoli indizi su cui gli stessi sviluppatori hanno deciso di alzare una bandiera: se continuiamo a rendere questi modelli più bravi, più veloci e più accessibili, dovremo interrogarci seriamente su quali tipi di abilità saranno in grado di trasferire a chiunque.
E allora il “rischio catastrofico” assume un significato diverso. Non è un meteorite che cade dal cielo, non è un supercomputer che prende vita, non è la vendetta delle macchine sotto forma di T1000. È una possibilità molto meno spettacolare ma molto più vicina: che la potenza di questi sistemi venga combinata con le intenzioni sbagliate. Che la parte umana del problema — l’ambizione, la rabbia, il potere, la violenza, l’istinto alla sopraffazione — trovi un alleato tecnologico più efficiente di qualsiasi cosa esistita finora. E in questo quadro non ci serve immaginare Skynet: ci basta ricordare che la storia umana è piena di casi in cui una nuova tecnologia è stata usata prima per fare del bene, e poi, inevitabilmente, per fare del male (o viceversa).
Parlare di tutto questo senza scivolare nel sensazionalismo non è facile, me ne rendo conto, ma è necessario. Il rischio non è immediato, non è certo e non è definito. È un rischio potenziale, che va preso sul serio perché la posta in gioco — come spesso accade nelle grandi trasformazioni tecnologiche — è alta. E le decisioni che prendiamo oggi, quando la tecnologia non è ancora fuori controllo, contano molto più di quelle che potremo prendere domani.
I documenti realmente inquietanti
Una delle cose più sorprendenti, quando si comincia a scavare un po’ sotto la superficie del dibattito sull’intelligenza artificiale, è scoprire quanto materiale serissimo sia stato prodotto negli ultimi due anni senza che quasi nessuno se ne accorgesse.
Mentre noi discutevamo di chatbot più o meno educati, filtri sui contenuti e qualche allucinazione di troppo, governi e istituti di ricerca mettevano nero su bianco scenari che, letti oggi, fanno sembrare certi articoli catastrofisti quasi ingenui. E il punto non è che questi documenti siano segreti, tutt’altro: sono lì, pubblici, liberamente scaricabili, scritti con quel linguaggio che sembra progettato apposta per scoraggiare anche il più volenteroso dei lettori. Ma se si supera l’ostacolo dello stile — che spesso è più respingente dei contenuti — si scopre un mondo molto diverso dal dibattito sui social.
Negli Stati Uniti, la situazione non è molto diversa. Il NIST, che è uno degli enti tecnici più rispettati al mondo, ha avviato un lavoro sistematico per definire standard di sicurezza per i cosiddetti modelli “dual use”. Dual use significa semplicemente che la stessa tecnologia può essere impiegata per scopi benefici o per scopi distruttivi, a seconda dell’intenzione di chi la utilizza. Non è un concetto nuovo: esiste nella chimica, nella biologia, in molte tecnologie industriali. Ma applicarlo ai modelli linguistici e ai sistemi generativi è qualcosa di completamente diverso, perché significa riconoscere che questa nuova categoria di strumenti — che fino a ieri consideravamo alla stregua di assistenti virtuali un po’ più intelligenti — sta diventando parte di infrastrutture sensibili. È come se domani ti dicessero: “Ok, per utilizzare Alexa da oggi ti servirà il porto d’armi”. Non proprio rassicurante.
Il NIST, tra le altre cose, ha anche realizzato un framework per la gestione dei rischi dell’intelligenza artificiale che aggiorna regolarmente.
Accanto ai governi ci sono poi le organizzazioni indipendenti, come la Nuclear Threat Initiative, che da anni studiano i rischi legati alla diffusione di tecnologie critiche. Anche in questo caso, ciò che colpisce non è la drammaticità delle analisi, ma la loro sobrietà. Per esempio quella intitolata “The Convergence of Artificial Intelligence and the Life Sciences”. Non dicono mai che l’AI scatenerà una catastrofe, ma ripetono in modo quasi ossessivo un concetto molto semplice: se abbassi troppo la barriera tecnica a strumenti potenzialmente pericolosi, ti devi aspettare che, prima o poi, qualcuno proverà a usarli nella direzione sbagliata. E non è una profezia, è banale analisi statistica.
Infine ci sono le stesse aziende che sviluppano questi modelli. Che non sono certo note per la prudenza comunicativa e che in genere tendono a enfatizzare progressi e potenzialità, non certo i rischi. Eppure, negli ultimi mesi, perfino i laboratori di OpenAI, Anthropic e Google hanno iniziato a includere nei loro documenti interni valutazioni sul possibile “aiuto significativo” che certi modelli potrebbero fornire in contesti sensibili (leggasi: pericolosi). Non perché abbiano scoperto qualcosa di spaventoso, ma perché, per la prima volta, si stanno preparando a convivere con l’idea che i loro sistemi non siano più semplici prodotti commerciali, ma tecnologie con un impatto potenziale paragonabile a quello di settori come la biotecnologia o la sicurezza informatica. Insomma, la realtà per i giganti tecnologici oggi è questa: prima vendevano giocattoli tecnologici, oggi sistemi che possono essere usati militarmente.
E in alcuni casi le aziende sono arrivate a fare una cosa che fino a un paio d’anni fa sarebbe sembrata fantascienza: attivare livelli di protezione avanzati perché i loro stessi test interni hanno mostrato capacità che non si aspettavano. È quello che ha fatto Anthropic con il cosiddetto ASL-3, un livello di sicurezza che scatta quando un modello dimostra di poter fornire assistenza concreta e non banale in ambiti come la biologia sintetica o la sicurezza informatica. Non parliamo di scenari estremi: si tratta di casi in cui, sotto certe condizioni, un modello ha dato risposte che andavano oltre ciò che è reperibile pubblicamente e che avrebbero potuto facilitare attività sensibili. Non abbastanza da diventare pericolose, ma abbastanza da accendere un allarme. Ed è raro vedere un’azienda dire apertamente: “Questo non lo rilasciamo così com’è, prima attiviamo dei freni”.
Occorre anche specificare un dettaglio non trascurabile: per la prima volta da quando parliamo di tecnologia, ci troviamo davanti a qualcosa i cui risultati non possiamo prevedere. Non c’è una riga di codice dove c’è scritto che se chiedi al chatbot “A” questo ti risponderà “B”. Cosa risponderà, in pratica, non lo sanno nemmeno i suoi creatori. Dipende esclusivamente da come è stato istruito e da come deciderà di mettere in successione le parole che compongono la risposta. Sta qui il vero pericolo di questi strumenti: nessuno può dire cosa risponderanno di fronte a un prompt fatto ad arte per ingannare e aggirare i paletti che le aziende stanno cercando di fissare.
Tutto questo materiale — studi, articoli, paper — messo insieme, forma un quadro molto diverso da quello che emerge dai racconti più superficiali. Non c’è nessuna previsione apocalittica, nessun annuncio di fine del mondo, nessuna sentenza definitiva. C’è, però, una consapevolezza crescente: l’intelligenza artificiale avanzata è una tecnologia che richiede attenzione, prudenza e un grado di coordinamento internazionale che non abbiamo mai davvero sperimentato prima in questo ambito.
Ed è proprio per questo che vale la pena parlarne: perché, mentre noi ci concentriamo sugli effetti più visibili dell’AI, c’è un lavoro sotterraneo che indica che il vero dibattito, quello serio, sta avvenendo lontano dai riflettori. E che forse, per capire davvero dove stiamo andando, dovremmo cominciare da lì.
Il problema di fondo: le regole funzionano solo con chi vuole farsi regolare
Ed eccoci al punto che, personalmente, trovo più inquietante. Perché è vero che governi, istituti scientifici e aziende stanno finalmente trattando l’intelligenza artificiale avanzata con la stessa attenzione riservata alle tecnologie potenzialmente pericolose. È vero che stanno emergendo standard, linee guida, valutazioni obbligatorie e persino livelli di protezione attivabili quando un modello mostra capacità inattese (come nel caso che abbiamo visto di Anthropic). Ma tutto questo ha un limite evidente: funziona solo per chi decide di stare dentro le regole.
La storia, purtroppo, ci ha insegnato che le regole valgono sempre per una parte del mondo, mai per tutto. E non c’è tecnologia — dalla chimica alle telecomunicazioni, passando per il nucleare — che abbia goduto di un consenso unanime. Ci sarà sempre chi firma un trattato e chi lo aggira, chi accetta le ispezioni e chi le nega, chi rispetta un limite e chi lo considera un vantaggio competitivo da sfruttare. E più la tecnologia diventa potente, più la tentazione di usarla senza vincoli aumenta, soprattutto nei contesti geopolitici più instabili o ostili.
Il paragone con il nucleare è inevitabile. Quando gli Stati Uniti sganciarono le bombe su Hiroshima e Nagasaki, il mondo intero vide per la prima volta cosa significava davvero una tecnologia senza precedenti finita nelle mani di chi era disposto a usarla. E in quel caso parlavamo degli Stati Uniti, nemmeno di uno dei paesi che oggi riterremo “pericoloso” (anche se in fondo, a ben vedere, pericoloso è semplicemente il paese che possiede più armi).
Quel trauma, nel bene e nel male, costrinse le nazioni a sedersi attorno a un tavolo e a definire limiti condivisi, controlli, protocolli, trattati di non proliferazione. Non certo perché improvvisamente la comunità internazionale si fosse scoperta pacifista, ma perché era diventato chiaro che l’alternativa era troppo rischiosa per tutti. Di fronte al rischio comune, tutti si decisero a darsi delle regole.
Con l’intelligenza artificiale, però, c’è un problema in più: non abbiamo ancora avuto l’equivalente del “momento Hiroshima”, e nessuno — per fortuna — si augura che arrivi. Ma proprio per questo siamo in un territorio nuovo. Come si costruisce un consenso globale su una tecnologia i cui effetti estremi sono solo teorici ma abbastanza plausibili da far preoccupare i governi? Come si convince un Paese ostile a non sviluppare modelli avanzati in segreto? Come si impedisce a gruppi criminali di accedere a sistemi così potenti se oggi è così facile costruirsi un modello in casa (si fa per dire, chiaramente, servono investimenti che però sono assolutamente compatibili con quelli militari)?
È un problema che nessuna regolamentazione americana o europea può risolvere da sola, perché l’AI non riconosce confini e non rispetta le barriere geopolitiche. Puoi mettere tutti i paletti che vuoi, puoi imporre audit, linee guida, valutazioni indipendenti, ma tutto questo funziona solo finché la tecnologia rimane nelle mani di attori disposti a collaborare. Il resto del mondo — quello che non partecipa ai summit, che non firma dichiarazioni di intenti, che sviluppa in silenzio — continua la sua corsa indisturbato.
Ed è qui che si apre la vera domanda di questa prima parte: cosa succede quando qualcuno decide di ignorare tutto questo e andare avanti lo stesso?
Una pausa necessaria
Ed è da qui che nasce l’idea di dividere questo argomento in due puntate. Perché, fino a questo punto, abbiamo raccontato soprattutto ciò che si sta facendo per prevenire il peggio: i documenti istituzionali, gli studi indipendenti, le misure di sicurezza introdotte dalle aziende, i tentativi — spesso sinceri, a volte un po’ goffi — di regolamentare una tecnologia che corre più veloce delle istituzioni. Ma tutto questo affronta solo metà del problema.
L’altra metà riguarda chi non vuole essere regolamentato. Riguarda i criminali, gli stati ostili, i gruppi che vedono nell’intelligenza artificiale non un’occasione di progresso ma un possibile vantaggio strategico. Ed è qui che la discussione cambia completamente tono, perché non si parla più di protocolli, audit e framework, ma di geopolitica, di proliferazione tecnologica, di cosa potrebbe accadere se un modello avanzato venisse utilizzato deliberatamente per causare danni.
La domanda, in fondo, è la stessa che chiunque si sia occupato di tecnologia si è posto almeno una volta: se è vero che possiamo regolare ciò che conosciamo, cosa facciamo con ciò che non controlliamo?
Ne parliamo nella prossima puntata, provando ad affrontare l’altra faccia del problema: cosa succede quando l’AI non è più un rischio teorico da contenere, ma uno strumento in mano a chi non vuole — o non ha mai voluto — contenere nulla.
Se sei arrivato fino a qui, innanzitutto ti ringrazio.
Non ci siamo presentati: mi chiamo Franco Aquini e da anni scrivo di tecnologia e lavoro nel marketing e nella comunicazione.
Se hai apprezzato la newsletter Insalata Mista ti chiedo un favore: lascia un commento, una recensione, condividi la newsletter e più in generale parlane. Per me sarà la più grande ricompensa, oltre al fatto di sapere che hai gradito quello che ho scritto.
Franco Aquini





forse dovremmo tornare a rivedere 2001 space odissey, e capire quale fosse la vera intenzione di Kubrick , ovvero che la macchina fosse più umana dell'essere umano.
Grazie per la chiarezza espositiva dei contenuti.