Nulla di ciò che vedrete è reale, benvenuti nella Fakery Era
Con Sora 2, OpenAI porta l’intelligenza artificiale nell’era dei video generati in tempo reale. Un social di mondi finti che sembrano veri. Ma cosa resterà del reale?
OpenAI, l’azienda che ormai conosciamo tutti per aver cambiato il mondo con ChatGPT, sta per lanciare — anzi, ha già lanciato con milioni di download — un’app che potrebbe avere lo stesso effetto sismico che ebbe ChatGPT ai suoi esordi, se non altro per la componente di novità.
L’app si chiama Sora, e nella sua prima versione è già utilizzata da milioni di persone, me compreso. Tutte le recenti copertine di Insalata Mista sono state create proprio con Sora, addestrata tramite ChatGPT a mantenere uno stile artistico coerente tra una copertina e l’altra.
Quella in arrivo è però Sora 2, e oltre alle incredibili migliorie nella verosimiglianza di ciò che genera, porta con sé due novità esplosive. La prima, apparentemente banale ma in realtà dirompente: potrà generare video in pochi secondi. La seconda riguarda la forma: una struttura a reel da scrollare, proprio come nei social più amati del pianeta — Instagram e TikTok.
Così facendo, OpenAI tenta il colpaccio: non solo spingere l’uso del suo modello gemello di ChatGPT, ma trasformarlo in un social dell’irrealtà, un flusso infinito di video generati che ci terranno incollati per centinaia di scroll al giorno. Cosa potrà mai andare storto?
Chi ha visto la qualità dei video prodotti da Sora 2 sa che tutto ciò che abbiamo ammirato finora — perfino le spettacolari prove di Veo 3 di Google — appartiene già al passato. Sora 2 è capace di ricreare persone, ambienti e interazioni fisiche con un realismo tale da far vacillare la distinzione stessa tra realtà e simulazione. O meglio: è capace di produrre l’irrealtà in modo del tutto reale.
Se provate a dare un’occhiata al video di presentazione ufficiale di Sora 2, noterete che all’inizio campeggia la scritta “nulla di quello che vedrete è reale”. Tutto è finto, fake. Ecco perché negli USA, dove sono specialisti a dare un nome a qualsiasi cosa, hanno creato un nome per l’epoca in cui stiamo per entrare: la Fakery Era, l’era del fake, del finto. Altro che Antropocene, al centro di questa era geologica non ci sarà l’uomo, bensì ciò che l’uomo ha delegato alle macchine e che rappresenta un mondo, una realtà, che non ha nulla a che fare con la realtà stessa.
E allora, con l’ingenuo entusiasmo che accompagna ogni grande rivoluzione tecnologica, mi sono chiesto: «Che ne sarà del nostro rapporto con il mondo reale quando anche i social — la principale fonte d’informazione e di opinione per miliardi di persone — saranno popolati da video generati, basati su contenuti finti, a loro volta creati da modelli addestrati su altri contenuti finti?».
Un sistema che si autoalimenta e si autoaddestra, creando un mondo di falsi costruiti a partire da altri falsi. Dove ci porterà la Fakery Era? Decreterà la fine dei contenuti originali, degli scrittori, degli artisti, dei musicisti, dei registi? Oppure ci costringerà finalmente a distinguere ciò che è finto da ciò che è autentico, restituendo valore all’opera umana? E ancora: tutta questa facilità nel creare immagini straordinarie democratizzerà davvero l’arte, o la renderà solo più omologata e impersonale?
Dalla manipolazione alla simulazione totale
Quando l’intelligenza artificiale ha cominciato a rendere possibile rimuovere sfondi, persone e oggetti dalle foto con semplice un tocco, qualcuno ha cominciato ad allarmarsi. Anzi, forse l’allarme era partito ancora prima, quando alcuni smartphone asiatici avevano cominciato a reclamizzare foto con uno zoom tale da arrivare a mostrare la superficie lunare. Era evidente che ci fosse un primo intervento di ricostruzione, di invenzione, di iniezione di contenuto falso.
Per anni abbiamo creduto che l’arrivo dell’intelligenza artificiale nei software di fotoritocco fosse solo l’evoluzione naturale di Photoshop. «È lo stesso, ma più veloce», dicevano. Ma come spiegava già un articolo apparso su theverge.com nel 2024, questa equivalenza è una trappola concettuale.
Photoshop infatti modifica immagini esistenti; Sora, DALL·E e Midjourney creano mondi da zero. Non c’è più un originale da alterare, ma una realtà sintetica che nasce già perfetta.
Quello che un tempo richiedeva ore di lavoro e competenze oggi si ottiene in pochi secondi e con nessuna formazione. La barriera d’ingresso è crollata, e con essa la fiducia collettiva nelle immagini. Il problema non è più quanto si possa falsificare, ma chi può farlo — e oggi la risposta è: chiunque.
Se questo apre la strada alla considerazione che il mondo dell’arte e della cultura è oggi ancora più democratico, dall’altra bisogna ragionare bene sul rischio che ciò può creare. Quella stessa barriera all’ingresso nella creazione di video perfetti, proteggeva anche dall’invasione di video generati con scopi tutt’altro che artistici e culturali. Per esempio il revenge porn o la diffamazione di personaggi pubblici.
C’è anche chi sostiene che, se tutto quello che vedremo sarà generato da sistemi di intelligenza artificiale, allora più niente sarà credibile. E quindi si smonterà automaticamente il potenziale denigratorio di video e immagini false. Io stesso scrissi un’Insalata su questo argomento.
La vera domanda allora è quanto durerà il periodo di transizione da quando questi contenuti invaderanno le nostre vite a quando l’umanità acquisirà la piena coscienza di ciò che sta vedendo, smettendo di credere sostanzialmente a tutto quello che circolerà in rete. Il che, l’avrete già intuito, rappresenta un pericolo altrettanto allarmante.
La fine della prova visiva
C’è stato un tempo in cui “l’ho visto in un video” bastava come prova. Il video era il grado massimo della verità visiva, più solido di una fotografia e infinitamente più credibile di un racconto. Poi sono arrivati i deep fake, a mettere in crisi la credibilità stesse delle immagini animate. Da lì in avanti è stato un crescendo di video sempre più realistici, sempre più credibili e per questo sempre meno efficaci come prova.
Come racconta Brian X. Chen sul New York Times, con il lancio di questa app l’intelligenza artificiale ha varcato la soglia dell’immaginazione: ora può generare in pochi secondi un filmato di un crimine mai avvenuto, di un incidente stradale inventato, persino un finto servizio televisivo completo di logo, sottopancia e voce del giornalista. Il tutto con la qualità di una produzione hollywoodiana.
È un salto che cambia il patto visivo su cui abbiamo costruito la nostra fiducia nei media. Se già la fotografia aveva smesso di essere una testimonianza, ora anche il video ha perso il suo status di prova. «Il nostro cervello è fatto per credere a ciò che vediamo, ma possiamo e dobbiamo imparare a fermarci e pensare ora se un video, e qualsiasi altro media, rappresenta qualcosa che è successo nel mondo reale», ha detto Ren Ng, professore di informatica all’Università della California, Berkeley, che insegna corsi di fotografia computazionale.
Chen ha mostrato come in un’ora di test Sora sia riuscita a generare dashcam false perfettamente credibili, pronte per essere usate in truffe assicurative e finti reportage sanitari con personaggi che citano studi mai esistiti. È la banalità del falso: non serve più un genio del male, basta un utente curioso.
Uno studio condotto dallo stesso ateneo californiano ha stimato che il 38,7 % delle persone non è in grado di distinguere un’immagine AI da una reale (arXiv, 2024). E più la tecnologia migliora, più cresce la nostra fiducia nel falso.
Quando ogni video può essere vero e falso allo stesso tempo, il concetto stesso di “prova” diventa obsoleto. Non si tratta più di smascherare una bugia, ma di capire quanto siamo disposti a credere a ciò che vediamo. È una crisi epistemologica travestita da progresso tecnologico.
Deepfake, disinformazione e pornografia non consensuale
Se il falso visivo fosse solo un gioco di fantasia, potremmo archiviarlo come una curiosità tecnologica. Ma la Fakery Era non è un gioco: è un terreno scivoloso dove l’immaginazione incontra il danno reale.
Negli ultimi due anni, secondo il Canadian Security Intelligence Service (2024), oltre il 90% dei deepfake diffusi online ha un contenuto pornografico e riguarda donne ritratte senza consenso. È successo a Taylor Swift, il cui volto è stato montato su corpi di attrici porno e diffuso su milioni di schermi in poche ore; è successo alla deputata neozelandese Laura McClure, che ha mostrato in Parlamento un’immagine fasulla di sé per denunciare il fenomeno.
Negli Stati Uniti, il Congresso ha approvato la TAKE IT DOWN Act, che obbliga le piattaforme a rimuovere entro 48 ore i contenuti intimi generati dall’IA, introducendo pene severe per chi li produce o li diffonde.
Ma il problema non si ferma al sesso: riguarda anche la disinformazione politica e mediatica. Durante i bombardamenti su Beirut, Reuters ha smascherato un’ondata di immagini AI che ritraevano aerei in fiamme all’aeroporto — scene mai avvenute, ovviamente.
La combinazione di verosimiglianza e velocità virale crea un cortocircuito: ogni contenuto diventa immediatamente credibile, almeno per i pochi secondi necessari a diffondersi.
Eppure, il vero rischio non è solo la menzogna, ma la perdita di fiducia collettiva. Se tutto può essere falso, anche la verità smette di esistere come valore condiviso. Quando nessuno crede più a nulla, il falso ha già vinto: non perché inganna, ma perché annulla la possibilità stessa di credere.
Alfabetismo visivo e sopravvivenza cognitiva
Di fronte a un mondo in cui tutto può essere finto, la difesa più efficace non sarà tecnologica, ma culturale. Le macchine imparano più in fretta di noi, e per questo l’unico vero antivirus sarà la consapevolezza.
Al MIT, nel progetto DetectFakes, gli studenti imparano a riconoscere le minime incongruenze di un video generato da intelligenza artificiale: ombre incoerenti, testi sbagliati, riflessi impossibili, proporzioni che sfidano la fisica. È un esercizio che somiglia a un addestramento cognitivo: il cervello deve imparare a non fidarsi immediatamente dei sensi, a sospendere il giudizio, a guardare il mondo con un leggero sospetto salutare.
Lo stesso principio guida il lavoro di Hany Farid, professore di ingegneria e informatica all’Università della California, Berkeley, e tra i massimi esperti mondiali di disinformazione digitale. Ogni giorno gli vengono inviati immagini, video e registrazioni da verificare: reali o falsi? Durante un’intervista pubblicata dall’University of California Public Affairs, Farid ammette quanto il compito sia diventato più difficile. «Nove mesi fa ero piuttosto bravo. Guardavo un contenuto e lo capivo quasi subito,» racconta. «Oggi è diventato molto più difficile».
Le parole di Farid riassumono bene la velocità con cui l’intelligenza artificiale sta erodendo la nostra capacità di distinguere l’autentico dal costruito. Bastano pochi clic per generare un video politicamente manipolato, un candidato che pronuncia frasi mai dette, una folla inventata o una fotografia ritoccata per cambiare il significato di un evento.
Nascono watermark invisibili, codici nei metadati, e sistemi come Vastav AI per certificare l’origine dei video, ma è una corsa impari: per ogni barriera creata, c’è un prompt che la aggira o un software che la cancella. È il paradosso dell’era digitale — l’unico modo per difendersi dai falsi è smettere di credere anche ai veri. E quando la sfiducia diventa l’unico strumento di difesa, la percezione stessa della realtà comincia a incrinarsi.
Ed è qui che entra in gioco l’educazione. Non basta insegnare a “riconoscere i fake”: serve un alfabetismo visivo profondo, una nuova forma di pensiero critico che sappia leggere le immagini come testi, decifrarne il tono, la provenienza, l’intenzione. Significa capire che la verità non è più un’informazione da consumare, ma un processo da verificare continuamente.
La Fakery Era sarà un test di sopravvivenza cognitiva: non vincerà chi possiede gli strumenti più sofisticati, ma chi saprà mantenere uno sguardo consapevole, dubbioso, allenato a chiedersi — ogni volta — chi ha voluto che io vedessi proprio questo? Forse, nel mondo che verrà, dubitare non sarà più segno di cinismo, ma di lucidità.
La falsa promessa della democratizzazione
Ogni rivoluzione tecnologica nasce con la promessa di rendere il mondo più equo. Esattamente come questa, che permette in pochi secondo di generare video ultra realistici. Le immagini generate da intelligenza artificiale sembrano spalancare l’arte a chiunque: basta scrivere una frase e in pochi secondi si ottiene un risultato che un illustratore, un regista o un fotografo avrebbe impiegato giorni a realizzare. È la tentazione del “potere creativo universale”, quella sensazione di onnipotenza che ci fa credere che non servano più né talento né tecnica, ma solo una buona idea e qualche parola ben scelta.
Eppure, come ricordano molti artisti e giuristi, questa apparente democratizzazione è costruita su una gerarchia invisibile. Gli strumenti che oggi ci fanno sentire creatori appartengono a chi li ha addestrati — e li ha addestrati usando milioni di opere reali, raccolte dal web senza consenso né compenso.
Non è un mistero che la nuova creatività artificiale poggi su fondamenta opache. Il dataset LAION-5B, usato per addestrare modelli come Stable Diffusion, contiene miliardi di immagini raccolte dal web senza autorizzazione, tra cui — secondo un’indagine del Stanford Internet Observatory — anche materiale protetto da copyright e persino contenuti sensibili illeciti.
Non stupisce quindi che Getty Images abbia citato in giudizio Stability AI, accusandola di aver utilizzato milioni di fotografie del proprio archivio per addestrare modelli generativi senza licenza.
Allo stesso modo, centinaia di illustratori e fotografi hanno denunciato che i loro stili vengono replicati nei risultati di Midjourney e Firefly, senza alcun riconoscimento o compenso. La creatività, in altre parole, è diventata la materia prima dell’algoritmo — estratta in silenzio da ciò che milioni di persone hanno già creato.
Ma non tutto è predatorio. C’è anche chi vede nell’IA un’occasione di liberazione espressiva. Giovani artisti, scrittori, designer indipendenti usano modelli generativi per dare forma a visioni che non avrebbero mai potuto permettersi di produrre: animazioni, concept, installazioni, video. Per loro, l’IA è una tela democratica, un’estensione della mente. Come ogni tecnologia, ciò che conta non è lo strumento, ma l’intenzione di chi lo impugna.
La Fakery Era potrebbe dunque rivelarsi un’epoca di straordinaria creatività, ma anche di appiattimento culturale, dove l’uniformità dei modelli sostituisce la diversità delle voci. Non si tratta più solo di distinguere il vero dal falso, ma di capire dove finisce l’autore e dove comincia la macchina.
Forse la sfida dei prossimi anni non sarà quella di vietare le immagini generate, ma di restituire valore all’originalità umana — al gesto, all’errore, alla scelta imperfetta che nessun algoritmo può riprodurre. Perché in un mondo dove tutto è possibile, la vera arte sarà riconoscere ciò che è ancora autentico.
I PENSIERI FRANCHI
Il controllo del destinatario, perfetto esempio di come fare male una cosa semplice
Dal 9 ottobre è attiva una nuova funzione che controlla il destinatario di un pagamento quando si effettua un bonifico. Spero di non dirvi nulla di nuovo, perché se così fosse vorrebbe dire che la vostra banca, diversamente dalla mia, non vi ha tempestato di messaggi per avvisarvi che stava per attivare questa nuova, incredibile funzionalità.
Chi è solito fare bonifici sa che è davvero assurdo che fino a oggi non ci sia stato alcun tipo di controllo in fase di pagamento. In pratica, fino ad oggi (ma anche dopo oggi), se sbagliavi IBAN potevi inviare soldi a qualche sconosciuto e poi sperare solo nella sua buona fede.
Il problema è diventato ancora più sentito con la recente introduzione dei bonifici istantanei. Con questi ultimi, infatti, non c’è nemmeno quel lasso di tempo che ti permette di ritirare il bonifico prima che la banca l’abbia lavorato. Ecco perché si è reso necessario, finalmente, un controllo sull’intestatario del conto. Oggi, quindi, quando si effettua un bonifico, il sistema online della banca controlla la corrispondenza tra intestatario del conto e IBAN. “Finalmente!”, direte voi (e pure io). E come l’avranno implementato questo controllo? Nel peggior modo possibile, ovviamente.
Attenzione, non voglio passare per quello che trova da criticare qualsiasi novità venga introdotta. Anzi, da professionista che ha dovuto affrontare spesso avvii di sistema molto delicati (certo, non di questa portata), tendo a essere molto accomodante di fronte ai primi problemi che possono verificarsi quando si introduce un cambiamento così importante. Fui infatti molto indulgente con l’introduzione della ricetta medica elettronica, con la fattura elettronica e persino con lo SPID.
Qui però si tratta di tutt’altro, perché il sistema sembra essere stato pensato da un bambino a cui è stato chiesto: «Come possiamo verificare se il conto è effettivamente intestato al destinatario del bonifico?». La risposta più banale del mondo sarebbe stata: «Beh, controlliamo l’intestatario!». Certo, controlliamo non la corrispondenza, ma l’esatta corrispondenza. Così, se il destinatario non è Franco Aquini ma Aquini Franco, il bonifico non funziona. Se il destinatario è Pinco Pallo Srl e non Pinco Pallo, il bonifico non funziona. Pensate poi ai conti cointestati, a quelli che magari hanno un carattere speciale nell’intestazione (Fratelli Aquini & C.) e via dicendo.
Ovviamente la banca non blocca l’esecuzione del bonifico: basta dirle “vai avanti” e il bonifico viene fatto lo stesso. Ma provate a pensare alle aziende che non solo fanno decine di bonifici al giorno in maniera del tutto automatica, ma pagano gli stipendi caricando flussi lunghissimi. Possono forse mettersi a correggere tutte le anagrafiche, inserendo il nominativo corretto che corrisponde all’intestazione del conto? E chiedendolo a chi, poi?
E dire che oggi la tecnologia — non quella super avanzata, ma quella più “terra terra” — avrebbe consentito di fare molto di più. Per esempio proponendo la versione corretta dell’intestatario qualora l’utente abbia scritto qualcosa che gli si avvicina al 90%. Un po’ come succede su molti siti quando si inserisce un indirizzo che viene corretto con quello più simile. Certo, mi rendo conto che esistono questioni di privacy, ma almeno con le ragioni sociali delle aziende si poteva fare. Giusto per non parlare dell’intelligenza artificiale, che stiamo infilando un po’ ovunque e che invece — proprio dove servirebbe, come in questo contesto — non viene nemmeno considerata.
Il problema più grosso di tutta questa faccenda, però, è un altro. Come sempre, quando si rende automatica un’azione, si ottiene l’esatto contrario di ciò a cui si mirava. E così, esattamente come con i banner per la privacy sui siti web, se nessun intestatario può corrispondere e abituiamo l’utente a premere sempre il tasto “continua lo stesso”, prima o poi nessuno ci presterà più attenzione, e il sistema avrà ottenuto l’esatto contrario delle sue intenzioni.
Questo dimostra ancora una volta — se proprio ce ne fosse bisogno — che fare una cosa studiata male fa più danni che non farla affatto. «Xe pèso el tacòn del buso», è peggio la toppa del buco, direbbero in Veneto. E forse, per una volta, la saggezza popolare ha centrato il punto.
P.S. se volete farmi un bonifico, l’intestazione del mio conto è “Franco Aquini”
Se sei arrivato fino a qui, innanzitutto ti ringrazio.
Non ci siamo presentati: mi chiamo Franco Aquini e da anni scrivo di tecnologia e lavoro nel marketing e nella comunicazione.
Se hai apprezzato la newsletter Insalata Mista ti chiedo un favore: lascia un commento, una recensione, condividi la newsletter e più in generale parlane. Per me sarà la più grande ricompensa, oltre al fatto di sapere che hai gradito quello che ho scritto.
Franco Aquini