Vita nella realtà che non esiste: foto, volti e voci «generate» dell’AI
YOUNG
6 novembre 2025

Vita nella realtà che non esiste: foto, volti e voci «generate» dell’AI

Gli effetti del deepfake e l'altra faccia dell'innovazione: quando tutto può essere falso, nulla appare più autentico. Questo mina le fondamenta stesse della convivenza civile.
Serena Uvale

Foto. Voci. Volti. Persino intere narrazioni. Lentamente scompare il confine tra la realtà e la finzione e sempre più spesso veniamo catapultati in un mondo che non esiste ma che invece ci sembra vero. E’ l’era del «Deepfake», la realtà che non c’è, dove ogni contenuto digitale può essere manipolato con una precisione sempre più inquietante dall’Intelligenza Artificiale per far dire o fare a qualcuno ciò che non ha mai detto o fatto.

 

Un tempo servivano studi di effetti speciali per ottenere simili risultati: oggi basta un software online. Le conseguenze sono gravi. Campagne di disinformazione, truffe aziendali e pornografia non consensuale con volti reali sono ormai casi quotidiani. L’Unione Europea, con l’AI Act, ha imposto che i contenuti sintetici vengano dichiarati esplicitamente. Ma la corsa tra chi crea e chi controlla è ancora aperta. Non è la prima volta che un’innovazione straordinaria viene usata in modo distorto e pericoloso. Anche l’Intelligenza Artificiale — e in particolare la sua declinazione generativa — è una medaglia a due facce: da un lato strumento di creatività, conoscenza e progresso; dall’altro, potenziale macchina di inganni, capace di dissolvere il confine tra ciò che è vero e ciò che è costruito.

 

Il rischio non è soltanto la menzogna in sé, ma la sfiducia sistematica che ne consegue. Quando tutto può essere falso, nulla appare più autentico. E questo mina le fondamenta stesse della convivenza civile, della memoria collettiva, del sapere condiviso. Secondo una ricerca del Pew Research Center, il 61% dei cittadini europei dichiara di «non sentirsi più in grado di distinguere con certezza una notizia reale da una generata artificialmente». E un’indagine globale pubblicata da AI Journal nel 2024 ha rilevato che il 72% degli utenti teme quotidianamente di essere ingannato da un deepfake.

 

La risposta, dunque, non può essere né il timore paralizzante né il divieto. La vera sfida è imparare a riconoscere, contestualizzare, responsabilizzare. In altre parole: sviluppare una cultura critica verso i contenuti digitali, imporre trasparenza sull’origine dei media — per esempio attraverso watermark, etichettature o sistemi di tracciabilità dei contenuti generati da AI — e usare la tecnologia come strumento di verità, non di manipolazione. Negli ultimi tempi si sono moltiplicati i casi di influencer virtuali, avatar creati interamente dall’intelligenza artificiale che interagiscono con il pubblico, recensiscono prodotti, partecipano a campagne pubblicitarie.

 

Alcuni contano milioni di follower e collaborano con brand globali, dai marchi di moda alle aziende tech. Questa nuova frontiera della comunicazione è resa possibile da modelli generativi in grado di prevedere desideri e preferenze: sanno cosa vogliamo vedere o sentire, generano immagini ad alta definizione, testi persuasivi, discorsi perfettamente coerenti. Secondo uno studio condotto da Deloitte nel 2024, il 65% degli utenti di IA generativa in Europa si dichiara «preoccupato per l’impatto dei deepfake e della disinformazione»; il 63% teme la perdita della fiducia nei media tradizionali. È un dato che fotografa una transizione pericolosa: la credibilità stessa della comunicazione è in bilico.

 

Il problema non è solo l’inganno estetico. È la superficialità del consumo digitale: scrolliamo, postiamo “like”, condividiamo contenuti senza fermarci a riflettere. Così, la linea che separa la realtà dalla manipolazione si assottiglia ogni giorno di più. E i rischi non si limitano alle fake news o alle truffe online. C’è un’incursione molto più intima: la violazione dell’identità personale. Il caso della giornalista Francesca Barra, che ha denunciato la creazione e diffusione in rete di immagini pornografiche generate artificialmente partendo da foto vere, è un campanello d’allarme. Ognuno di noi potrebbe trovarsi nella stessa situazione: la propria immagine manipolata, replicata, distorta — e diffusa senza consenso.

 

Il rapporto del Parlamento Europeo (2025) stima che il 49% delle aziende abbia subito tentativi di frode tramite deepfake nell’ultimo anno, e che i casi di uso illecito di IA generativa siano aumentati del 118% rispetto al 2023. La frontiera dell’IA è anche quella del crimine digitale. L’intelligenza artificiale ha reso il confine tra verità e menzogna ancora più sfumato. Non si tratta solo di falsi clamorosi — Giorgia Meloni che serve hamburger, Donald Trump e Benjamin Netanyahu che ballano un lento, Putin e Zelensky che si sfidano a braccio di ferro — ma di contenuti verosimili, credibili, in grado di alterare la percezione pubblica. Dietro la finzione, spesso, si nasconde la propaganda. E la propaganda digitale, oggi, viaggia alla velocità di un algoritmo. Secondo un recente studio accademico pubblicato su arXiv (settembre 2025), quasi il 90% dei giornalisti intervistati ritiene che l’IA aumenterà in modo significativo il rischio di disinformazione globale.

 

Come ha ricordato il ricercatore Gary Marcus in un Ted Talk: «Le nuove tecnologie sono in grado di generare testi perfettamente fluidi e grammaticalmente impeccabili. Il problema non è che l’IA scriva male — è che scriva troppo bene». E se un qualsiasi utente può chiedere a un sistema come ChatGPT di formulare un articolo “per una nota testata”, e ottenere un risultato convincente, il rischio è evidente: la credibilità dell’autore umano diventa un concetto fragile. Non tutto è perduto. Esistono metodi efficaci per riconoscere contenuti artificiali: sfondi imprecisi, volti distorti, asimmetrie, dettagli incoerenti. Online, diversi strumenti permettono di verificare se un testo, un’immagine o un audio siano stati generati con IA. Ma la vera difesa resta il pensiero critico.