Cos’è un Deepfake, esattamente? L’espressione si ottiene unendo deep learning (modalità di “allenamento” dell’intelligenza Artificiale) e fake (falso), si tratta di contenuti multimediali (immagini, video, audio) generati o manipolati da intelligenze artificiali in modo da sembrare autentici.
Gli algoritmi vengono “addestrati” su migliaia di foto e video reali di una persona, imparando a riprodurne il volto, la voce e le espressioni con precisione chirurgica. Fino a qualche anno fa creare un deepfake richiedeva competenze avanzate e hardware potente. Oggi bastano uno smartphone e un’app gratuita, in questo modo la barriera tecnologica è praticamente scomparsa.
Perché il nostro cervello viene Ingannato? Il problema non è soltanto tecnologico, ma anche neurologico, il cervello umano è abituato a fidarsi del volto e della voce di una persona conosciuta. I deepfake sfruttano esattamente questo meccanismo, aggirando il nostro senso critico prima ancora che possiamo attivarlo.
In più, viviamo in un’epoca di sovraccarico informativo: scrolliamo decine di video al giorno, raramente ci fermiamo ad analizzarli, e questo di fatto è un vantaggio per i contenuti fake che non vengono analizzati ma solo visualizzati.
I deepfake sono un problema reale che ha conseguenze sulla nostra vita di tutti i giorni. Possiamo elencare molti casi ed in settori molto diversi tra loro, le truffe finanziarie, video nei quali falsi dirigenti d’azienda vengono usati per autorizzare pagamenti inappropriati, oppure nel campo politico, discorsi inventati attribuiti a leader, capaci di scatenare reazioni forti che spostano la bilancia elettorale.
Ma le aree che destano maggiore preoccupazione sono il revenge porn sintetico, dove volti di persone reali vengono sovrapposti a contenuti espliciti, senza alcun consenso e che spesso scatenano drammi familiari che si concludono con la violenza oppure, e di non minor rilevanza il furto d’identità, ottenuti grazie alla clonazione della voce con cui si possono aggirare sistemi di autenticazione rendendo inutile questa misura di sicurezza.
Nessun metodo è infallibile, ma alcuni segnali possono aiutarti a insospettirti:
- gli occhi non sbattono le palpebre in modo naturale, o lo fanno troppo raramente, i bordi del viso appaiono leggermente sfumati, specialmente con movimenti rapidi;
- denti troppo uniformi e plastici, orecchie asimmetriche;
- l’illuminazione non è coerente, le ombre sul viso che non corrispondono all’ambiente;
- la voce leggermente fuori sincrono con il movimento delle labbra;
- mani e dita sono il tallone d’Achille dell’AI: numero di dita errato, proporzioni strane;
- il contesto è sospetto, video “esclusivi” che circolano solo su canali non verificati.
Oltre all’occhio critico, esistono tool digitali che analizzano i contenuti alla ricerca di tracce di manipolazione. Piattaforme come Hive Moderation o Intel’s FakeCatcher analizzano micro-variazioni nel flusso sanguineo del viso, impercettibili all’AI almeno per il momento, per distinguere un volto reale da uno sintetico. La regola d’oro rimane semplice: verifica sempre la fonte, un video scioccante assente su qualsiasi testata affidabile è probabilmente un falso.
Il vero pericolo dei deepfake non è il singolo video falso, è l’abitudine alla diffidenza totale. Quando tutto può essere falso, rischiamo di smettere di credere anche alle cose vere. I ricercatori chiamano questo fenomeno liar’s dividend: il vantaggio che i bugiardi ottengono in un mondo dove nessuno si fida più di niente.
La risposta richiede educazione digitale, regolamentazione e un nuovo tipo di alfabetizzazione visiva. In fondo, l’arma più potente contro i deepfake non è un algoritmo. Sei tu!














