Deepfake nel 2026: come riconoscere i video falsi prima di condividerli
I deepfake sono passati da curiosità di nicchia a minaccia diffusa. Solo nel 2025, il numero di video deepfake online ha raggiunto circa 8 milioni — un aumento annuo di quasi il 900%. La clonazione vocale ha superato quella che i ricercatori chiamano la «soglia di indistinguibilità»: bastano pochi secondi di audio per generare un clone convincente. Ecco come proteggersi prima di condividere qualcosa di falso.
Source: Fortune, Dec 2025
1) Osserva attentamente gli occhi
Questo resta uno degli indizi più affidabili, anche con i modelli di IA più avanzati. Gli esseri umani sbattono le palpebre spontaneamente ogni 2-10 secondi. I volti deepfake spesso fissano senza battere ciglio per periodi innaturalmente lunghi. Quando lo fanno, il movimento appare meccanico — mancano i sottili movimenti muscolari intorno agli occhi.
- Sguardo fisso innaturale: I volti generati dall'IA possono mantenere il contatto visivo in modo troppo stabile, senza i micro-movimenti tipici degli occhi reali.
- Battito di ciglia meccanico: Cerca battiti troppo regolari o del tutto assenti.
- Pupille incoerenti: Nei deepfake le pupille a volte non coincidono per dimensione o riflessi di luce.
2) Chiedi di girare la testa (se in diretta)
La maggior parte dei modelli deepfake si addestra principalmente su dati frontali. Quando un volto sintetico ruota fino al profilo completo, il rendering si deteriora — l'orecchio può diventare sfocato, la mascella si stacca dal collo, oppure gli occhiali si fondono con la pelle.
- Anomalie di profilo: Le angolazioni laterali spesso rivelano deformazioni o sfocature attorno a orecchie e mascella.
- Bordi dei capelli: La transizione tra capelli e sfondo spesso sfarfalla o sbava.
- Accessori: Occhiali, orecchini e cappelli sono difficili da renderizzare in modo coerente per l'IA durante il movimento.
3) Ascolta i segnali audio sospetti
La clonazione vocale è migliorata drasticamente, ma ci sono ancora elementi a cui prestare attenzione:
- Schemi respiratori: L'audio generato dall'IA spesso inserisce respiri nei momenti sbagliati o ripete suoni di respiro identici.
- Sincronizzazione labiale sui suoni «B» e «P»: Questi suoni bilabiali richiedono la chiusura completa delle labbra. Se le labbra non si chiudono su questi suoni, il video è probabilmente falso.
- Incoerenza ambientale: Se qualcuno parla all'aperto ma l'audio sembra registrato in studio, senza vento né rumori di fondo, è sospetto.
- Emozioni piatte: Le voci clonate a volte non colgono i cambiamenti emotivi — risate, sospiri o frasi lasciate in sospeso.
4) Controlla le incoerenze di pelle e illuminazione
- Pelle troppo perfetta: I deepfake producono spesso una pelle stranamente uniforme, priva delle variazioni naturali come rughe, lentiggini, nei o cicatrici.
- Direzione delle ombre: La luce dovrebbe provenire da una direzione coerente. Se l'ombra sul naso va in una direzione e quella sotto il mento in un'altra, qualcosa non torna.
- Peluria del viso: L'IA può aggiungere o rimuovere baffi o barba, ma spesso non riesce a renderli naturali — soprattutto nel punto di contatto con la pelle.
- Bordi dell'incarnato: Osserva dove il viso incontra il collo o le orecchie. Differenze di colore o cambiamenti bruschi di tonalità sono un artefatto comune.
5) Guardalo in azione: riconoscere i deepfake
Questo video del MIT illustra esempi reali di come funziona il rilevamento dei deepfake nella pratica:
Video: panoramica dei metodi di rilevamento dei deepfake ed esempi reali.
6) Usa strumenti di rilevamento (ma non affidarti solo a quelli)
Diversi strumenti possono segnalare contenuti sospetti, ma nessuno è infallibile. L'approccio più affidabile combina i risultati degli strumenti con un attento giudizio umano.
- Ricerca inversa di immagini/video: Usa TinEye o Google Immagini per rintracciare la versione originale. Se un video simile esiste altrove con contenuto diverso, probabilmente hai individuato un falso.
- Provenienza C2PA: Cerca contenuti firmati con lo standard Coalition for Content Provenance and Authenticity — una prova crittografica dell'origine del media.
- FactCheckTool: Incolla un link sospetto dai social media e ottieni un'analisi di credibilità basata su fonti, non su supposizioni.
7) La regola dei 60 secondi prima di condividere
Prima di premere «condividi» su un video scioccante, prenditi 60 secondi per seguire questa checklist:
- Fonte: Chi ha pubblicato questo? Si tratta di un account verificato o di una pagina sconosciuta? Da quanto tempo esiste l'account?
- Contesto: Il video corrisponde alla data, al luogo e all'evento dichiarati? Cerca lo stesso evento da altre angolazioni o fonti.
- Controllo visivo: Metti in pausa il video. Osserva occhi, pelle, illuminazione e bordi. Qualcosa sembra strano?
- Controllo audio: Chiudi gli occhi e ascolta. La voce suona naturale? Le emozioni corrispondono?
- Verifica incrociata: Cerca l'affermazione (non il titolo) su un motore di ricerca neutrale. Testate credibili riportano la stessa notizia?
Questo vale sia che il contenuto sia un deepfake, un montaggio fuorviante o un video estrapolato dal contesto. L'obiettivo è sempre lo stesso: verificare prima di amplificare.
8) Perché questo è più importante che mai
I deepfake non sono più una semplice curiosità tecnologica. Sono stati utilizzati per:
- Manipolazione politica durante le elezioni
- Truffe finanziarie (cloni vocali di dirigenti che richiedono bonifici)
- Molestie e contenuti non consensuali
- Finte sponsorizzazioni di celebrità per truffe crypto e di investimento
I vecchi consigli — «cerca i denti strani» o «controlla se l'illuminazione è sbagliata» — non funzionano più. I modelli di IA moderni hanno risolto la maggior parte di quei problemi evidenti. Ciò che funziona ancora è una combinazione di osservazione attenta, strumenti di rilevamento e verifica delle fonti.
9) Checklist di riferimento rapido
- Occhi: sguardo innaturale, battito meccanico, pupille disallineate
- Rotazioni della testa: sfocatura su orecchie, mandibola e accessori
- Audio: respirazione innaturale, errori di sincronizzazione labiale sui suoni B/P, assenza di rumore ambientale
- Pelle: troppo uniforme, direzione delle ombre incoerente, artefatti nella peluria facciale
- Fonte: chi l'ha pubblicato, quando, e qualcun altro ne parla?
- Verifica incrociata: cerca l'affermazione, non il titolo
Non condividerlo finché non l'hai verificato
Incolla un link sospetto in FactCheckTool e ottieni un'analisi di credibilità con fonti verificate in pochi minuti.
Torna al Blog.