Deepfakes en 2026 : comment repérer les fausses vidéos avant de les partager
Les deepfakes sont passés d'une curiosité de niche à une menace grand public. Rien qu'en 2025, le nombre de vidéos deepfake en ligne a atteint environ 8 millions — une augmentation annuelle de près de 900 %. Le clonage vocal a franchi ce que les chercheurs appellent le « seuil d'indistinguabilité » : quelques secondes d'audio suffisent désormais pour générer un clone convaincant. Voici comment vous protéger avant de partager quelque chose de faux.
Source: Fortune, Dec 2025
1) Observez attentivement les yeux
Cela reste l'un des indices les plus fiables, même avec les modèles d'IA améliorés. Les humains clignent spontanément des yeux toutes les 2 à 10 secondes. Les visages deepfake fixent souvent sans cligner pendant des périodes anormalement longues. Quand ils clignent, le mouvement semble mécanique — il manque les mouvements musculaires subtils autour des yeux.
- Regard fixe : Les visages IA peuvent maintenir un contact visuel trop stable, sans les micro-mouvements naturels des yeux.
- Clignements mécaniques : Repérez les clignements qui semblent « collés » plutôt qu'organiques.
- Pupilles incohérentes : Les deux pupilles devraient refléter la même lumière. Si ce n'est pas le cas, c'est un signal d'alerte.
2) Demandez-leur de tourner la tête (en direct)
La plupart des modèles de deepfake s'entraînent principalement sur des données face caméra. Quand un visage synthétique pivote vers un profil complet, le rendu se dégrade — l'oreille peut devenir floue, la mâchoire se détache du cou, ou les lunettes fusionnent avec la peau.
- Glitchs de profil : Les angles latéraux révèlent souvent des déformations ou du flou autour des oreilles et de la mâchoire.
- Bordures des cheveux : La transition entre les cheveux et l'arrière-plan scintille ou déborde souvent.
- Accessoires : Les lunettes, boucles d'oreilles et chapeaux sont difficiles à rendre de manière cohérente pour l'IA en mouvement.
3) Écoutez les signaux audio suspects
Le clonage vocal s'est considérablement amélioré, mais il reste des éléments à écouter :
- Schémas respiratoires : L'audio IA insère souvent des sons de respiration aux mauvais moments ou répète des sons identiques.
- Synchronisation labiale sur les sons « B » et « P » : Ces sons bilabials exigent que les lèvres se ferment complètement. Si les lèvres ne se ferment pas sur ces sons, la vidéo est probablement fausse.
- Incohérence environnementale : Si quelqu'un parle en extérieur mais que l'audio semble enregistré en studio sans vent ni bruit ambiant, c'est suspect.
- Émotion plate : Les voix clonées ratent parfois les changements émotionnels — rire, soupir, ou fin de phrase en suspens.
4) Vérifiez la peau et les incohérences d'éclairage
- Peau trop parfaite : Les deepfakes produisent souvent une peau étrangement uniforme, sans les variations naturelles comme les rides, taches de rousseur, grains de beauté ou cicatrices.
- Direction des ombres : La lumière devrait venir d'une direction cohérente. Si l'ombre sur le nez va dans un sens et celle sous le menton dans un autre, quelque chose cloche.
- Pilosité faciale : L'IA peut ajouter ou supprimer une moustache ou une barbe, mais échoue souvent à les rendre naturelles — surtout à la jonction avec la peau.
- Bords du teint : Regardez où le visage rejoint le cou ou les oreilles. Les décalages de couleur ou les changements brusques de ton sont un artefact courant.
5) Voyez-le en action : repérer les deepfakes
Cette vidéo du MIT montre des exemples concrets du fonctionnement de la détection de deepfakes :
Vidéo : Aperçu des méthodes de détection de deepfakes et exemples concrets.
6) Utilisez des outils de détection (mais ne vous y fiez pas uniquement)
Plusieurs outils peuvent signaler du contenu suspect, mais aucun n'est infaillible. L'approche la plus fiable combine les résultats des outils avec un jugement humain attentif.
- Recherche inversée d'image/vidéo : Utilisez TinEye ou Google Images pour retrouver la version originale. Si une vidéo similaire existe ailleurs avec un contenu différent, vous avez probablement repéré un faux.
- Provenance C2PA : Recherchez du contenu signé avec le standard Coalition for Content Provenance and Authenticity — une preuve cryptographique de l'origine du média.
- FactCheckTool : Collez un lien suspect de réseau social et obtenez une analyse de crédibilité basée sur des sources, pas des suppositions.
7) La règle des 60 secondes avant de partager
Avant d'appuyer sur « partager » sur une vidéo choquante, prenez 60 secondes pour parcourir cette checklist :
- Source : Qui a publié ça ? Est-ce un compte vérifié ou une page inconnue ? Depuis quand le compte existe-t-il ?
- Contexte : La vidéo correspond-elle à la date, au lieu et à l'événement revendiqués ? Cherchez le même événement sous d'autres angles ou sources.
- Vérification visuelle : Mettez la vidéo en pause. Regardez les yeux, la peau, l'éclairage et les bords. Quelque chose semble-t-il bizarre ?
- Vérification audio : Fermez les yeux et écoutez. La voix semble-t-elle naturelle ? Les émotions correspondent-elles ?
- Recoupement : Cherchez l'affirmation (pas le titre) sur un moteur de recherche neutre. Des médias crédibles rapportent-ils la même chose ?
Cela fonctionne que le contenu soit un deepfake, un montage trompeur ou un extrait sorti de son contexte. L'objectif est le même : vérifier avant d'amplifier.
8) Pourquoi c'est plus important que jamais
Les deepfakes ne sont plus une simple curiosité technologique. Ils ont été utilisés pour :
- La manipulation politique lors d'élections
- Les arnaques financières (clones vocaux de PDG demandant des virements)
- Le harcèlement et le contenu non consenti
- Les faux endorsements de célébrités pour la crypto et la fraude à l'investissement
Les anciens conseils — « regardez les dents bizarres » ou « vérifiez si l'éclairage est décalé » — ne fonctionnent plus. Les modèles d'IA modernes ont résolu la plupart de ces problèmes évidents. Ce qui fonctionne encore, c'est une combinaison d'observation attentive, d'outils de détection et de vérification des sources.
9) Checklist de référence rapide
- Yeux : regard fixe, clignements mécaniques, pupilles incohérentes
- Rotation de la tête : flou aux oreilles, mâchoire et accessoires
- Audio : respiration incorrecte, erreurs de synchronisation labiale sur les sons B/P, absence de bruit ambiant
- Peau : trop uniforme, direction des ombres incohérente, artefacts de pilosité
- Source : qui l'a publié, quand, et est-ce que d'autres en parlent ?
- Recoupement : cherchez l'affirmation, pas le titre
Ne partagez pas avant d'avoir vérifié
Collez un lien suspect dans FactCheckTool et obtenez un score de crédibilité avec une analyse basée sur des sources en quelques minutes.
Retour au Blog.