Deepfakes 2026: Wie man gefälschte Videos erkennt, bevor man sie teilt
Deepfakes haben sich von einer Nischenkuriosität zu einer allgegenwärtigen Bedrohung entwickelt. Allein 2025 stieg die Zahl der Deepfake-Videos im Internet auf geschätzte 8 Millionen — ein jährlicher Anstieg von fast 900 %. Das Klonen von Stimmen hat die „Ununterscheidbarkeitsschwelle" überschritten: Wenige Sekunden Audio reichen jetzt für einen überzeugenden Klon. So schützen Sie sich, bevor Sie etwas Falsches teilen.
Source: Fortune, Dec 2025
1) Beobachten Sie die Augen genau
Dies bleibt einer der zuverlässigsten Hinweise, auch bei verbesserten KI-Modellen. Menschen blinzeln spontan alle 2 bis 10 Sekunden. Deepfake-Gesichter starren oft unnatürlich lange ohne zu blinzeln. Wenn sie blinzeln, wirkt die Bewegung mechanisch — die feinen Muskelbewegungen um die Augen fehlen.
- Unnatürliches Starren: KI-Gesichter können den Blickkontakt zu gleichmäßig halten, ohne die Mikrobewegungen echter Augen.
- Mechanisches Blinzeln: Achten Sie auf Blinzeln, das „aufgeklebt" statt natürlich wirkt.
- Inkonsistente Pupillen: Beide Pupillen sollten dasselbe Licht reflektieren. Wenn nicht, ist das ein Warnsignal.
2) Bitten Sie um eine Kopfdrehung (bei Live-Videos)
Die meisten Deepfake-Modelle trainieren hauptsächlich mit frontalen Daten. Wenn ein synthetisches Gesicht sich ins volle Profil dreht, bricht das Rendering zusammen — das Ohr kann verschwimmen, der Kiefer löst sich vom Hals, oder Brillen verschmelzen mit der Haut.
- Profilstörungen: Seitenwinkel offenbaren oft Verzerrungen oder Unschärfe um Ohren und Kiefer.
- Haaransatz: Der Übergang zwischen Haar und Hintergrund flackert oder verläuft oft.
- Accessoires: Brillen, Ohrringe und Hüte sind für KI bei Bewegung schwer konsistent darzustellen.
3) Achten Sie auf verdächtige Audiosignale
Das Klonen von Stimmen hat sich dramatisch verbessert, aber es gibt immer noch Dinge, auf die man achten kann:
- Atemmuster: KI-Audio fügt oft Atemgeräusche an falschen Stellen ein oder wiederholt identische Atemgeräusche.
- Lippensynchronisation bei „B"- und „P"-Lauten: Diese bilabialen Laute erfordern, dass die Lippen sich vollständig schließen. Wenn die Lippen sich bei diesen Lauten nicht schließen, ist das Video wahrscheinlich gefälscht.
- Umgebungsinkonsistenz: Wenn jemand draußen spricht, aber der Ton studioartig klingt — ohne Wind oder Umgebungsgeräusche — ist das verdächtig.
- Flache Emotionen: Geklonte Stimmen verpassen manchmal emotionale Wechsel — Lachen, Seufzen oder das Abbrechen mitten im Satz.
4) Überprüfen Sie Haut und Beleuchtungsinkonsistenzen
- Zu perfekte Haut: Deepfakes erzeugen oft seltsam gleichmäßige Haut ohne natürliche Variationen wie Falten, Sommersprossen, Muttermale oder Narben.
- Schattenrichtung: Licht sollte aus einer konsistenten Richtung kommen. Wenn der Schatten auf der Nase in eine Richtung zeigt und der unter dem Kinn in eine andere, stimmt etwas nicht.
- Gesichtsbehaarung: KI kann Schnurrbart oder Bart hinzufügen oder entfernen, scheitert aber oft daran, sie natürlich wirken zu lassen — besonders an der Grenze zur Haut.
- Hauttonkanten: Achten Sie auf die Stelle, wo das Gesicht auf Hals oder Ohren trifft. Farbunterschiede oder scharfe Tonwechsel sind ein häufiges Artefakt.
5) Sehen Sie es in Aktion: Deepfakes erkennen
Dieses Video des MIT zeigt reale Beispiele, wie Deepfake-Erkennung in der Praxis funktioniert:
Video: Überblick über Deepfake-Erkennungsmethoden und reale Beispiele.
6) Verwenden Sie Erkennungstools (aber verlassen Sie sich nicht allein darauf)
Mehrere Tools können verdächtige Inhalte markieren, aber keines ist unfehlbar. Der zuverlässigste Ansatz kombiniert Tool-Ergebnisse mit sorgfältigem menschlichem Urteil.
- Umgekehrte Bild-/Videosuche: Verwenden Sie TinEye oder die Google-Bildersuche, um die Originalversion zu finden. Wenn ein ähnliches Video anderswo mit anderem Inhalt existiert, haben Sie wahrscheinlich eine Fälschung entdeckt.
- C2PA-Provenienz: Suchen Sie nach Inhalten, die mit dem Coalition for Content Provenance and Authenticity-Standard signiert sind — ein kryptografischer Nachweis der Medienherkunft.
- FactCheckTool: Fügen Sie einen verdächtigen Social-Media-Link ein und erhalten Sie eine Glaubwürdigkeitsanalyse basierend auf Quellen, nicht auf Vermutungen.
7) Die 60-Sekunden-Regel vor dem Teilen
Bevor Sie ein schockierendes Video teilen, nehmen Sie sich 60 Sekunden für diese Checkliste:
- Quelle: Wer hat das gepostet? Ist es ein verifiziertes Konto oder eine unbekannte Seite? Wie alt ist das Konto?
- Kontext: Passt das Video zum behaupteten Datum, Ort und Ereignis? Suchen Sie das gleiche Ereignis aus anderen Perspektiven oder Quellen.
- Visuelle Prüfung: Halten Sie das Video an. Schauen Sie auf Augen, Haut, Beleuchtung und Kanten. Fühlt sich etwas seltsam an?
- Audio-Prüfung: Schließen Sie die Augen und hören Sie nur zu. Klingt die Stimme natürlich? Passen die Emotionen?
- Gegenprüfung: Suchen Sie die Behauptung (nicht die Überschrift) in einer neutralen Suchmaschine. Berichten seriöse Medien dasselbe?
Das funktioniert unabhängig davon, ob der Inhalt ein Deepfake, eine irreführende Bearbeitung oder ein aus dem Kontext gerissener Clip ist. Das Ziel ist dasselbe: Verifizieren, bevor Sie verstärken.
8) Warum das wichtiger ist als je zuvor
Deepfakes sind längst keine technische Spielerei mehr. Sie wurden eingesetzt für:
- Politische Manipulation bei Wahlen
- Finanzbetrug (Stimmenklone von Geschäftsführern, die Überweisungen anfordern)
- Belästigung und nicht einvernehmliche Inhalte
- Gefälschte Promi-Empfehlungen für Krypto- und Investitionsbetrug
Die alten Ratschläge — „achten Sie auf seltsame Zähne" oder „prüfen Sie, ob die Beleuchtung unstimmig ist" — funktionieren nicht mehr. Moderne KI-Modelle haben die meisten dieser offensichtlichen Probleme gelöst. Was noch funktioniert, ist eine Kombination aus aufmerksamer Beobachtung, Erkennungstools und Quellenüberprüfung.
9) Schnelle Referenz-Checkliste
- Augen: unnatürlicher Blick, mechanisches Blinzeln, ungleiche Pupillen
- Kopfdrehungen: Unschärfe an Ohren, Kieferlinie und Accessoires
- Audio: falsche Atmung, Lippensynchronisationsfehler bei B/P-Lauten, fehlende Umgebungsgeräusche
- Haut: zu gleichmäßig, unstimmige Schattenrichtung, Gesichtsbehaarungsartefakte
- Quelle: Wer hat es veröffentlicht, wann, und berichtet jemand anderes darüber?
- Gegenprüfung: Suchen Sie nach der Behauptung, nicht nach der Schlagzeile
Nicht teilen, bevor Sie es geprüft haben
Fügen Sie einen verdächtigen Link in FactCheckTool ein und erhalten Sie in wenigen Minuten einen Glaubwürdigkeitsscore mit quellenbasierter Analyse.
Zurück zum Blog.