Wissenschaftliche Erkenntnisse

Deep Fakes erkennen mit und ohne KI

Dennis SiegelKarlsruhe/Magdeburg, April 2025 – Deep Fakes sorgen häufig für Verwirrung und sind in Zeiten des KI-Aufschwungs in aller Munde. Dennis Siegel, wissenschaftlicher Mitarbeiter und Doktorand an der Otto-von-Guericke Universität in Magdeburg, beschäftigt sich intensiv mit der Frage, mit welchen Verfahren Plagiate und Deep Fakes als solche entlarvt werden können. Er lässt Besucher:innen des LEARNTEC Kongress am Donnerstag, den 8. Mai um 15 Uhr an seinen Erkenntnissen teilhaben.

Benötigt man für die unterschiedlichen Deep Fakes auch unterschiedliche Erkennungs-Methoden?
Dennis Siegel: Es ist nicht zwingend erforderlich unterschiedliche Detektionsansätze zu betrachten, jedoch ist es aus verschiedenen Gründen wünschenswert. Man denke hier beispielsweise an die automatische Ausweiskontrolle an Flughäfen, auch ABC-Gate genannt. Sobald das System zum dritten Mal in kurzer Zeit falsch anschlägt, wird es auch ausgestellt, da es im Vergleich zum Nutzen nur Mehraufwand bedeuten würde.
Auch die Unterscheidung in die einzelnen Deep Fake Arten ist zweckmäßig, um den potenziellen Fälschungen nachzugehen. So ist es auch polizeilich sinnvoll, die Erstellungsart in der Beweisführung zu berücksichtigen. Damit verbunden stellt die Erkennung von unbekannten Generierungsmethoden eine besondere Herausforderung in der Deep Fake Detektion dar. Diese Herausforderung wird auch Generalisierungsproblem genannt.
Zudem bietet die Betrachtung einzelner Detektoren je nach Erstellungsart zusätzliche Erklärbarkeit in der? Deep Fake Detektion.

Wie erkennt KI die Deep Fakes? Welche Algorithmen spielen dabei eine Rolle?
Dennis Siegel: Die Erkennung der Deep Fakes erfolgt grundlegend unterteilt mittels räumlichen oder zeitlichen Merkmalen. Dies geht mit vorhandenen Datenströmen für die Untersuchung einher. So können in einem Video räumliche und zeitliche Merkmale betrachtet werden, jedoch in Bildern nur räumliche Merkmale.
Die genauen KI-Architekturen streuen sehr breit. Dabei können traditionelle Machine Learning Ansätze wie Entscheidungsbäume, aber auch verschiedene Prädiktive Deep Learning Ansätze Anwendung finden.

Gibt es Alternativen zur KI, um Deep Fakes sicher zu identifizieren?
Dennis Siegel: Mit Bezug auf eigene Erfahrungen aus den Projekten FAKE-ID und CyberSec-II ist dies ganz klar mit ja zu beantworten. Hier ist das Ziel, schwache KI, d.h. KI mit Entscheidungsunterstützungsfunktion, zu verwenden. Demzufolge steht der menschliche Entscheider im Mittelpunkt.
Aber auch aus Sicht der IT-Sicherheit und IT-Forensik sind Ansätze ohne KI sinnvoll. So existieren eine Vielzahl Methoden der Bildforensik, die ohne KI auskommen, um bestimmte Aspekte der Medieninhalte hervorheben. Hierzu zählen zum Beispiel Kontextinformationen, Metadaten, Rauschanalysen und Komprimierungsanalysen.

Welchen Aufwand bedeutet eine KI-Deep Fake-Prüfung?
Dennis Siegel: Der Aufwand der Fake-Prüfung ist ebenfalls sehr unterschiedlich. Grundlegend gibt es hier drei wichtige Stellschrauben: Laufzeit, Detektionsgenauigkeit und nötige Hardware.
So wird in Authentifizierungsverfahren über Video (wie dem VideoIdent-Verfahren) eine Antwort nahe Echtzeit benötigt, wodurch vermutlich nur vereinzelte Bilder des Videostroms betrachtet werden oder sehr starke Hardware benötigt wird. Dem entgegen führt eine umfangreichere Betrachtung der Medieninhalte - z.B. durch Betrachtung jedes Einzelbildes - zu genaueren Ergebnissen, allerdings dauert dies auch länger.
Außerdem ist im Sinne der Erklärbarkeit erneut auf die Verständlichkeit der Entscheidung zu achten.