Abo

So entlarven Sie FakesWorauf Sie bei Schatten, Haut und Haaren achten müssen

4 min
Pornografie im Internet

Wie sind Deepfakes zu entlarven? (Symbolbild)

Manipulierte Videos und Bilder verbreiten sich online. Experten erklären, mit welchen Mitteln sich die künstlich erzeugten Fälschungen aufdecken lassen.

Gefahr durch KI-Fakes: Wie man Deepfakes auf die Spur kommt. Die Verbreitung von Deepfakes nimmt stark zu. Hierbei handelt es sich um mittels KI generierte oder bearbeitete Bilder, Videos sowie Audioaufnahmen, die authentisch wirken. Sie dienen in sozialen Netzwerken zwar der Unterhaltung, können jedoch ebenso die Reputation von Personen ruinieren oder Wahlen manipulieren. In der politischen Arena wird diese Thematik vermehrt als Herausforderung wahrgenommen. Doch wie ist es möglich, eine solche Fälschung zu identifizieren?

Nicolas Müller leitet am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in Garching eine Forschungsgruppe, die sich mit diesem Phänomen befasst. Dem Fachmann zufolge kann eine erste Überprüfung schon durch den Einsatz der eigenen Sinne stattfinden. „Bei einem Interview mit einer Person kann man checken: Das soll in Berlin aufgenommen sein an einem bestimmten Tag. Passt denn das Wetter?“, erläutert Müller, wie die dpa meldet.

Anzeichen für eine Fälschung

Bei einem Video lasse sich zudem kontrollieren, ob sämtliche Schatten aus der korrekten Richtung fallen. „Da zieht man auf einem Standbild von den Schatten eine Linie zu den Schattengebern und schaut, ob alle diese Linien, wenn man sie nach oben weiter zeichnet, von einem gemeinsamen Punkt ausgehen“, sagt Müller. Sollte das nicht zutreffen, handele es sich mit großer Wahrscheinlichkeit um eine Fälschung, jedenfalls bei Szenen im Freien, die nur eine Lichtquelle aufweisen.

Zusätzliche Anzeichen sind Situationen, in denen man eine Stimme vernimmt, während der Mund der redenden Person geschlossen ist. Ebenso können Artefakte in der Mundpartie, voneinander abweichende Hautfarben an Hals und Oberkörper, eine Hand mit sechs Fingern oder Objekte, die mit einer Hand verschmelzen, auf eine Manipulation hinweisen.

Ein zusätzlicher Anhaltspunkt können die Metadaten einer Datei sein – oder auch, wenn diese nicht vorhanden sind. „Wenn sie mit aktuellen KI-Modellen wie Gemini oder ChatGPT Deepfakes erzeugen, dann steht in deren Metadaten drin, dass das KI-generiert ist. Aber sie können die Metadaten auch wegwerfen“, erklärt Müller.

KI-Werkzeuge zur Erkennung

Außer dem kritischen Hinsehen existieren auch KI-gestützte Werkzeuge, um Deepfakes aufzudecken. „Am Ende kommt ein Zahlenwert zwischen 0 und 100 heraus. 0 steht für echt, 100 steht für gefälscht. Normalerweise hat ein Deepfake einen Wert um die 95“, sagt Müller. Jedoch sei dies ein Wettrennen: „Der Angreifer verbessert sich und die Verteidigung zieht dann entsprechend nach.“

Wie ein Ermittler geht Jens Kramosch (42) von der Firma Leak.Red aus Erfurt an die Thematik heran. „Das ist, wie wenn man an einen Tatort kommt. Am besten beobachtet man erst mal das Gesamtbild. Ich achte zum Beispiel auf die Haare, den Haaransatz, den Wimpernschlag und die Hautstruktur.“ Die Haut sei bei Fälschungen häufig zu ebenmäßig. Es sei zudem entscheidend, den Blick nicht nur auf das Zentrum des Bildes zu richten, sondern auch auf die Randbereiche, weil einige KI-Systeme die Umgebung außer Acht lassen.

Forensische Sicherung von Beweisen

Besonders herausfordernd sei die Identifizierung einer Fälschung bei einer einzelnen Person vor einem unscharfen Hintergrund. Taucht eine Manipulation im Internet auf, können Fachleute wie Kramosch unterstützen. „Wenn das Deepfake etwa bei Instagram online ist, können wir das als Beweis einfrieren und das kann dann auch nicht mehr verändert werden. Das wird wirklich forensisch gesichert“, führt er aus.

Kramosch sagt voraus, dass Laien bereits zum Jahresende kaum mehr einen Unterschied zwischen authentisch und manipuliert feststellen können werden. Künftig müsse ein Umdenken stattfinden: „Irgendwann wird es fast nur noch Deepfakes geben [...] und dann ist es wichtig zu sagen: Das ist aber ein Original.“ Man benötige dann eine Form von digitalem Echtheitssiegel.

Die Identifizierung mittels KI-Werkzeugen stellt jedoch weiterhin eine Schwierigkeit dar, vor allem im juristischen Kontext. „KI-Erkenner sind oft Blackbox-Systeme. Sie bestimmen mit einer Wahrscheinlichkeit, ob es sich um ein Deepfake handelt, aber sie liefern nicht unbedingt eine Erklärung mit, warum“, mahnte schon im Februar Tobias Wirth vom Deutschen Forschungszentrum für Künstliche Intelligenz. Für die Würdigung von Beweisen vor einem Gericht seien allerdings verständliche Darlegungen erforderlich. (red)

Dieser Inhalt wurde mit Hilfe von KI erstellt.