Abo

KI-Bilder viral im NetzTrump im Gefängnis, Putin auf Knien – so erkennt man Fake-Bilder

Lesezeit 5 Minuten
KI-generiertes Bild von Donald Trump hinter Gittern (Midjourney V5)

Nicht echt: Dieses Bild von Donald Trump hinter Gittern wurde vom Kölner Stadt-Anzeiger mithilfe der Software Midjourney V5 generiert

Trump in Handschellen und ein Bild eines devoten Kremlchefs sorgen für Belustigung und Verwirrung im Netz. Hier erfahren Sie alles über die Technik – und wie man KI-Bilder erkennen kann.

Wladimir Putin auf Knien vor Xi Jinping, Donald Trump in Handschellen – in den sozialen Netzwerken kursierten diese beiden Motive in den letzten Tagen in großer Zahl, sorgten für viel Belustigung – aber auch für große Verwirrung bei einigen Betrachtern. Denn nicht für jeden ist auf den ersten Blick klar, ob es sich bei den Motiven um authentische Aufnahmen oder Fakes handelt. Deshalb sei hier direkt klargestellt: Sowohl das Bild von Putin auf Knien als auch die Trump-Festnahme-Bilder sind nicht echt.

Wladimir Putin ist nicht vor Xi Jinping auf die Knie gegangen und Donald Trump wurde – zumindest bisher – auch nicht in Handschellen abgeführt. Derartige Bilder zu erstellen, ist mittlerweile jedoch keine große Herausforderung mehr. Aufwändige Montagearbeiten im bekannten Programm „Photoshop“ sind dafür schon lange nicht mehr nötig.

Donald Trump im Gefängnis, Putin auf Knien vor Xi Jinping: KI-Bilder werden immer realitätsnaher

Spätestens seit der KI-Bildsynthesedienst Midjourney die fünfte Version seiner Software kürzlich vorgestellt hat, sehen die von der KI-generierten Bilder teilweise täuschend echt aus. Während die Vorgängerversion vor allem noch mit der Darstellung von Händen zu kämpfen hatte, können sich die Resultate mittlerweile oft sehen lassen. Die Zeiten, in denen Personen auf KI-Bildern sechs oder mehr Finger hatten, scheinen vorbei zu sein. Die Identifizierung der Bilder als unecht wird dadurch jedoch gerade für Laien nicht leichter.

Beim KI-Dienst Midjourney können Anwender mit Textbeschreibungen versuchen, Bilder generieren zu lassen, die ihren Vorstellungen entsprechen. Mittlerweile machen sich viele Nutzerinnen und Nutzer in den sozialen Medien dementsprechend einen Spaß daraus, politische Großereignisse wie eine mögliche Anklageerhebung gegen Donald Trump oder das Gipfeltreffen zwischen Kremlchef Putin und Chinas Präsident Xi Jinping mit entsprechenden Bildern zu kommentieren.

Midjourney V5: Täuschend echt aussehende Bilder mit einfachen Textkommandos generieren lassen

Die Bedienung der Software ist im Grunde einfach, bedarf aber dennoch eines gewissen Know-hows. Wer es selbst ausprobieren möchte, benötigt zunächst ein Konto beim Online-Kommunikationsdienst Discord, dort muss Midjourney dann als Bot installiert werden. Wie beim ähnlichen Dienst Dall-E, der in der Vergangenheit bereits für Aufsehen gesorgt hatte, fordert man die Software dann mit Textkommandos dazu auf, ein bestimmtes Motiv zu generieren. Was man als Befehl eingibt, wird bestenfalls auch so erzeugt.

Dabei gibt es jedoch Einschränkungen: So kann Midjourney unbekannte Personen oft nicht generieren – je bekannter die gewünschten Personen auf dem Bild sind, desto eher liefert das Programm gute Ergebnisse. Obszöne Anfragen weist die KI unterdessen direkt zurück. Kommandos wie „Putin kniet im Kreml vor Xi Jinping während im Hintergrund Funktionäre zu sehen sind“, können aber bereits jetzt brauchbare Ergebnisse liefern – wie zuletzt in den sozialen Netzwerken zu sehen ist.

Midjourney, Stable Diffusion und Co: Deepfake-Bilder oft an Details erkennbar

Die Ergebnisse von KI-Bilderdiensten wie Midjourney oder Stable Diffusion sind aber weiterhin als Deepfakes identifizierbar – wenn man auf bestimmte Merkmale achtet. Eliot Higgins, einer der Gründer des Recherchenetzwerks „Bellingcat“ und Ersteller der fiktiven Bilder von Trumps Festnahme, nannte dem US-Tech-Magazin „Wired“ einige Merkmale, die dabei helfen können, Deepfake-Bilder zu erkennen.

So konzentriere sich die Software meist auf das, was in der Textanfrage zuerst genannt wird, „in diesem Fall die verschiedenen Mitglieder der Trump-Familie – und alles drumherum hat oft mehr Schwachstellen“, erklärte Higgins. Auch seien Körperproportionen oft „verzerrt“, so der Bellingcat-Journalist. Ein weiteres Merkmal, anhand dessen sich die Fake-Bilder oft erkennen lassen, sind Textdarstellungen. Zwar würden Texte in den KI-Bildern auf den ersten Blick authentisch erscheinen, bei genauem Blick inhaltlich aber keinerlei Sinn ergeben.

Midjourney V5: Schwachstellen entlarven KI-Bilder als Fake

Zudem neige die KI dazu, bei Mimik stark zu übertreiben – auch das ist laut Higgins ein guter Indikator für ein Fake-Bild. „Midjourney neigt dazu, Mimik und Gestik übertrieben darzustellen, wobei die Hautfalten bei Gesichtsausdrücken wie Lächeln sehr ausgeprägt sind“, erklärt Higgins. Tatsächlich ist dieser Effekt auf den von ihm erstellten Trump-Festnahme-Bildern gut nachvollziehbar.

Während KI-generierte Bilder im Nachrichten-Kontext problematisch sein können, bietet die Technik für Künstlerinnen und Künstler unterdessen neue Optionen – und wird auch schon rege eingesetzt. Für die schönsten Werke der KI existieren mittlerweile mehrere populäre Instagram-Accounts, die zeigen, wozu die Technik in der Lage sein kann – ganz ohne dabei Fake-News zu produzieren.

KI-Bilder bieten Künstlerinnen und Künstlern neue Möglichkeiten

Dennoch wird die Technik Medien und ihre Konsumenten vor Herausforderungen stellen. Bereits in der Vergangenheit sorgten Deepfakes, vor allem im Video-Bereich, für Wirbel. So wähnten sich im letzten Jahr gleich mehrere europäische Politiker in einer Videoschalte mit Kiews Bürgermeister Vitali Klitschko, obwohl dieser gar nicht wirklich an dem Gespräch teilgenommen hatte. Später kam heraus, dass russische Hacker sich Deepfake-Technologie zunutze gemacht hatten, um unter anderem SPD-Politikerin Franziska Giffey hereinzulegen.

Die Technik lässt sich also zur Täuschung einsetzen. In den USA hat der Gesetzgeber in manchen Bundesstaaten deshalb bereits auf die neuen Fähigkeiten der KI-Dienste reagiert. Bereits 2019 wurde in Virginia ein Verbot von Deepfake-Pornografie und Deepnudes beschlossen. Damit werden Bilder oder Videos bezeichnet, in denen die Gesichter real existierender Frauen in Pornoclips oder entsprechende Bilder montiert werden – oder bei denen eine KI einen nackten Körper zum Gesicht generiert hat. Der Bundesstaat Kalifornien zog später nach – und erweiterte das Verbot auch auf entsprechende Fälschungen in Wahlkämpfen.

KStA abonnieren