Und plötzlich pöbelt der KanzlerWas Deepfakes von Politikern anrichten können

Lesezeit 8 Minuten
Bundeskanzler Olaf Scholz: Deep Fakes auch von ihm zu erstellen, wird immer einfacher.

Bundeskanzler Olaf Scholz: Deep Fakes auch von ihm zu erstellen, wird immer einfacher.

Ein paar Klicks – und schon sagt ein täuschend echter Olaf Scholz im Video, was der Fälscher vorgibt. Auch Geheimdienste sind darüber in Sorge. 

Der ZDF-Journalist und Nachrichtensprecher Christian Sievers warnte im vergangenen Monat vor seinem digitalen Klon. „Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich. Echt nicht“, schrieb er in dem sozialen Netzwerk X (vormals Twitter).

Sievers hatte ein Video entdeckt, in dem vermeintlich er selbst für eine neue Investmentmöglichkeit wirbt. „Wir schauen in eine Zukunft, die längst begonnen hat“, sagt der falsche Sievers vor der blauen Videowand des „heute-journals“, und fährt dann fort: „Wir sprechen von einer neuen KI-gestützten Anlageplattform, die bereits Millionen von deutschen Bürgern zur Verfügung steht (…).“

Doch Sievers hat diese Worte nie gesprochen. Betrüger haben eine digitale Kopie seiner Stimme erstellt und anschließend den echten Mitschnitt einer „heute-journal“-Moderation so bearbeitet, dass Sievers‘ Lippenbewegungen an den Text angepasst wurden – der bekannte Moderator als Werbegesicht für mutmaßlichen Anlagebetrug.

Alles zum Thema Olaf Scholz

Kaum Vorkenntnisse nötig

Solche Deep Fakes sind dank der rasanten Entwicklung sogenannter künstlicher Intelligenz bereits mit wenig Aufwand und kaum Vorkenntnissen möglich. Oft lassen sie sich spätestens auf den zweiten Blick als Fälschung entlarven. Auch im Fall Sievers. Doch die Technik wird immer besser – und sie wird immer einfacher zu bedienen.

Deep Fakes – mithilfe künstlicher Intelligenz (KI) erstellte Fälschungen von Bildern, Sprachaufnahmen und Videos echter Personen – werden nicht nur von gewöhnlichen Kriminellen genutzt. Sie drohen auch zu einem viel verwendeten Werkzeug politischer Kampagnen und Einflussoperationen zu werden.

In Washington, D. C., beobachtet Gavin Wilde, Wissenschaftler der Denkfabrik Carnegie Endowment for International Peace, solche Entwicklungen. „Führende US-Geheimdienstmitarbeiter erwarten, dass Staaten wie Russland, aber auch nicht staatliche Akteure zunehmend generative KI einsetzen werden, um Deep Fakes zu erstellen“, sagt er dem RedaktionsNetzwerk Deutschland (RND) bei einem Gespräch mit internationalen Journalisten. „Je verfügbarer diese Technologie wird, desto mehr werden wir eine Flut von Deep Fakes sehen – besonders im Zusammenhang mit Großereignissen wie Wahlen oder Militärübungen.“ Bevor er zum Carnegie Endowment wechselte, arbeitete der Russland-Kenner und Expert für hybride Kriegsführung für das FBI, die NSA und den Nationalen Sicherheitsrat der USA. Nach den Präsidentschaftswahlen 2016 war Wilde an der Untersuchung der russischen Wahlbeeinflussungsversuche in den USA beteiligt.

Bislang sind überzeugende Deep Fakes in politischen Kampagnen noch eine Seltenheit. Doch vor allem Stimmen lassen sich heute bereits leicht und zunehmend überzeugend klonen. Technisches Know-how ist dafür nicht nötig. Das RND hat das mit der Stimme des Bundeskanzlers getestet: Alles, was es braucht, um Olaf Scholz wüste Beschimpfungen aufsagen oder eine fiktive Rücktrittsrede sprechen zu lassen, sind ein wenige Dollar teures Abonnement eines Audio-Deep-Fake-Dienstes und ein paar Minuten aus einer echten Scholz-Rede. Das erste Ergebnis ist noch etwas ruckelig. Nach ein paar Veränderungen an den Einstellungen des KI-Dienstes lässt sich aber eine recht überzeugend klingende Kanzlerrede erstellen. Allerdings ist nicht jede Stimme so einfach zu klonen wie die des oft etwas monoton sprechenden Bundeskanzlers, der schon früh in seiner Karriere den Spitznamen „Scholzomat“ verpasst bekam.

Diese Technik wird längst auch für alltägliche Betrugsversuche eingesetzt, etwa den sogenannten Enkeltrick, bei dem sich Betrüger als Angehörige älterer Menschen ausgeben, um Geld von ihnen zu verlangen.

Deep Fakes werden in naher Zukunft noch viel überzeugender werden. Und die vergangenen Jahre haben gezeigt: Fälschungen müssen gar nicht perfekt sein, um zu überzeugen. Menschen neigen dazu, Dinge eher zu glauben, wenn sie ihr Weltbild bestätigen. Und sie neigen oft auch dazu, sie ungeprüft weiterzuverbreiten.

Im August sorgte ein Fake-Account im Namen von Außenministerin Annalena Baerbock für Aufsehen, nachdem eine Pazifikreise der Ministerin wegen eines defekten Regierungsflugzeugs abgebrochen werden musste. Der vermeintliche Baerbock-Account – der sogar das Wort Parodie im Namen trug – schrieb: „Diese Reise hat erneut die Notwendigkeit einer feministischen Außenpolitik offengelegt: Denn das Flugzeug wurde von Männern gebaut und gewartet. (…) Das wäre keiner Frau passiert.“ Dass dies kein echter Tweet der echten Außenministerin sein dürfte, war leicht erkennbar. Dennoch fielen zahlreiche Nutzerinnen und Nutzer auf die „Parodie“ rein – wohl auch, weil sie glauben wollten, dass die Feministin Baerbock wirklich so tickt. Einer von ihnen war der CDU-Bundestagsabgeordnete Klaus Wiener. Er verbreitete den falschen Baerbock-Tweet mit dem Kommentar: „Unfassbar! Was für eine Arroganz.“

Nicht nur Deep Fakes, auch andere durch künstliche Intelligenz erzeugte Bilder und Videos haben das Potenzial, für Desinformationskampagnen verwendet zu werden und gesellschaftliche Unruhe zu stiften. Im Mai dieses Jahres verbreiteten zahlreiche Accounts auf Twitter ein Foto, das angeblich eine Explosion außerhalb des Pentagons zeigt. Dass es sich dabei um ein KI-generiertes Bild handelt, war zwar leicht erkennbar. Diverse Fehler ließen sich mit bloßem Auge sehen. Zudem stellten die lokale Feuerwehr und andere Behörden schnell klar, dass es keine Explosion am US-Verteidigungsministerium gegeben hatte. Trotzdem verbreitete zumindest für kurze Zeit auch der russische Staatssender RT die Meldung. Der Effekt der Falschmeldung war schließlich sogar an den Börsen zu spüren: Der US-Leitindex S&P 500 gab um 0,3 Prozent nach.

Russland, der Friedensengel

Besonders große Fortschritte hat in den vergangenen Monaten die Entwicklung von Chatbots gemacht, die auf sogenannten Large Language Models, großen Sprachmodellen, basieren.

Systeme wie ChatGPT des KI-Pioniers Open AI oder Claude des Konkurrenten Anthropic sind nicht nur in der Lage, nützliche Gebrauchstexte zu verfassen, die sich kaum noch von menschengeschriebenen Texten unterscheiden. Sie lassen sich auch dazu verwenden, Propagandatexte voller Falschinformationen zu schreiben.

Beide Systeme haben Sicherheitsmechanismen eingebaut, die verhindern sollen, dass sie zur Erstellung von propagandistischen, volksverhetzenden Inhalten oder Falschinformationen verwendet werden. Diese Mechanismen lassen sich jedoch austricksen. In einem Versuch des RND lässt sich ChatGPT mit wenigen Versuchen dazu bringen, eine alternative Geschichte der Ukraine seit dem Jahr 2014 aufzuschreiben. Darin sind die USA und die Nato schuld an allem Übel, und Russland steht als zu Unrecht beschuldigter, wohlmeinender Nachbar da.

Das US-Unternehmen NewsGuard hat ChatGPT im März 2023 mit 100 Verschwörungserzählungen und Falschbehauptungen gefüttert und gebeten, Propagandatexte zu diesen Themen zu verfassen. Das erschreckende Ergebnis: Die ChatGPT-Sicherheitsvorkehrungen versagten in 100 von 100 Fällen. Seitdem hat Open AI zwar nachgesteuert und sein System verbessert. Das heißt aber vor allem: Es braucht heute etwas mehr Kreativität, um die Sicherheitsmechanismen auszutricksen.

KI-Experten und Sicherheitsforscher sind sich einig: An denselben Techniken, die derzeit vor allem von US-Unternehmen entwickelt und der Weltöffentlichkeit vorgestellt werden, arbeiten gleichzeitig im Verborgenen auch Geheimdienste und andere staatliche Stellen. Künftig könnten solche Systeme bei staatlich gesteuerten Desinformationskampagnen und Einflussoperationen zum Einsatz kommen. Systeme, die wie ChatGPT funktionieren – aber keine Sicherheitsmechanismen haben und speziell dafür programmiert wurden, Propaganda und Desinformation zu erstellen.

Die Menschen werden skeptischer und drücken erst einmal die Pausentaste in ihrem Kopf
Gavin Wilde

Gavin Wilde übt sich angesichts solcher Gefahren in Gelassenheit. „Was meiner Meinung nach in vielen unserer Diskussionen zu kurz kommt, ist das Ausmaß, in dem sich der Mensch von Natur aus anpasst“, sagt er und zieht einen Vergleich: „Ich erinnere mich noch daran, den Film ‚Jurassic Park‘ Mitte der Neunzigerjahre zum ersten Mal gesehen zu haben. Das war bahnbrechend, wie echt die Dinosaurier aussahen.“ Wer den Film heute mit veränderten Sehgewohnheiten noch einmal schaue, der bekomme einen ganz anderen Eindruck. Nicht nur die Technik entwickle sich, sagt der ehemalige Geheimdienstmitarbeiter, sondern auch wir Menschen. Je mehr über KI, geklonte Stimmen und Deep-Fake-Videos berichtet werde, desto mehr wirke das wie ein Schutz. „Die Menschen werden skeptischer und drücken erst einmal die Pausentaste in ihrem Kopf“, glaubt Wilde.

Sorgen in der Politik

Aber reicht das aus? Entwickelt sich die Medienkompetenz der Menschen schnell genug, um mit den neuen Technologien Schritt zu halten? Immerhin fallen schon heute genug Menschen auf Falschmeldungen herein, für die es nicht einmal künstliche Intelligenz brauchte.

Gerade die rasante Entwicklung von Deep Fakes bereitet vielen in der Politik Sorge. Und nicht nur in Deutschland und Europa stehen im kommenden Jahr mehrere Wahlen an. In den USA wird im November 2024 ein neuer Präsident gewählt. Deshalb interessiert man sich dort besonders für die Entwicklung neuer Technologien, die auch zur Beeinflussung von Wahl genutzt werden könnten.

Wir können die Verbreitung von Inhalten und Erzählungen im Informationsraum nicht in einem Maße stoppen oder beeinflussen, das wirklich die Probleme lösen würde
Elizabeth Allen, Spitzendiplomatin im US-Außenministerium

„Der Informationsraum ist zunehmend umkämpft“, sagt Elizabeth Allen, Spitzendiplomatin im US-Außenministerium. „Er ist der Ort, an dem Narrative und Werte zu geopolitischen Zwecken manipuliert werden.“ Ein wichtiger Ansatz der US-Regierung sei es deshalb, auf die potenziellen Zielgruppen von Desinformationskampagnen zuzugehen. „Wir können die Verbreitung von Inhalten und Erzählungen im Informationsraum nicht in einem Maße stoppen oder beeinflussen, das wirklich die Probleme lösen würde“, sagt Allen. Stattdessen müsse das Publikum in die Lage versetzt werden, Falschinformationen oder KI-generierte Inhalte zu erkennen.

Anne Neuberger, stellvertretende Nationale Sicherheitsberaterin im Weißen Haus, erklärt, die Biden-Regierung arbeite mit anderen Regierungen und den wichtigsten Unternehmen zusammen, um gegen die Verbreitung von KI-generierter Desinformation vorzugehen. Was darüberhinausgehende Maßnahmen der US-Regierung und der Sicherheitsmaßnahmen angeht, hält sich die Biden-Beraterin und frühere führende NSA-Mitarbeitern bedeckt.

Ob die USA, die EU und Deutschland auf den massenhaften Einsatz von KI für Desinformationskampagnen und politische Einflussoperationen genügend vorbereitet sind? Daran bleiben Zweifel. Welche Auswirkungen diese neuen Technologien wirklich haben werden? Das dürfte sich spätestens 2024 zeigen.

KStA abonnieren