Risiken von künstlicher Intelligenz„Künftig wird es mehr Zeit kosten herauszufinden, was wahr ist“

Lesezeit 5 Minuten
Roboter des chinesischen Herstellers von intelligenten Robotern «Dataa Robotics» werden während der Weltkonferenz für künstliche Intelligenz 2023 ausgestellt.

Roboter des chinesischen Herstellers von intelligenten Robotern „Dataa Robotics“ werden während der Weltkonferenz für künstliche Intelligenz 2023 ausgestellt.

Übernehmen KI und Roboter bald die Macht? Die Stanford-Expertin Anka Reuel dringt darauf, jetzt international gesetzliche Standards und Leitplanken für die neue Technologie zu finden.

Anka Reuel ist kein ängstlicher Mensch: Als Globetrotterin hat sie zahlreiche exotische Länder bereist. Sie schwitzt beim Triathlon und hört Hardstyle­musik. Doch die Risiken der künstlichen Intelligenz (KI) treiben die Informatikdoktorandin an der amerikanischen Eliteuniversität Stanford um. Gemeinsam mit dem emeritierten Neurologie­professor und KI‑Unternehmer Gary Marcus veröffentlichte sie im April einen Namens­beitrag im Magazin „The Economist“, in dem sie eine global koordinierte Regulierung der neuen Technologie fordert. In Deutschland gehört sie zu den Mitgründern der Denkfabrik Kira, die Industrie, Wissenschaft und Politik für einen verantwortlichen Einsatz der KI zusammen­bringen will.

Frau Reuel, als ChatGPT auf den Markt kam, war der Enthusiasmus in der Öffentlichkeit groß. Jetzt streiken in Hollywood Drehbuch­autoren und ‑autorinnen und Schauspieler und Schauspielerinnen, weil sie Angst haben, dass künstliche Intelligenz (KI) ihre Jobs vernichtet. Sind wir gegenüber der neuen Technologie zu blauäugig gewesen?

Anka Reuel: Ich glaube, das kann man der Gesellschaft nicht vorwerfen. Die Entwicklung hat tatsächlich auch Fachleute und selbst Entwickler, die an dem System gearbeitet haben, überrascht. Fast niemand hat damit gerechnet, dass ChatGPT so einschlägt. Der Streik zeigt, dass das tatsächlich eine disruptive Technologie ist, die viele Jobs infrage stellt, von denen wir vorher geglaubt haben, dass sie von Automatisierung nicht betroffen sein würden.

Sie arbeiten in Stanford, also im Silicon Valley. Wie ist denn die Stimmung in der Herzkammer der Techindustrie?

Die Gespräche haben sich sehr verändert. Ich habe mit meiner Forschung sowohl zu technischer KI-Sicherheit als auch KI-Governance hier im vergangenen September angefangen. Wenn ich damals erwähnt habe, dass wir Schutz­maßnahmen und Regulierung brauchen, habe ich oft gehört: „Warum? Das passt schon!“ Es herrschte ein deutlich optimistischeres Gefühl. Nachdem ChatGPT auf den Markt kam, hat sich das Meinungsbild auch bei uns in der Uni deutlich gewandelt. Jetzt kommen viel mehr Kolleginnen und Kollegen und sagen: „Anka, du machst doch so was mit Governance. Ich bin besorgt über die Risiken. Was können wir machen?“

Der Optimismus ist weg?

Jedenfalls hat sich die Debatte verschoben. Bis zu ChatGPT herrschte die Überzeugung, dass wir die Risiken mit technischen Lösungen beherrschen können. Mittlerweile wächst das Bewusstsein, dass das nicht reichen wird. Wir brauchen Regulierung, die für alle Akteure gilt. Es müssen Standards für die verantwortungs­volle Entwicklung und den verantwortungs­vollen Einsatz von KI gesetzt werden.

Aktuell werden Systeme wie ChatGPT kaum bis gar nicht in der kritischen Infrastruktur eingesetzt
Anka Reuel

Wo sehen Sie die größten Gefahren der KI?

Wir reden über eine ganze Bandbreite von Risiken, sowohl kurzfristig als auch langfristig. Schon jetzt sehen wir, dass es zu Falsch­aussagen durch ChatGPT und zu Diffamierungen sowie Diskriminierungen kommt. Gerade gab es Berichte über das sogenannte Swatting: Da werden Stimmen geklont und jemand meldet bei der Polizei einen Einbruch, die dann bei ahnungslosen schlafenden Menschen mit einem Swatteam (ein Einsatz­kommando) anrückt. Man muss sich mal vorstellen, was so etwas mit einem macht.

Was droht als Nächstes?

Aktuell werden Systeme wie ChatGPT kaum bis gar nicht in der kritischen Infrastruktur eingesetzt, allerdings ist zu erwarten, dass KI zunehmend auch dort eingesetzt wird. Wenn dann Fehler passieren oder Missbrauch stattfindet, wären unter Umständen Millionen von Menschen von sehr ernsten Konsequenzen betroffen.

Sie sprechen von Dingen wie Stromversorgung oder Internet.

Solche Netzwerke sind oft auch noch miteinander verbunden. Wenn da eine Komponente angegriffen wird, kann sich das schnell durch das ganze System ziehen. Selbst wenn wir sagen, wir überlassen der KI nicht die autonome Entscheidung, sondern wollen immer, dass ein Mensch dabei ist, der auf Basis von Empfehlungen der Maschine selbst entscheidet oder die Entscheidung zumindest überprüft, ist das ein Risiko. Je komplexer eine Situation ist, desto schwieriger ist es für den Menschen, zu entscheiden. Im Zweifelsfall folgt er dann einfach der Maschine, ohne selbst zu reflektieren, ob der Vorschlag sinnvoll ist.

Der Roboter übernimmt dann faktisch die Macht?

Es können jedenfalls gefährliche Situationen entstehen, in denen wir eine halbautonome KI einsetzen, die quasi dadurch ganz autonom wird, dass der Mensch seine Einwirkungs­möglichkeit freiwillig abgibt.

Sie treten dafür ein, dass das Regelwerk für die KI global koordiniert wird. Das klingt logisch. Aber ist es realistisch?

Ich glaube, dass wir gerade ein Zeitfenster haben, wo das Thema sehr viel Aufmerksamkeit erfährt und der Druck auf die einzelnen Regierungen wächst, sich mit dem Thema zu beschäftigen. Natürlich sehe ich die Schwierigkeiten: Es gibt viele verschiedene Interessen­gruppen, sowohl national als auch international, bei denen es schwer ist, das zusammenzubringen. Andererseits machen mir die Regulierungs­anstrengungen vor allem in der EU und in China Hoffnungen: Da gibt es viele ähnliche Bausteine, die beide Regionen in ihren Regulierungen umsetzen möchten.

Es gibt einen Minimal­konsens, der auch in den USA weiter vorangetrieben wird. Die konkrete Gesetz­gebung wird hier wahrscheinlich anders aussehen. Aber ich glaube, dass man international tatsächlich auf einen gemeinsamen Nenner kommen kann, weil die KI-Sicherheit aufgrund von durchaus unterschiedlichen Motivationen für alle Regierungen wichtig ist. Aber zugegeben: Einfach wird das nicht.

Das EU-Parlament hat eine europäische KI-Gesetz­gebung auf den Weg gebracht. Könnte das ein Muster sein?

Das kommt ganz stark auf die finale Gestaltung an und wie das dann tatsächlich in Standards und nationale Gesetze umgesetzt wird. Im Moment kann man die Effektivität der Regelung noch schwer beurteilen.

Sehr schnell wird das jedenfalls nicht gehen. Schon gar nicht in den USA. Hier läuft gerade der Vorwahlkampf für das Präsidentschafts­rennen im nächsten Jahr an. Droht uns eine digitale Shitshow?

Das muss man tatsächlich befürchten. Je nachdem, wie viele Verbesserungen es bei generativen Video­modellen gibt und wie täuschend Menschen in Fake-Videos eingebaut werden können, droht eine mächtige Desinformations­kampagne von beiden Seiten. Das wird das Vertrauen in Informationen weiter untergraben. Künftig wird es signifikant mehr Zeit kosten, herauszufinden, was wahr ist und was nicht. In einem ohnehin extrem polarisierten Umfeld wird der Diskurs noch schwieriger. Das macht mir insbesondere als jemand, der vor Ort lebt, wirklich Sorgen.

KStA abonnieren