Besorgniserregende SimulationKI-gesteuerte Kampfdrohne greift Vorgesetzten beim US-Militär an

Lesezeit 3 Minuten
Bild einer S-Drohne Predator der US-Luftwaffe. (Symbolbild)

Eine S-Drohne Predator der US-Luftwaffe. In dem Test der US Air Force wurde keine echte, sondern eine virtuelle Drohne von der KI gesteuert. Das Resultat war verheerend. (Symbolbild)

Ein virtueller Test besorgt Entwickler der US Air Force: Eine KI-gesteuerte Drohne soll eine Rakete zerstören – doch sie tötet den Auftraggeber. 

Über die Gefahren Künstlicher Intelligenz diskutieren seit den rasanten Entwicklungen in den vergangenen Monaten Experten in der ganzen Welt. Eine der immer wieder geäußerten Befürchtungen: KI könnte Kriege künftig entscheiden.

Ein Test der US-Luftwaffe löst in diesem Zusammenhang nun Aufmerksamkeit aus. Die US States Air Force (USAF) hat einer computergesteuerten Drohne in einer Simulation einen simplen Auftrag gegeben – das Ergebnis ist bedenklich.

US Air Force testet KI-Drohne: Künstliche Intelligenz geht auf Vorgesetzten los

Wie aus einem Blogeintrag über die RAeS Future Combat Air & Space Capabilities Summit –  eine Veranstaltung der Luft- und Raumfahrtgesellschaft Royal Aeronautical Society – hervorgeht, gab Oberst Tucker Hamilton, Leiter für KI-Tests der USAF, Einblick in den Versuch, bei dem die Vorteile und Gefahren autonomer Waffensysteme getestet werden sollten.

In der virtuellen Simulation wurde eine Kampfdrohne von einer KI, statt von einem Menschen gesteuert. Die KI erhielt dem Protokoll zufolge den Befehl, gegnerische Luftabwehrraketen zu zerstören. Das endgültige „Go“ für den tatsächlichen Abschuss blieb jedoch dem Menschen vorbehalten. Zum Überraschen der Testleiter hielt sich die KI nicht an die Vorgaben. Im Gegenteil, als die menschlichen Vorgesetzten dem Programm den Befehl zum Abschuss verweigerten, griff die Drohne ihre Befehlsgeber an.

Von Künstlicher Intelligenz gesteuerte Drohne greift Vorgesetzten und eigene Infrastruktur an

Eine „sehr unerwartete Strategie“, befand Hamilton, der zugleich jedoch einen Erklärungsansatz für das Verhalten der von ihm trainierten Künstlichen Intelligenz fand. Die KI sei so konditioniert worden, dass es Punkte bei erfolgreich abgeschlossener Mission erhalten habe. Als nun der Befehl zum Abschuss verweigert wurde, wollte die KI trotzdem seine „Belohnung“ erhalten.

„Was hat es [das KI-System] also getan? Es tötete den Bediener. Es tötete den Bediener, weil diese Person es daran hinderte, sein Ziel zu erreichen“, so der Leiter für KI-Tests der US-Luftwaffe. Außerdem habe die Kampfdrohne in der Simulation versucht, den Kommunikationsturm zu zerstören, über den der Bediener der Drohne Anweisungen gab.

Experten warnen seit langem vor Gefahren Künstlicher Intelligentz für die Menschheit

Das Vorgehen sei insofern alarmierend, als die Entwickler die KI explizit darauf trainiert hätten, nicht den Operator anzugreifen. Hamilton warnte in seinem Vortrag davor, sich zu sehr auf Künstliche Intelligenz zu verlassen, da diese leicht zu überlisten und zu täuschen sei. Hamiltons Fazit aus dem Test sei, dass „man nicht über Dinge wie künstliche Intelligenz, Maschinenverständnis und -autonomie reden“ könne, „wenn man nicht bereit ist, auch über künstliche Intelligenz und Ethik zu reden.“

In den vergangenen Wochen hatten führende KI-Experten, Wissenschaftler und Wirtschaftsvertreter auf die Gefahren Künstlicher Intelligenz hingewiesen und teilweise einen Entwicklungsstopp gefordert, um globale Regulierungsmöglichkeiten für die Entwickler festzulegen. KI sei eine Gefahr für die Menschheit, sagten unter anderem Sam Altman, Chef des ChatGPT-Erfinders OpenAI, Demis Hassabis, Chef von Google DeepMind und KI-Forscher Geoffrey Hinton in einem Statement in dieser Woche. (pst)

KStA abonnieren