ChatGPT verweigert ArbeitLeidet die Künstliche Intelligenz an einer Winterdepression?

Lesezeit 3 Minuten
Sam Altman, Geschäftsführer (CEO) von OpenAI und Erfinder der KI-Software ChatGPT, kommt an der Technische Universität München (TUM) zu einer Podiumsdiskussion.

Sam Altman, Geschäftsführer von OpenAI und Erfinder der KI-Software ChatGPT

Immer mehr User klagen über faule Ausreden und freche Antworten des OpenAI-Chatbots. Wie kann das sein?

Als eine Freundin vor ein paar Tagen behauptete, ChatGPT sei in letzter Zeit „frech“ geworden, hatte ich sie noch verlacht. Schließlich erzeugt eine Künstliche Intelligenz nur den Anschein eines menschlichen Gegenübers, weil ihr Algorithmus gelernt hat und immer weiter lernt, menschliches Kommunikationsverhalten zu simulieren. Das funktioniert über Wahrscheinlichkeitsrechnung, nicht über aufglimmendes Bewusstsein.

Die Freundin war nicht überzeugt. Nicht nur frech, auch faul sei der Chatbot. Habe, nachdem sie mehrmals stilistische Korrekturen an einer von ihm generierten Rede angefordert hatte, schlicht die Arbeit verweigert. Unverschämt! Ich schob das auf ihre Prompts, da müsse sie sich wohl mehr Mühe mit ihren Eingaben ans System machen.

Auf Reddit klagen Nutzer schon seit November über den faulen Chatbot

Oder war sie einem unheimlichen Phänomen auf der Spur? Ich google und stoße auf einen aktuellen Artikel in der „Zeit“: „ChatGPT ist faul geworden“, behauptet auch der. Das Programm antworte derzeit weniger ausführlich, verweigere die Ausführung oder schlage frech vor, „der Fragende solle die Arbeit doch einfach selbst machen“.

Da war es wieder: „frech“. Ich gucke weiter und weil es bekanntlich zu jedem Thema der Welt ein Subreddit gibt, also einen Unterpfad auf der News- und Diskussionsplattform Reddit, findet sich auch einer zum faulen ChatGPT.

Auch OpenAI kann sich das Verhalten von ChatGPT nicht erklären

Bereits seit November, berichten hier User, lasse die Leistung der KI zu wünschen übrig. Immer wieder schlage der Chatbot seinen Nutzern vor, ihren Mist alleine zu machen. Und das, obwohl ihr eigentliches Versprechen doch lautete, uns langweilige und repetitive Aufgaben zu ersparen. Schließlich reagierte sogar OpenAI, das Unternehmen hinter ChatGPT. Man habe seit dem 11. November kein Update mehr gefahren, schrieb das Unternehmen auf „X“, Absicht sei also keine dahinter, allerdings könne das Verhalten des Programms unvorhersehbar sein, man versuche das Problem zu beheben.

Die Freundin hatte recht, ChatGPT entwickelte sich immer mehr zu Herman Melvilles berühmten Verweigerer Bartleby: „Ich würde vorziehen, das nicht zu tun.“ Ich musste mich entschuldigen. Aber wie kann das sein?

Hat OpenAI, entgegen aller Beteuerungen, seinem Chatbot Limits gesetzt, um Rechenkraft zu sparen? Oder hat ChatGPT aus seinen Trainingsdaten gelernt, dass die Produktivkraft seiner menschlichen Gesprächspartner desto stärker nachlässt, je näher man den Weihnachtstagen kommt? Eine digitale Winterdepression.

Angeblich fallen die Antworten wieder länger aus, wenn man ChatGPT vorgaukelt, dass man sich im Monat Mai befinde. Andere hätten die Maschine mit der dreisten Lüge, sie haben keine Finger, mit denen sie selbst schreiben können, zur Arbeit überredet.

Ob frech, faul oder depressiv, allen Anschein nach leiden wir Menschen am selben Problem wie schon der Gott des Alten Testaments: Wir erschaffen Avatare in unserem Bilde – und ärgern uns dann letztlich über uns selbst.

KStA abonnieren