Unsere Einzigartigkeit ist bedroht – was wir dagegen tun können. Ein Gastbeitrag unserer neuen Kolumnistin Sandra Matz, Professorin an der Columbia Business School in New York.
KI-KolumneMacht die Künstliche Intelligenz uns zu Langweilern?

Am Beispiel von Eissorten lässt sich gut verdeutlichen, wie die KI funktioniert.
Copyright: Jens Kalaene/dpa
Es gibt eine vielleicht unterschätzte Gefahr: Künstliche Intelligenz (KI) macht uns langweilig – nicht nur kollektiv, sondern auch individuell als Menschen. Aktuelle Studien zeigen, dass Menschen, die KI häufig nutzen, weniger vielfältige Interessen entwickeln, weniger kreative Ergebnisse erzielen und stromlinienförmigere Entscheidungen treffen. Denn KI verwandelt die Vielfalt, die uns Menschen so besonders macht, in statistisch sichere Gleichheit.
Nehmen wir das folgende Beispiel: Wir betreten eine Eisdiele, sehen 30 Geschmacksrichtungen und stehen vor einer schwierigen Entscheidung – wir können entweder einen alten Favoriten wählen oder etwas Neues ausprobieren. Bleiben wir bei Vertrautem oder lassen wir uns auf Unbekanntes ein, in der Hoffnung, etwas Besseres zu entdecken? Diese Abwägung hat die Evolution in das menschliche Gehirn eingebaut und wir entscheiden uns mal so, mal so. Aber KI hat begonnen, diese Waage gefährlich zu kippen. Denn die Systeme, auf die sich die Gesellschaft verlässt, um sich in der Welt zurechtzufinden – von Spotify über Netflix bis hin zu ChatGPT – sind überwiegend darauf trainiert, vorhandenes Wissen zu nutzen. Sie optimieren für kurzfristiges Engagement und Zufriedenheit: Haben Sie auf den Link geklickt?
Haben Sie sich das vorgeschlagene Video angesehen? Gefällt Ihnen der Song? Wenn ja, dann klopfen Sie sich auf die Schulter. Sie werden mehr davon sehen. Risiko, Entdeckung und Erkundung sind einfach nicht in ihrer Programmierung enthalten. Wenn also 60 Prozent der Menschen in der in Amerika sehr beliebten Eiscafé-Kette Baskin-Robbins die Sorte „Praline-Sahne“ bevorzugen, wird der Algorithmus genau diese empfehlen. Es ist dabei nicht so, dass KI keine Vorstellungskraft hätte – ihr fehlt lediglich der Anreiz. Denn sichere Wetten reduzieren die Kundenabwanderung. Unbekannte Optionen sind dagegen riskant.
Das Heimtückische daran ist, dass diese Verflachung nicht über Nacht spürbar wird
Daher neigt KI dazu, auf Nummer sicher zu gehen. Dadurch schränkt sie jedoch nicht nur die Auswahlmöglichkeiten der Menschen ein, sondern auch die Menschen selbst. Um diese Tendenz zu veranschaulichen, haben wir ein einfaches Experiment durchgeführt. Wir haben ChatGPT gebeten, 100 Mal eine Eissorte von Baskin-Robbins zu empfehlen, wobei wir jedes Mal vorgaben, ein anderer Kunde zu sein. In 96 Fällen schlug sie eine der beiden beliebtesten Sorten vor: „Praline-Sahne“ oder „Pfefferminz-Schokolade“. Das klingt trivial – bis man erkennt, dass diese Verflachung in allen Lebensbereichen stattfindet. Um dem entgegenzuwirken, gibt es einen wachsenden Trend zu personalisierten KI-Agenten, die Vorlieben einer Person lernen und individuellere Empfehlungen anbieten.
Der Haken: Selbst wenn die KI die Vorlieben der Menschen lernt, die sie nutzen – sagen wir, sie entdeckt, dass jemand die Eissorte Kokosnuss statt „Praline-Sahne“ bevorzugt –, geht sie dennoch innerhalb der individuellen Vorlieben auf Nummer sicher. Zurück zu ChatGPT für ein weiteres Experiment: Wir haben einen individuellen KI-Eiscreme-Assistenten für eine Person erstellt, die zuvor in 70 Prozent der Fälle die Sorte Kokosnuss gewählt hatte (die übrige Auswahl verteilte sich gleichmäßig auf drei andere Sorten), und ihn gebeten, die nächsten 100 Sorten auszuwählen. Er wählte Kokosnuss. Jedes einzelne Mal. Wo Sie einst ein buntes Mosaik sich entwickelnder Vorlieben waren, hinterlässt Ihnen die KI nur noch einen grauen Pappausschnitt Ihres früheren Selbst. Das Heimtückische daran ist, dass diese Verflachung nicht über Nacht spürbar wird.
Es ist eher wie der Tod durch tausend algorithmische Empfehlungen – ein etwas sichererer Film, ein etwas beliebteres Buch, ein etwas stromlinienförmigerer Urlaub nach dem anderen. Jede Entscheidung, die wir an die KI auslagern, macht uns eindimensionaler. Ich beginne das Jahr vielleicht mit sudanesischem Jazz, mache dann einen „empfohlenen“ Abstecher in die Indie-Elektronik, flirte anschließend mit Britpop und singe schließlich lautstark die Top 40 mit – als wäre dies die einzige Musik, die zählt. Der Kreislauf setzt sich fort – bis wir unser früheres Ich nicht mehr wiedererkennen. Wir können die KI-Revolution nicht zurückdrehen oder rückgängig machen. Das sollten wir auch nicht. KI hilft uns, uns in einer zunehmend komplexen Welt mit einer überwältigenden Auswahl zurechtzufinden.
Aber sie beginnt auch, im Namen der Gesellschaft zu handeln. Sie trifft Entscheidungen, statt nur Vorschläge zu machen. Hier wird es existenziell. KI selbst kann bei der Umkehr dieser Entwicklung helfen – wenn man ihr die richtigen Fragen stellt und sie für die richtigen Handlungen belohnt. Da sie das gesamte Universum der Präferenzen gesehen hat, weiß sie nicht nur, was eine Person derzeit mag, sondern auch, was gerade außerhalb der Grenzen ihrer typischen Präferenzen liegt.
Anstatt zu fragen: „Was wird mir gefallen?“, könnten wir also anfangen zu fragen: „Was ist etwas Unerwartetes, das mir gefallen könnte – auch wenn ich es noch nie ausprobiert habe?“. Oder wir könnten den Nutzern einen Regler anbieten, den sie zwischen „Genau richtig“, „Ich mit einer Wendung“ und „Wildcard“ umschalten können. Mit ihrer Superkraft – der Fähigkeit, Muster in Millionen von Datenpunkten zu erkennen – kann KI verborgene Schätze finden, nach denen wir niemals suchen würden. Dafür müssen wir der KI jedoch Anreize bieten. Es reicht nicht aus, sie einfach zu bitten, „kreativ“ zu sein oder uns etwas „Abenteuerlicheres“ zu zeigen.
Wir vereinen so viele wunderbare Widersprüche, die Algorithmen niemals erfassen können
In den meisten Fällen wird sie weiterhin auf die bewährten Ergebnisse zurückgreifen, weil sie nach Anerkennung verlangt. Anstatt die KI jedes Mal zu bestrafen, wenn sie einen Fehlschlag macht, müssen wir anfangen, sie für kluge Entscheidungen zu belohnen. Sowohl bei der anfänglichen Schulung des Algorithmus als auch später, wenn wir ihn einsetzen und Feedback zu seiner Leistung geben. Hier geht es nicht nur um Playlists oder Eiscreme. Der amerikanische Dichter und Schriftsteller Walt Whitman schrieb einmal: „Ich enthalte eine Vielzahl von Menschen.“ Es geht darum, das zu bewahren, was uns einzigartig macht. Ob es sich nun um eine halb ironische Besessenheit für handwerklich hergestellten Käse oder eine zufällige Leidenschaft für Sitar-Musik handelt: Wir vereinen so viele wunderbare Widersprüche, die Algorithmen niemals erfassen können.

Sandra Matz
Copyright: Columbia Business School
Zur Kolumnistin
Sandra Matz ist Computer-Sozialwissenschaftlerin und Professorin an der Columbia Business School in New York. Unsere neue Kolumnistin ist zudem Autorin des gerade erschienenen Buchs „Mindmasters – Die Macht der Daten“ (Redline-Verlag).