Meine RegionMeine Artikel
AboAbonnieren

Markus Gabriel im Interview„Falsche Vorstellungen von Technologie“

Lesezeit 5 Minuten

Herr Professor Gabriel, in der Aufklärungsphilosophie ging es um die Vervollkommnung des Menschen. Die Möglichkeit scheint biotechnologisch näher zu rücken, doch nun ist der Aufschrei groß: Das geht nicht! Ist das eine tragische Situation für die Philosophie?

Ich glaube, dass wir sehr viel weiter entfernt sind von diesen Möglichkeiten, die wir für greifbar nah halten. Die biotechnologische oder genetische oder sogar neurowissenschaftliche oder durch die Informatik gestützte Vervollkommnung des Menschen, von der wir träumen, halte ich für eine Illusion und letztlich für kalifornisches Marketing. Es ist ja nicht so, dass Menschen an Bäumen wachsen, sondern menschliche Organismen sind soziale Produkte, entstanden durch Sex oder künstliche Befruchtung. Das heißt, Menschen bringen Menschen hervor, und die haben sich immer schon in einem Prozess der Vervollkommnung befunden.

Aber erfährt dies nicht gerade einen technologischen Schub?

Der Mensch ist eines der komplexesten Systeme, die überhaupt existieren, und die Komplexität dieses Systems ist beliebig weit entfernt von unserer Kontrolle. Wenn wir auch nur ansatzweise so weit wären, wie viele Futuristen glauben, die von einer transhumanen Zukunft träumen, dann hätten wir nicht einmal mehr einen Schnupfen. Aber noch nicht einmal dieses Problem haben wir gelöst. Und von der Endlösung des Krebses sind wir beliebig weit entfernt.

Spräche denn etwas dagegen, solche Dinge anzustreben?

Es gibt keinen Grund, unsere Naturausstattung nicht zu verbessern, wenn das ginge. Wenn ich weniger krank sein will, spricht nichts dagegen, so effektiv und schnell wie möglich etwas dafür zu tun. Aber nicht um jeden Preis: Wenn es mir gelänge, durch ein Implantat der beste Physiker aller Zeiten zu werden, aber dafür tausend kongolesische Babys sterben müssten, dann wäre klarerweise vorzuziehen, dass ich weniger intelligent bin.

Wie ist denn in diesem Zusammenhang das Verhältnis zwischen der Entwicklung der künstlichen Intelligenz und der ethischen Reflexion seitens der Philosophie?

Das ist die entscheidende Frage, an der wir gerade arbeiten – auch in NRW auf Initiative von Armin Laschet und der Fraunhofer Gesellschaft. Dazu brauchen wir aber zunächst einmal eine fortgeschrittene Philosophie der künstlichen Intelligenz, die nicht den Fehler begeht zu glauben, dass unsere Smartphones oder Computer irgendwie selbst intelligent seien. Das heißt, wir studieren die Mensch-Maschine-Interaktion und die falschen Vorstellungen, die Menschen sich von Maschinen machen. Und wir sehen die Ethik der künstlichen Intelligenz darin, dass wir zunächst einmal unsere Vorstellung von Technologie korrigieren. Nur dann können wir verstehen, dass eine Philosophie der KI nichts mit dem Glauben zu tun hat, dass Roboter bald intelligent sind und dass wir uns fragen müssten, ob wir unsere Pflegeroboter streicheln müssten.

Das klingt so, als müssten Sie zuerst einmal jede Menge geraderücken.

Das ist der erste Schritt. Wir brauchen jetzt einen kritischen KI-Diskurs. Der hat übrigens schon begonnen, etwa durch ein Buch des Entwicklers von Siri, also einer Koryphäe in Sachen KI und künstlicher Sprachentwicklung. Der weit verbreitete Diskurs, dass Computer bald mehr können als der Mensch, wird auch dort als falsch charakterisiert. Der erste Schritt besteht vielmehr darin, eine kritische Philosophie der KI zu entwickeln.

Der Engländer Nick Bostrom glaubt an die Möglichkeit einer Superintelligenz.

Das ist aber nachweisbar falsch. Bostrom hat sogar seine Argumente zurückgezogen, weil sie auf einem mathematischen Fehler beruhten. Die wahrscheinlichkeitstheoretischen Argumente Bostroms sind alle falsch. Auch Bill Gates, lange Zeit Unterstützer der Idee einer Superintelligenz, hat sich davon zurückgezogen.

Was ist die Superintelligenz?

Das ist ein System der künstlichen Intelligenz, das imstande ist, andere Systeme der KI zu produzieren, die wiederum intelligenter sind, als es selbst.

Was ist Ihre Prognose: Wo geht es hin mit der KI?

Wir werden immer bessere Verfahren der Digitalisierung entwickeln – das ist ein Prozess, der kein Ende kennt. Und dadurch werden wir immer effizienter, wir können immer mehr Arbeit in immer weniger Zeit verrichten. Das ist meine Definition von Intelligenz: Ein Problem relativ zu einem Zeitraum immer schneller zu lösen als ein anderes System. Das bedeutet, man ist intelligenter, und in diesem Sinne werden Menschen immer effizienter. Eben durch den Einsatz der KI, worunter bestimmte Verfahren des maschinellen Lernens und des Deep Learning zu verstehen sind. Das heißt, bestimmte Verfahren der Mustererkennung – darum geht es eigentlich.

Wenn Sie auf der phil.cologne die Frage stellen: Wie perfekt dürfen wir sein?, gleichzeitig aber postulieren, dass es keine absolute Perfektion gibt, dann dürfen wir doch immer weiter nach Perfektion streben – das ist eine optimistische Sicht auf die Dinge.

Völlig. Es gibt überhaupt keinen Grund, weniger perfekt zu sein als man sein könnte, außer man will es nicht. Wir sind ja berechtigt, weniger perfekt zu sein. Wir erlauben uns Imperfektion: Das ist die Schönheit des menschlichen Lebens. Aber es gibt kein Verbot, das menschliche Leben weniger effizient und weniger perfekt zu gestalten, als es sein könnte.

AUFTRITT AUF DER PHIL.COLOGNE

Markus Gabriel, geboren 1980 in Remagen, lehrt Erkenntnistheorie und Philosophie der Neuzeit an der Universität Bonn. In seinen Büchern wie „Warum es die Welt nicht gibt“ (2013) beschäftigt er sich schwerpunktmäßig mit der Beziehung des Subjekts zur Wirklichkeit.

Auf der phil.cologne stellt sich Gabriel im Gespräch mit Gert Scobel die Frage: „Wie perfekt dürfen wir sein?“ Es geht um die erweiterten Möglichkeiten des Menschen etwa durch die künstliche Intelligenz – heute, Freitag, 21 Uhr im Comedia Theater, Vondelstraße 4 – 8.