Kampf gegen RassismusWo Maschinen die „besseren Polizisten“ wären

Lesezeit 4 Minuten
1250318437

Der Bezirksstaatsanwalt von Fulton County, Paul L. Howard Jr., gibt am 17. Juni 2020 in Atlanta, Georgia, elf Anklagen gegen den ehemaligen Polizeibeamten von Atlanta, Garrett Rolfe, bekannt.

  • Polizisten geraten nicht selten in Extremsituationen und können darin versagen.
  • Der auf einem Parkplatz flüchtende Rayshard Brooks wurde von Polizisten getötet, weil sie ihn für gefährlich hielten.
  • Wären dieser Stelle gefühllose Maschinen die „besseren Polizisten“?
  • Ein Gastbeitrag von Rolf Schwartmann, Professor an der Technischen Hochschule Köln und Leiter der Kölner Forschungsstelle für Medienrecht.

Black Lives Matter. Das ist ein Rechtssatz und in diesen Tagen zugleich ein wütender Schrei nach Solidarität im Kampf gegen Rassismus. In den USA ist nach George Floyd ein weiterer Schwarzer durch Polizeigewalt gestorben. Der auf einem Parkplatz flüchtende Rayshard Brooks wurde von Polizisten getötet, weil sie ihn für gefährlich hielten.

Polizisten geraten nicht selten in Extremsituationen und können darin versagen. Das ist ein Dilemma, und nicht in jedem Fall ist den Beamten schuldhaftes Verhalten vorzuwerfen. Auch Polizisten sind nur Menschen und nicht davor gefeit, überfordert zu sein und unberechenbar zu handeln. Kommen allerdings weitere Faktoren hinzu, wie in den USA die Rassendiskriminierung, dann ist persönliches Versagen Teil eines strukturellen Problems. Der Tod der beiden Schwarzen ist die Folge eines Fehlers in einem Rechtssystem, das ihn zugleich vorsieht. Aber wie gehen wir dann damit um, dass das Versagen bei emotional aufgeladenen Polizeieinsätzen mit schlimmen, schlimmstenfalls tödlichen Folgen sich als Bestandteil eines Polizeisystems erweist, für das es eine bessere Alternative gibt – die Künstliche Intelligenz? Kann deren Einsatz hier helfen?

Menschen dürfen nicht zu Objekten von Maschinen werden

Grundsätzlich gilt: Menschen dürfen nicht zu Objekten von Maschinen werden. Menschen müssen das Recht über den Menschen vollziehen und sprechen, nicht Maschinen. Aber dass Menschen auch dann fehlbar sind, wenn sie ihr Bestes geben; und dass in Behörden im Kleinen oftmals nicht Recht vollzogen wird, das kann man kaum bestreiten. Schließlich wird schon so mancher Kindergartenplatz nach Sympathie vergeben und im Straßenverkehr so manches Auge nach dem gleichen Motto zugedrückt.

Der Rechtsstaat nimmt die Fehlbarkeit des Einzelnen in diesen Situationen aus guten Gründen hin. Wer sich aber persönlich in seinen Rechten verletzt sieht, kann den Staat verklagen, und Richter entscheiden dann über den Fall. In letzter Konsequenz sind Fehlentscheidungen als Ausdruck der Fehlbarkeit des Menschen rechtsstaatlich hinzunehmen, solange es ein funktionierendes gesetzliches Verfahren zu deren Ausschluss gibt.

Wir kennen das Problem aus dem Straßenverkehr 

Aber bedarf es nicht einer Gegenreaktion, wenn die Fehlbarkeit, Unberechenbarkeit und Unkontrollierbarkeit des Menschen unnötig Menschenleben fordern? Wir kennen das Problem aus dem Straßenverkehr und gehen fest davon aus, dass die Zahl der Verkehrstoten sinken wird, wenn künstliche, auf risikoarmes Fahren programmierte Intelligenz das Steuer übernimmt? Man arbeitet heute in der industriellen Fertigung und in der Krankenpflege schon mit Hilfe von Robotern, auch im Kontakt zum Menschen. Wenn Polizisten im Einsatz nun maschinelle Helfer zur Verfügung gestellt bekämen, die etwa bei einer Festnahme ohne Ansehen von Herkunft, sozialem Status oder Hautfarbe auf den Vollzug des Polizeirechts programmiert wären, dann hätte George Floyd kein Knie an seinem Hals gehabt, er wäre nicht erstickt. Und Rayshard Brooks hätte vermutlich ohne eine emotionsgeladene Auseinandersetzung lebend festgesetzt werden können, bis man seinen Fall überprüft hätte. An dieser Stelle wären korrekt gefühllose Maschinen die „besseren Polizisten“, weil sie nicht reizbar, nicht manipulierbar sind, nicht verletzbar und auf das rechte Maß an Gewaltanwendung programmiert wären.

Maschinen, wo das Recht versagt

Solche Maschinen dürften – wie gesagt – niemals Richter über den Menschen werden. Aber warum sollten sie ihn nicht da ersetzen, wo nicht das Recht versagt, sondern der Mensch beim Vollzug des Rechts zum Risiko wird und Unschuldige gefährdet? Die 2018 von der Bundesregierung eingesetzte Datenethikkommission (DEK) hat die Frage aufgeworfen, ob es einen Anspruch auf den Einsatz von Künstlicher Intelligenz geben muss, wenn dieser in der Regel gerechtere Ergebnisse erzeugt. „Nur selten dürfte die Situation gegeben sein, dass eine Abwägung zwischen menschlichem Handeln und dem Einsatz eines algorithmischen Systems verzichtbar ist, weil dieses in allen ethisch relevanten Belangen ein »besseres« Ergebnis erzielt als menschliche Akteure, die herkömmliche Technologien nutzen. Dort, wo dies der Fall ist, gilt nach Auffassung der DEK allerdings, dass der Einsatz algorithmischer Systeme ethisch geboten ist, denn ein genereller ethischer Vorzug menschlichen Handelns vor dem Einsatz von Maschinen zulasten des Schutzes wichtiger Rechtsgüter ist nach Auffassung der DEK nicht gerechtfertigt.“ So heißt es im Abschlussbericht der Kommission vom Oktober des vergangenen Jahres. „Das menschliche Handeln bezieht seinen grundsätzlichen Wert aus seiner moralischen Bedeutung“, sagt die Kommission weiter.

Wenn nun aber eine Maschine die moralische Bedeutung des Handelns besser verwirklichen kann als ein Mensch, dann muss der Mensch sie als Werkzeug der Moral und des Rechts einsetzen. Es geht dann nur noch darum, die Kontrolle über die Künstliche Intelligenz und deren Programmierung zu behalten. Verlieren wir diese Kontrolle, werden wir zum Objekt der Maschine. Aber erst dann.

KStA abonnieren