Abo

Kommentar

Palantir-Debatte
Diskussionen auf dem Rücken von Gewaltopfern darf es nicht geben

Ein Kommentar von
2 min
Auch bei Terrorlagen kann Palantir, die interne Suchmaschine der Polizei, Leben retten.

Auch bei Terrorlagen kann Palantir, die interne Suchmaschine der Polizei, Leben retten. 

KI kann Leben retten – doch bevor die NRW-Polizei sie einsetzt, braucht es klare Gesetze, die Unbeteiligte vor falschem Verdacht schützen.

Wenn es eine ernstzunehmende europäische Alternative zur polizeinternen Suchmaschine Palantir gibt, muss die NRW-Polizei sie nehmen. Punkt. Es wäre politisch und strategisch absurd, den Kern polizeilicher Analyse dauerhaft an einen US-Anbieter zu ketten, der hierzulande aus guten Gründen Vertrauen verspielt – und dessen Gründer Peter Thiel wie ein wandelnder Gegenentwurf zur liberalen Demokratie wirkt.

Aber wenn es diese Alternative nicht gibt, dann ist der Ruf nach dem schnellen Abschied nur Symbolpolitik auf dem Rücken der Opfer von Gewalttaten. Denn die polizeiinterne Suchmaschine kann Leben retten. In Terrorlagen, bei Amokdrohungen, in komplexen Missbrauchsverfahren zählt jede Minute. Dass Ermittler eine Software einsetzen, die verstreute Datenbestände in Sekunden zusammenführt, ist kein Skandal, sondern Logik. Darauf zu verzichten, wäre der Skandal.

Wenn aus der Logik ein Blankocheck wird

Das Problem beginnt dort, wo aus dieser Logik ein Blankoscheck wird: mehr Verknüpfung, mehr Muster, mehr „KI“, weniger Debatte über das, was dabei passiert. Mit Datamining verschiebt sich zukünftig der Charakter polizeilicher Arbeit: von der Suche nach einem Verdächtigen hin zur Maschine, die potenziell Verdächtige vorschlägt. Das ist ein qualitativer Sprung. Wer Muster in Massendaten schürft, zieht zwangsläufig Unbeteiligte mit ins Netz: Zeugen, Opfer, Kontaktpersonen.

Der Einsatz der neuen Technologien, egal ob mit Palantir oder einem anderen Anbieter, muss deshalb mit harten Bedingungen einhergehen: eng begrenzte Zwecke, klare Löschfristen, unabhängige Kontrollen, Transparenz über Trefferqualität und Fehlalarme. Genau hier ist KI für den Rechtsstaat noch Neuland: Wie schützt man Unschuldige, die nur als Datenpunkte durch die Systeme laufen, vor dauerhaften Verdachts-Spuren, vor falschen Zuordnungen, vor automatisierter Eskalation? Das Regelwerk muss deshalb her, bevor der Startknopf gedrückt wird.