KI als Richter

Das menschliche Ideal von Gerechtigkeit ist ohne Moral nicht denkbar. Sie gibt vor, was gut ist und was schlecht. Doch auch Empathie ist für ein Rechtssystem, das gerecht sein soll, unabdingbar. Denn es kommt bei Rechtsentscheidungen auch immer auf den jeweiligen Einzelfall an. Ein Justizsystem, das gänzlich auf Empathie verzichtet, erscheint unmenschlich. Und doch gibt es weltweit bereits Bestrebungen hin zu einer KI-gestützten Justiz ohne Empathie.

Ein Land, das bereits KI im Rechtssystem implementiert hat, ist China. Smart Court SoS wird dort einsetzt, um die Arbeitsbelastung der Richter zu verringern. Dabei handelt es sich um eine Gerichts-KI, die, nachdem die Parteien die entsprechenden Formulare ausgefüllt haben, automatisch über die Fälle urteilt und innerhalb weniger Minuten ein Urteil fällt. Dafür erstellt sie umgehend die entsprechenden juristischen Dokumente, nachdem sie andere Rechtsstreitigkeiten und die erforderlichen Rechtsvorschriften abgeglichen hat. Aber die gerichtliche KI urteilt nicht nur, sondern vollstreckt auch das Urteil, da sie direkt mit den chinesischen Ordnungskräften verbunden ist.

In den Vereinigten Staaten wird das KI-Tool AI Compas eingesetzt, das anhand verschiedener soziologischer Faktoren bestimmt, wie hoch die Wahrscheinlichkeit einer erneuten Straftat ist. In Europa setzt z.B. Estland künstliche Intelligenz für Verfahren ein, deren Kosten eher niedrig ausfallen. Spanien plant ebenfalls den Einsatz von KI im Justizsystem. Das hat die EU bereits dazu veranlasst, über die European Commission for the Efficiency of Justice (CEPEJ) eine Ethik-Charta für den Einsatz von KI in Justizsystemen und -umgebungen als Leitfaden für die EU-Mitgliedsländer zu erstellen.

Problem: Fehlende Empathie

Die ethischen Herausforderungen, die das Eintauchen der Gesellschaft in eine durch KI regulierte Welt mit sich bringt, sind vielfältig und Gegenstand der Roboterethik. Laut Dr. Jesús A. Mármol, Autor für den Thinktank Institute for Ethics and Emerging Technologies, ist dabei die Gefahr rassistischer, ethnischer und geschlechtsspezifischer Vorurteile am größten, die zu Ungleichheiten und sozialen Ungerechtigkeiten führen. Doch er sieht noch weitere Herausforderungen, die sich durch die Einführung einer juristischen KI ergeben. Herausforderungen, die sich alle aus einer Ursache ableiten: dem Fehlen von Empathie.

Eine KI-gesteuerte Gerechtigkeit ohne Empathie kann seiner Meinung nach nicht im menschlichen Sinne gerecht sein. Die Befürworter von KI im Justizsystem versichern jedoch, dass sie ein gerechtes Verfahren garantiert, da die KI derzeit nur als Roboterassistent eines Richters fungiert. Der menschliche Richter hat immer noch das letzte Wort. Doch Mármol stellt in Frage, ob menschliche Richter tatsächlich den bürokratischen Aufwand auf sich nehmen, gegen das Urteil der KI vorzugehen.

Die westliche Justiz ist geprägt vom Gedanken der Resozialisierung eines Straftäters. Dieses Modell ist typisch für die moderne Justiz, die dem Kontext bei gerichtlichen Entscheidungen Bedeutung beimisst und versteht, dass es keine gerechte Strafverfolgung ohne eine einfühlsame Sicht auf die verfolgte Person und ihre Umstände geben kann. Mármol glaubt, dass dieses Modell durch die Einführung einer juristischen KI ohne menschliches Einfühlungsvermögen grundlegend verändert werden wird. Er befürchtet, durch die Einführung einer juristischen KI könnte die westliche Welt zu einem ausschließlich strafenden juristischen Modell zurückkehren.

Wo bleibt die Kontrolle?

Ein weiteres Problem sieht Mármol in der fehlenden Verfahrenskontrolle bei einem durch KI gesteuerten Gerichtsprozess. Besonders am Beispiel China ist die Entwicklung dahin, dass KI nicht nur urteilt, sondern auch das Urteil vollstreckt, indem sie in Echtzeit mit den strafenden Instanzen verbunden ist, sehr bedenklich. Ein Zukunftsszenario, das uns dazu bringt, eine abschließende Frage zu stellen: Wie soll der Mensch, falls die juristische KI Urteile fällt und vollstreckt, weiterhin die Kontrolle über das Verfahrenssystem behalten?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert