Lex Laux: KI in der Rechts­anwendung

Mensch oder Maschine: Wer fällt bessere Urteile? IT-Anwalt und inside-it.ch-Kolumnist Christian Laux sagt, der Mensch.
 
Kürzlich bin ich gefragt worden, wer bessere Urteile fällt: Der Mensch oder die Maschine? Meine Spontanantwort lautete: Der Mensch.
 
Zunächst waren irgendwie alle etwas enttäuscht: Da fragt man einen IT-Anwalt – und dann sowas...
 
Ergänzende Gedanken zur Begründung
Auch nach nochmaligem Durchlauf der Gedanken beantworte ich die Frage wieder gleich: Der Mensch ist besser geeignet, Urteile zu fällen. Warum?
 
Wäre der Mensch eine Sammlung von Softwareprogrammen, würde man sein Gehirn und die darin "verbaute" Urteilsfähigkeit als "Killer-Applikation" bezeichnen. Genau diese braucht es für das Fällen von Urteilen (die Sprachwahl ist nicht zufällig). Urteile müssen überzeugend sein, damit sie eine Lösung in einem Streitfall vermitteln – man spricht davon, dass der Richterspruch eine "befriedende Wirkung" haben soll. Überzeugungsarbeit liegt dem Menschen, der Maschine liegt sie nicht.
 
Eine meiner häufig verwendeten Kurzformeln lautet wie folgt: "Recht ist ein Gespräch und der Richter hat das letzte Wort." Wie in einem Gespräch werden im Rahmen eines Rechtsstreits vor dem Richter Argumente ausgetauscht. Aufgrund der Argumente entscheidet der Richter, welche Regel passt und für den konkreten Fall zur Anwendung kommen soll. Wenn alle Argumente auf dem Tisch liegen und der Richter die Argumente richtig berücksichtigt, kommt die richtige Regel zur Anwendung – und dann ist der Entscheid überzeugend.
 
Wie misst man Überzeugung? Überzeugt-Sein ist letztlich ein Gefühl. Ein Gefühl soll relevant sein, ob ein Urteil korrekt gefällt wurde? Ja, das ist aber kein Problem. Juristen verwenden alle fünf Minuten Begriffe, die präzisiert werden müssen. Juristerei ist eine unscharfe Wissenschaft. An vielen Stellen kommt das Ermessen des Richters zum Tragen. Und um vor Willkür zu schützen, hat die Rechtswissenschaft ergänzende inhaltliche und formale Kriterien entwickelt, um einen Richterspruch objektivieren zu können. Insgesamt: Richter haben eine grosse Verantwortung.
 
Verglichen mit einem Gespräch: Wenn mein Gegenüber mich (mit seinen Argumenten) nicht überzeugt, stimme ich ihm nicht zu. Würde ich die Hoheit über meine Einschätzung, ob mein Gegenüber überzeugend ist, einer Maschine überlassen? Vielleicht in Fällen untergeordneter Wichtigkeit (z.B. für die Frage "Ist genug Milch im Kühlschrank?"). Für andere jedoch nicht.
 
Kann ich Rechtsgefühl, Verantwortungsbewusstsein und Urteilsfähigkeit maschinell reproduzieren? Die Skepsis überwiegt. Als vorsichtiger Jurist müsste ich hinzufügen: Jedenfalls zum Stand heute.
 
Ungeachtet dessen: Mein Gegenüber hat den eingangs geschilderten Ablauf der Rechtsfindung aufgegriffen und zurückgefragt: "Wenn du den Ablauf der Rechtsfindung derart in eine Stufenfolge übersetzen kannst, müsste sich der Vorgang doch eigentlich mittels eines Algorithmus abbilden lassen", so begann der Einwand. Und weiter: "Also müsste ich doch eine Maschine auf diesen Algorithmus programmieren können. Man muss ihr nur noch den Sachverhalt richtig schildern – und los geht's. Richtig?"
 
Unterstellen wir für die Antwort, dass alle erforderlichen Regeln richtig umschrieben und in die Maschine programmiert werden könnten: Ja, dann müsste "nur" noch der Sachverhalt richtig geschildert werden.
 
Doch genau hier beginnt das Problem.
 
1.) Da mihi facta, dabo tibi ius...
Übersetzt: "Gib' mir die Fakten, dann gebe ich dir das Recht." Das Zitat im Titel stammt von den Römern, ist also wohl rund 2000 Jahre alt, oder älter. Gemeint war die Rollenverteilung vor den Schranken des Richters: Der Richter muss sich nicht um die Sachverhaltsermittlung kümmern. Aber das Zitat ist auch deshalb spannend, weil es bereits den Wunsch nach Automatisierung vorwegzunehmen scheint. Wenn – dann ...
 
Nun zum Problem: Ich wäre nicht in der Lage, mittels eines Algorithmus zu beschreiben, wie ich dem Richter den Sachverhalt für "meinen" Rechtsfall schildern muss.
 
Warum? Man kann eine Geschichte (den Sachverhalt) auf verschiedene Arten erzählen. Auslassungen an scheinbar untergeordneten Stellen können eine Bedeutung haben. Wäre der Richter eine Maschine, käme bei unterschiedlicher Sachverhaltsschilderung ein anderes Resultat heraus. "Garbage in, Garbage out" – gewissermassen. Und dies würde nicht zu besonders überzeugenden Resultaten führen – weil ja derjenige, der den Sachverhalt erzählt, durch Wahl von Auslassungen und Ausschmückungen das Resultat beeinflusst.
 
Ein auf dieser Basis gefällter Entscheid wäre nicht überzeugend.
 
2.) Wenn die Regel nicht zum Fall passt
"Hard Cases make bad law", sagt man im angloamerikanischen Rechtsraum. Das Zitat meint Folgendes: Da am Ende jeder Fall gelöst werden muss, auch wenn er noch so schwierig ist, kann Fallrecht entstehen, das zu wenig differenziert.
 
Ich greife das Diktum hier aus einem anderen Grund auf: Es bringt schön zum Ausdruck, dass der Sachverhalt die Regel herausfordern kann. Wenn die am nächsten gelegene Regel nicht "passt", verbleibt ein störendes Bauchgefühl – die Lösung in Anwendung der am nächsten gelegenen Regel überzeugt nicht.
 
Regeln müssen nur "gut genug" sein, um einen Streit zu entscheiden. Eine holzschnittartige Regel kann für einen einfachen Sachverhalt genügen. "Du sollst nicht töten" wäre eine solche holzschnittartige Regel. Aufgrund dieser Regel kann man in einfach gelegenen Fällen schon viel darüber aussagen, wer die Verantwortung trägt, wenn jemand stirbt (z.B. als Folge eines Autounfalls oder eines Messerangriffs). Wird der Sachverhalt demgegenüber komplexer (z.B. der todkranke Patient verlangt von der Sterbehilfeorganisation, ihm ein todbringendes Medikament zu verabreichen), genügt die holzschnittartige Regel (im Beispiel: "du sollst nicht töten") allenfalls nicht mehr. Sie muss präzisiert werden, weil sonst Resultate entstehen, die nicht überzeugend sind.
 
Das Problem: Wie merkt die Maschine, dass die Regel nicht zum Sachverhalt passt? Es genügt ja nicht, dass eine der Parteien schlicht im "Feedback-Feld" ein "Don't Like" anklickt...
 
Ich sehe nicht, wie die Maschine erfolgreich entscheiden kann, ob die Regel für den konkreten Sachverhalt genügend granular ist oder zu holzschnittartig ist.
 
3.) Präzisieren
Wie wird eine Regel präzisiert, wenn sie zur Lösung eines Problems zu holzschnittartig ist? Die Antwort lautet: Mittels Präzisierung.
 
Eine Regel ist eine Grenzlinie zwischen schwarz und weiss. Wenn der Anwendungsfall zu granular ist, dann kann man sich bildlich Folgendes vorstellen: Der Anwendungsfall liegt als kleiner Punkt ganz nahe bei der Trennlinie zwischen schwarz und weiss. Die Regel verläuft als dicker, fetter Strich ebenfalls auf der Trennlinie, verdeckt aber den kleinen Punkt des Anwendungsfalls, so dass bei Betrachtung des so gezeichneten Bilds nicht mehr entschieden werden kann, wo der Punkt des Anwendungsfalls liegt: links oder rechts von der Regel, d.h. im schwarzen oder im weissen Feld? Um dieses Problem zu lösen, muss man die Regel mittels Differenzierung so genau zeichnen, dass sie den Anwendungsfall nicht mehr überdeckt. Und dann erkennt man, wo der Punkt liegt: im schwarzen oder im weissen Feld. Genau so wickelt der Richter einen Fall ab, wenn er Recht sprechen muss.
 
Nur: Wie merkt die Maschine, wann die Regel genügend scharf gezeichnet ist, um das Problem zu lösen?
 
Ich glaube nicht, dass die Maschine hier erfolgreich sein kann.
 
Zusammenfassend:
Mit anderen Worten: Wenn eine Maschine entscheiden soll, kann es Probleme geben:
  • Erstens: Sachverhaltsprobleme, z.B. weil nicht der ganze Sachverhalt erzählt wird, etwa weil relevante Einzelheiten ausgespart bleiben. Oder weil der Sachverhalt nicht so dargestellt wird, wie er erzählt werden müsste. Die Maschine wird wohl nicht merken, ob der Anwendungsfall genügend detailliert geschildert ist und überhaupt genügend klar aufbereitet ist, um dem Richter (bzw. der Maschine) die Entscheidung darüber zu erlauben, ob die zur Anwendung gebrachte Regel genügend präzise ist.
  • Zweitens: Überschätzung der Maschine. Man kann wohl Algorithmen definieren, die simulieren, als ob die Maschine ein Gefühl hätte – aber "echte" Gefühle wird eine Maschine nie haben. Es ist eine Maschine. Da ihr Gefühle fehlen, fehlt ihr auch die Fähigkeit, das menschliche Zusammenleben situativ einzuschätzen. Damit wird sie auch nicht beurteilen können, ob die Regel "passt", d.h. ob das Resultat überzeugend ist.
Kurz: Mir fehlt es im Moment an der Vorstellungskraft, die Maschine als leistungsfähigen Richter anzuerkennen.
 
Morgen folgt ein weiterer Beitrag. In diesem ergänze ich diese Überlegungen um die Frage, ob es trotzdem sein kann, dass der Richter allenfalls durch Maschinen ersetzt werden könnte. (Christian Laux)
 
Dr. Christian Laux, LL.M. ist Anwalt und fokussiert auf IT-Rechtsangelegenheiten. Für inside-it.ch äussert er sich an dieser Stelle regelmässig zu Rechtsfragen, welche die Schweizer IT-Branche in relevanter Weise betreffen.