Georgia Stefanopoulou | Essay | 23.04.2025
Frei oder fehlerfrei richten?
Entscheidungsfindung durch KI mit Blick auf das Thema der Freiheit
„In einer perfekten Welt würde Angeklagten echte Gerechtigkeit widerfahren; in unserer Welt widerfährt ihnen verzerrte Gerechtigkeit.“[1] So lautet eine der zentralen Thesen des 2021 erschienenen Buches Noise: A Flaw in Human Judgement von Daniel Kahnemann, Olivier Sibony und Cass Sunstein. Ich möchte dieses seit seinem Erscheinen überaus erfolgreiche und viel diskutierte Buch und seine Überlegungen hier aufgreifen, weil es mit dem Einsatz von KI-Systemen im Rahmen der Urteilsbildung ein Thema behandelt, das seit einiger Zeit in der juristischen Fachwelt kontrovers diskutiert wird. Konkret geht es dabei um die Frage, ob KI-Systeme in Anbetracht menschlicher Fehlbarkeit richterliche Aufgaben übernehmen sollten. Diese Frage soll hier unter besonderer Berücksichtigung des Aspekts der Freiheit erörtert werden.[2]
Urteilsfehler: Verzerrung und Streuung
Die verzerrte Gerechtigkeit, die Kahneman, Sibony und Sunstein im oben erwähnten Zitat anprangern, führen sie auf zwei Fehler bei der Urteilsbildung zurück, auf „Bias“ und „Noise“.[3] Als Bias bezeichnen sie die systematische Verzerrung und Abweichung von Urteilen, als Noise die Zufallsstreuung von Urteilen, das „störende Rauschen“ bei der Entscheidungsfindung.[4] Die genaue Bedeutung sowie den Unterschied der beiden Phänomene, in denen sie die wichtigsten Ursachen für Urteilsfehler sehen, demonstrieren die Autoren anhand eines anschaulichen Beispiels gleich zu Anfang ihres Buches.[5]
Vier Gruppen à fünf Personen schießen jeweils mit demselben Gewehr auf eine Zielscheibe. Jede Gruppe versucht, so oft wie möglich das Zentrum der Zielscheibe zu treffen, wobei jedes Mitglied der Gruppe genau einmal schießen darf. Die erste Gruppe (Team A) ist besonders erfolgreich: alle fünf Mitglieder treffen die Mitte der Zielscheibe. Die Leistung von Team A repräsentiert den Autoren zufolge die perfekte Urteilsbildung in einer idealen Welt. In der Realität allerdings sind solche Resultate höchst selten. Hier überwiegen in der Regel Leistungen, die eher den Ergebnissen der drei anderen Gruppen entsprechen. Die zweite Gruppe (Team B) schießt systematisch daneben. Die Schüsse erreichen zwar nicht die Mitte der Scheibe, sie sind allerdings kaum gestreut, das heißt, sie treffen alle in den gleichen Bereich (etwa unten links). Die fehlerhafte, aber nicht gestreute Leistung der zweiten Gruppe bezeichnen die Autoren als verzerrt (biased). Die Gleichartigkeit der Abweichung deutet auf eine gemeinsame Ursache wie beispielsweise einen leicht verbogenen Lauf oder ein fehlerhaftes Zielfernrohr hin. Auf Fälle der juristischen Urteilsbildung übertragen hieße dies, dass alle richtenden Personen demselben Bias unterliegen. Das Resultat der dritten Gruppe (Team C) fällt noch einmal anders aus. Hier schießen die Personen nicht nur daneben, sondern ihre Treffer sind zudem breit gestreut, das heißt, jedes Mitglied der Gruppe trifft einen anderen Bereich der Zielscheibe. Diese Art der Abweichung, die Kahneman, Sibony und Sunstein als verrauscht (noisy) bezeichnen, spricht weniger für die Wirkung einer gemeinsamen Ursache, sondern eher für den Einfluss unterschiedlicher Faktoren. Überträgt man das Ergebnis auf Urteilsfehler im Rechtswesen, gibt es den Autoren zufolge keinen klar erkennbaren Bias, sondern nur eine schwer zu erklärende Zufallsstreuung. Das Ergebnis der vierten und letzten Gruppe (Team D) schließlich weist Merkmale sowohl von Bias als auch von Noise auf: Alle Personen der Gruppe schießen systematisch daneben, das heißt sie treffen ungefähr den gleichen Bereich der Scheibe, aber innerhalb dieses Bereichs weisen ihre Treffer eine verhältnismäßig breite Streuung auf. Mit Blick auf die juristische Urteilsbildung würde diese Konstellation bedeuten, dass in derselben Hinsicht voreingenommen richtende Personen gleichzeitig verschiedene subjektive und individuelle Faktoren in die durch Bias verzerrte Entscheidung einfließen lassen.
Kahneman, Sibony und Sunstein widmen sich in ihrem Buch dem Phänomen der breiten Zufallsstreuung, das im Vergleich zum Phänomen der gleichartigen Abweichung weniger im Fokus der wissenschaftlichen Aufmerksamkeit steht: „Bias ist sozusagen der Star der Show, während Noise im Allgemeinen hinter den Kulissen verborgen bleibt.“[6] Dabei, so die Autoren, sei das „störende Rauschen“ sogar „manchmal das wichtigere Problem“, da es relativ selten wahrgenommen werde, obwohl es „oft […] ein geradezu skandalös hohes Maß“ bei der Entscheidungsfindung annehme.[7] Exemplarisch verweisen sie in diesem Zusammenhang auf den Bereich der Strafzumessung durch US-Bundesrichter:innen. Die Unterschiede zwischen den für gleiche Rechtsverstöße verhängten Strafen seien so groß und die Gründe so willkürlich, dass Kahnemann, Sibony und Sunstein von einem „Glücksspiel“ sprechen.[8] Damit weisen sie auf ein Problem hin, das auch in Deutschland bekannt ist und vor allem seit dem von Johannes Kaspar verfassten Gutachten zum 72. Deutschen Juristentag im Jahr 2018 in unregelmäßigen Abständen immer wieder im Fokus der juristischen Fachöffentlichkeit steht.[9] Fälle von irrtümlicher Doppelverurteilung wegen desselben Delikts, bei denen das Strafmaß von Fall zu Fall deutliche Unterschiede aufwies, deuten auf richterspezifische Ursachen für die Abweichungen hin.[10] Schaut man genauer hin, fallen vor allem regionale Strafzumessungsunterschiede ins Auge. Empirische Untersuchungen stellen ein Nord-Süd-Gefälle fest.[11] In Norddeutschland fallen Strafen demnach tendenziell milder aus als beispielsweise in Bayern oder in Südhessen.[12]
Fehlerfreie Urteilsbildung durch KI?
Derartige Abweichungen in der Strafzumessung werden aus guten Gründen als Gerechtigkeitsproblem angesehen.[13] Als mögliche Lösung wird seit einigen Jahren immer wieder auch die Anwendung von Künstlicher Intelligenz (KI) bei der Urteilsbildung in Erwägung gezogen.[14] Eine algorithmisch gestützte Strafzumessung scheint auch für Kahneman, Sibony und Sunstein die Chance zu eröffnen, den Einfluss von Noise bei der Urteilsbildung zu reduzieren oder sogar ganz zu beseitigen,[15] funktionieren Algorithmen in ihren Augen doch wie Regeln, deren strenge Befolgung Genauigkeit ermöglichen und Willkür verringern kann.[16] Diese Sichtweise lässt sich kritisch hinterfragen. Die am häufigsten zu hörende Kritik lautet, dass Algorithmen intransparent und nicht zwingend diskriminierungsfrei sind.[17] Der Vorwurf der Intransparenz, bekannt als Black-Box-Problematik, bezieht sich auf die fehlende Vorhersehbarkeit und Nachvollziehbarkeit des Entscheidungsverhaltens von KI-Systemen.[18] Der Diskriminierungsvorwurf bezieht sich auf die Qualität und Auswahl der Daten, mittels der die KI-Programme trainiert werden. Es besteht die Gefahr, dass die in der Justiz eingesetzten KI-Programme mit Daten gefüttert wurden, die vorurteilsbehaftet sind und infolge dessen zu Wahrnehmungsverzerrungen und Fehleinschätzungen bezüglich der Beurteilung von Kriminalität gelangen.[19] Bekannt ist in diesem Zusammenhang etwa das Beispiel der diskriminierungsträchtigen algorithmischen Bewertungen des US-amerikanischen COMPAS-Systems (Correctional Offender Management Profiling for Alternative Sanctions) gegenüber afroamerikanischen Männern bei der Prognostizierung einer Rückfallgefahr.[20] Es wurde beobachtet, dass Repräsentanten dieser Bevölkerungsgruppe durch den Algorithmus deutlich öfter als gefährlich eingestuft werden als Angehörige anderer Gruppen, was damit zusammenhängen soll, dass diese Bevölkerungsgruppe in der Vergangenheit überproportional häufig im Fokus der Strafverfolgung stand.[21] Der Fall exemplifiziert das durchaus reale Risiko, dass aus der Vergangenheit stammende Vorurteile und Diskriminierungen im Zuge algorithmenbasierter Urteile und Prognosen übernommen, reproduziert und weiter verbreitet werden.[22] Die Qualität von Entscheidungen auf Grundlage von KI hängt daher in hohem Maße von der Qualität der Trainingsdaten ab – und diese ist nicht leicht zu kontrollieren.
Kurz gesagt: Mittels Algorithmen können zwar möglicherweise systematische Abweichungen durch Noise vermieden werden, es besteht jedoch weiterhin das Problem, dass Urteile durch Biases verzerrt werden.[23] Man beseitigt allenfalls die eine Art von Urteilsfehlern, aber nicht beide. Abweichungen und Ungleichheiten werden so nicht aus der Welt geschafft. Diese Kritik erscheint berechtigt. Außerdem kann, wenn strikte Regeln eingeführt werden und jeder Ermessensspielraum ausgeschlossen wird, die Einzelfallgerechtigkeit leiden.[24] Ich möchte allerdings im Folgenden sowohl über das Bias-Problem als auch das Problem der Einzelfallgerechtigkeit hinausgehen und die Anwendung von KI bei der Entscheidungsfindung aus einer anderen Perspektive betrachten, und zwar weniger in Verbindung mit dem herkömmlich mit der Frage der Gerechtigkeit assoziierten Thema der Gleichheit, sondern mit Blick auf das Thema der Freiheit.
Optimales Entscheiden durch Ausschluss der Persönlichkeit?
Kahneman, Sibony und Sunstein suchen nach Möglichkeiten zur Optimierung, wenn nicht gar zur Perfektion der Urteilsbildung und Entscheidungsfindung. Optimales Entscheiden ist für sie gleichbedeutend mit dem vollständigen Ausschluss aller rein subjektiven Faktoren.[25] Gut programmierte Algorithmen erscheinen nach dieser Vorstellung als ein taugliches Mittel zur Beseitigung jener Fehler, die der Persönlichkeit der jeweils urteilenden Person immanent sind.[26] Eine von allen subjektiven Einflüssen gereinigte Form der Urteilsbildung und Entscheidungsfindung wäre für sie, so sollte man vermuten, nachdem sie über mehrere Kapitel alle Missstände von Noise dargelegt haben, ein Triumph der Unparteilichkeit über die Ungleichbehandlung. Doch weit gefehlt. Statt der überlegenen Objektivität KI-basierter Entscheidungen das Wort zu reden, schreiben sie:
„Schon jetzt werden in vielen wichtigen Bereichen Algorithmen eingesetzt. Aber es ist unwahrscheinlich, dass Algorithmen in der abschließenden Phase wichtiger Entscheidungen die menschliche Urteilskraft ersetzen werden – und das ist unseres Erachtens eine gute Nachricht.“[27]
Diese Aussage gegen eine stärkere Einbeziehung von KI zur Vermeidung von Abweichungen durch Noise steht allerdings für sich allein, weitere Erklärungen erfolgen nicht. Warum aber ist es nach Ansicht der Autoren keine gute Idee, fehleranfällige menschliche Urteile durch KI zu ersetzen? Ein gewisses Unbehagen über das Optimieren kommt hier zum Vorschein. Woran liegt es? Was spricht eigentlich gegen Optimierung?
Der Mensch als selbstbewusstes, mit Mängeln behaftetes Wesen
Der an der Harvard-Universität lehrende US-amerikanische Philosoph Michael J. Sandel plädiert in seiner kritischen Auseinandersetzung mit den Verheißungen der Gentechnik zur Verbesserung der menschlichen Natur für den Menschen als selbstbewusstes, mit Mängeln behaftetes Wesen.[28] Sandel verweist auf Verantwortungsexplosionen (höhere gesellschaftliche Erwartungen) und Solidaritätsverluste als mögliche Gefahren einer technischen Beseitigung menschlicher Schwächen.[29] Die Anwendung von KI in der richterlichen Urteilsfindung lässt sich analog dazu ebenfalls als technische Optimierung verstehen. Diese Form der Optimierung steht im Widerspruch zu dem von Sandel postulierten Verständnis vom Menschen als selbstbewusstes, mit Mängeln behaftetes Wesen, das sich über seine Freiheit, Fehler zu machen, bestimmen lässt. Will man Willkür und Fehlerhaftigkeit bei der Urteilsfindung völlig ausschließen beziehungsweise minimieren, nimmt man der urteilenden Person die Freiheit, unvollkommen zu sein.[30] Doch nicht nur das. Nimmt man der urteilenden Person die Entscheidungskompetenz, sorgt man dafür, dass auch ihr Selbst- und Verantwortungsbewusstsein abnehmen. Ähnlich wie bei der genetischen Optimierung, mit der sich Sandel befasst, wirkt sich ein entsprechender Eingriff auf unser Verantwortungsbewusstsein aus. Der Unterschied: Die Biotechnologie führt zu Verantwortungsexplosionen und geistiger Überforderung des Individuums, die algorithmische Technik hingegen führt zu Verantwortungsabbau und Unterforderung des Menschen. Selbst wenn menschliche Urteile nicht vollkommen durch KI ersetzt werden und Algorithmen nur eine unterstützende Rolle spielen sollten, ist zu befürchten, dass die urteilende menschliche Person durch ihre veränderte Rolle im Entscheidungsgefüge in ihrer Selbsteinschätzung verunsichert wird. Im schlimmsten Fall kann der Einsatz der vermeintlich objektiven und fehlerfreien Technik dazu führen, dass die betreffende Person aus Angst von der eigenen Fehlerhaftigkeit auf die freie Ausübung ihrer Urteilskraft verzichtet und sich der vom Algorithmus vorgegebenen beziehungsweise empfohlenen Entscheidung unterwirft.[31]
Eine neue Furcht vor der Freiheit
Eine mögliche Folge dieses in psychologischer Hinsicht keineswegs unwahrscheinlichen Szenarios wäre eine neue Form der „Furcht vor der Freiheit“, wie sie der bekannte Sozialpsychologe Erich Fromm in seiner Analyse der Charakterstruktur des modernen Menschen diagnostiziert hat.[32] So habe sich der moderne Mensch zwar von den Fesseln der vorindividualistischen Gesellschaft befreit und einen Zustand „negativer Freiheit“ erlangt; er gerate jedoch „in eine neue Knechtschaft hinein“, weil diese „Freiheit von“ ihn verunsichere.[33] Konfrontiert mit dieser Unsicherheit böten sich ihm autoritäre und totalitäre Strukturen als Orientierungshilfen an.[34] Diese fatale Entwicklung lasse sich durch die Verwirklichung einer „positiven Freiheit“, das heißt einer „Freiheit zu“ vermeiden.[35] Die positive Freiheit könne der Mensch dadurch erreichen, „dass er sein Selbst verwirklicht, dass er er selbst ist“.[36] Das ist nach Fromm immer dann der Fall, wenn der Mensch spontan agiert und sowohl im emotionalen als auch im intellektuellen Bereich kreativ tätig ist:[37] „Die positive Freiheit besteht im spontanen Tätigsein (activity) der gesamten, integrierten Persönlichkeit“, so Fromm.[38] Notwendig sei für kreatives, schöpferisches Tätigsein, dass man die Persönlichkeit in ihrer Ganzheit akzeptiere und nicht zwischen „Vernunft“ und „Natur“ unterscheide.[39] Sei das nicht der Fall, hätten wir es mit der „Tätigkeit eines automatenhaften Konformisten [zu tun], der kritiklos Verhaltensmodelle übernimmt, die ihm von außen suggeriert werden“.[40]
Überlässt man die Aufgabe der Urteilsbildung der KI oder bezieht man sie bei der Entscheidungsfindung ein, hemmt man das schöpferische Tätigwerden des Menschen. Nicht nur die positive Freiheit der urteilenden Person wird eingeschränkt, vielmehr ist die Orientierung am vermeintlichen Ideal der KI geeignet, bei der betroffenen Person eine Furcht vor der Freiheit zu erzeugen, eine Furcht vor dem eigenen subjektiven Einsatz, der das Wesen eines Urteils ausmacht.[41] Etwas zugespitzt könnte man sagen: Empfand der moderne Mensch, nach der Diagnose Fromms, in erster Linie Furcht vor der „Freiheit von“, entwickelt der postmoderne Mensch unter den neuen technischen Bedingungen eine Furcht vor der „Freiheit zu“.
Menschliche Fehleranfälligkeit als Grundbedingung der Freiheit
Der Einsatz von KI im Rahmen der Rechtsprechung ist damit ein gutes Beispiel für die Risiken einer neuen Bestimmung der Beziehung von Mensch und Technik, die sich zulasten der Freiheit auswirkt. Einer derjenigen, die auf die Gefahren dieser auch in anderen Bereichen zu beobachtenden Entwicklung aufmerksam machen, ist der Philosoph Oliver Schlaudt.[42] Ihm zufolge ging man lange davon aus, dass der Mensch Herr seiner Werkzeuge sei.[43] Diese Sichtweise wird in der Technikphilosophie, wie Schlaudt zeigt, mittlerweile zunehmend angezweifelt, und zwar nicht erst mit Blick auf die Digitalisierung, sondern bereits für die Industrialisierung. Demnach beginnt im Maschinenzeitalter eine Umkehrung der Beziehung von Mensch und Maschine, was die Verteilung von Kraft, Herrschaft und Fähigkeiten betrifft:[44] Nicht der Mensch beherrsche weiterhin die Werkzeuge, sondern diese gewännen Stück für Stück die Oberhand über ihn.[45] Der moderne Mensch werde vor dem Hintergrund der maschinellen Perfektion und Allgegenwärtigkeit der Technik in der autonomen und kreativen Betätigung seiner intellektuellen Fähigkeiten zunehmend gebremst.[46] Schlaudt weist in diesem Zusammenhang auf Beobachtungen zum Umgang mit Technik hin, die der Ökonom und Sozialphilosoph Alfred Sohn-Rethel 1926 in der Stadt Neapel gemacht hat.[47] Sohn-Rethel schildert in seinen Texten die von Improvisationskunst gekennzeichnete Einstellung der Einwohner Neapels gegenüber der Technik: „Technische Vorrichtungen sind in Neapel grundsätzlich kaputt: nur ausnahmsweise und dank einem befremdlichen Zufall kommt auch Intaktes vor. Mit der Zeit gewinnt man den Eindruck, daß alles schon in kaputtem Zustande hergestellt werde.“[48] Gerade dieser kaputte Zustand ermögliche dem Menschen jedoch das Ausleben seiner Kreativität und Spontanität, die freie Entfaltung seines intellektuellen Potenzials und werde, so Sohn-Rethel, zum Ideal sui generis, dem „Ideal des Kaputten“. [49]
„Das Funktionieren [fängt] gerade erst da an, wo etwas kaputt ist. Er [der „Neapolitaner“] geht mit einem Motorboot aufs offene Meer, sogar bei heftigem Wind, in das wir kaum den Fuß zu setzen wagten. […] Wenn nötig, kocht er gleichzeitig auf der Maschine noch Kaffee. Oder es gelingt ihm, in unübertrefflicher Meisterschaft, sein defektes Auto durch das ungeahnte Anbringen eines kleinen Holzstücks, das sich von ungefähr auf der Straße findet, wieder in Gang zu bringen, – allerdings nur, bis es bald und mit Sicherheit wieder kaputt geht. Denn endgültige Reparaturen sind ihm ein Gräuel, da verzichtet er schon lieber auf das ganze Auto“.[50]
Überhört man einmal den stereotypisierend-romantisierenden Unterton der Beschreibung, wird der Umgang mit Technik in den Essays von Sohn-Rethel als erfinderisch und mutig beschrieben.[51] Der Steuermann eines Boots kocht auf dem immer heißer werdenden Motor Kaffee und der Kellner in einer Milchbar schlägt Schlagsahne mit der Hilfe eines alten zerfallenen Motorrads, an dem eine lange Gabel angebracht wurde.[52] Indem die defekte Technik ihre vormalige Mächtigkeit, ihre Autorität verliert, ermöglicht sie kreative Betätigung und menschliche Freiheit.[53] Damit ist nicht gemeint, dass intakte Technik und Freiheit grundsätzlich miteinander unvereinbar sind. Bedenkenswert an Sohn-Rethels „Ideal des Kaputten“ ist jedoch, dass schöpferisches Tätigwerden als „Freiheit zu“ möglich ist, wenn Technik in ihrer Autorität herabgesetzt wird. Diese Einsicht bleibt auch dann richtig, wenn man zugesteht, dass es in diesem Zusammenhang sinnvoller sein könnte, vom „Ideal des Unvollständigen“ zu sprechen. In den gegenwärtigen Debatten um KI und die damit verbundenen Verheißungen, menschliche Fehlerhaftigkeit auszuschließen, droht dieses Ideal, als Grundbedingung von Kreativität und Freiheit, aus dem Blick zu geraten.
Richterliches Tätigsein und die Furcht vor der Freiheit
Wenn von Kreativität und schöpferischem Tätigwerden die Rede ist, denken wir für gewöhnlich eher an künstlerische Arbeit und nicht an richterliche Tätigkeit. Auch Fromm erwähnt als Paradebeispiel von spontaner, das heißt kreativer Tätigkeit das Denken, Fühlen und Handeln von Künstlern.[54] Das künstlerische Denken ist „Ausdruck ihres Selbst und nicht Ausdruck eines Automaten“, schreibt er.[55] Doch auch die richterliche Tätigkeit ist keine automatenhafte Arbeitsverrichtung. Der Richter ist nicht, wie es Montesquieu noch im 18. Jahrhundert propagierte, „der Mund, der die Worte des Gesetzes spricht“ (la bouche, qui prononce les paroles de la loi). Diese Vorstellung der Richtertätigkeit ist längst überholt.[56] Der Gesetzgeber kann schlechterdings nicht jeden Sachverhalt erfassen und nicht alle möglichen Fälle derart vollständig und lückenlos normieren, dass eine Richterin nur noch Folgerungen aus dem Gesetz ableiten müsste.[57] Von der richtenden Person wird vor allem Gesetzesauslegung erwartet, und dort, wo Gesetzeslücken vorhanden sind, auch Rechtsfortbildung. Solche Tätigkeiten verlangen Intuition, Judiz und sogar Kreativität.[58]
Richter:innen stehen bei dem Vorgang der Subsumtion von dem Problem, wie das Allgemeine (das Gesetz) zum Einzelfall heruntergebrochen und angemessen auf ihn angewandt wird.[59] Oft ist in diesem Zusammenhang metaphorisch von einem Hin- und Herwandern des Blicks vom Allgemeinen zum Konkreten und zurück die Rede.[60] Damit soll zum Ausdruck kommen, dass sich die Bedeutung des Gesetzes und die Relevanz des konkreten Falles in einem Prozess wechselseitiger Anpassung gegenseitig bestimmen.[61] Dieser Vorgang ist kein bloßer Berechnungsvorgang, vielmehr sind hier Judiz, intuitives Denken und implizites Wissen vonnöten. Folgt man der in Dresden lehrenden Rechts- und Verfassungstheoretikerin Sabine Müller-Mall, dann verlangt die Rechtsanwendung vor allem ein juridisches Interpretationsverfahren.[62] Dieses Interpretationsverfahren sei derart anspruchsvoll, dass der Metapher des zwischen Einzelfall und Gesetz hin und her schwingenden Blicks die im Zuge der Urteilsbildung notwendige Interpretationsleistung nur unvollständig zum Ausdruck bringen könne: Es sei nicht allein der Blick, der wandert, es seien auch die Gegenstände der Deutung.[63] Die anspruchsvolle Deutungsaufgabe der richtenden Person veranschaulicht Müller-Mall, indem sie die Normdeutung bei der Urteilsbildung mit denjenigen Deutungen des Gesetzes vergleicht, die eine Rechtswissenschaftlerin bei einer Gesetzeskommentierung vornehmen muss. Während von der Rechtswissenschaftlerin erwartet werde, alle möglichen Interpretationen der gesetzlichen Normierung systematisch zusammenzufassen, müsse die richtende Person neben den möglichen Deutungen der Norm auch die verschiedenen Deutungen des Sachverhalts mitberücksichtigen sowie die Deutungen, die sich aus der Relation einer möglichen Deutung des Einzelfalles und einer möglichen Gesetzesinterpretation ergeben.[64] Ein derart komplexer Vorgang verlange Deutungswille, Vorstellungskraft und Findigkeit.
Auch für den Akt der Strafzumessung braucht es mehr als Logik und Vernunft.[65] Genauigkeit in dem Ausmaß, wie es Kahneman, Sibony und Sunstein verlangen,[66] ist in diesem Zusammenhang weder ein erreichbares noch ein erstrebenswertes Ideal. Von Hegel stammt das Zitat:
„Es läßt sich nicht vernünftig bestimmen noch durch die Anwendung einer aus dem Begriffe herkommenden Bestimmtheit entscheiden, ob für ein Vergehen eine Leibesstrafe von vierzig Streichen oder von vierzig weniger eins, noch ob eine Geldstrafe von fünf Talern oder aber auch von vier Talern und dreiundzwanzig usf. Groschen, noch ob eine Gefängnisstrafe von einem Jahre oder von dreihundertvierundsechszig usf. [Tagen] oder von einem Jahre und einem, zwei oder drei Tagen das Gerechte sei. Und doch ist schon ein Streich zuviel, ein Taler oder ein Groschen, eine Woche, ein Tag Gefängnis zuviel oder zuwenig eine Ungerechtigkeit.“[67]
Wenn Recht gesprochen wird, geht es nicht ohne Wertungen, Intuition und Judiz. Entscheidend ist allerdings, dass diese auf schlüssige Weise in eine nachvollziehbare Begründung einfließen.
Kommen wir zum Schluss noch einmal zurück zu der vorherigen, etwas zugespitzten These, dass der postmoderne Mensch unter den neuen technischen Bedingungen eine Furcht vor der „Freiheit zu“ entwickle. In Bezug auf Richterinnen und Richter ist dazu Folgendes zu sagen: Überträgt man die Aufgabe der Urteilsbildung einer KI oder bezieht man diese bei der Entscheidungsfindung ein, bremst man das schöpferische richterliche Tätigsein. So können Zweifel am eigenen Judiz und der eigenen Kompetenz zur Rechtsfortbildung entstehen. Mit Blick auf ein solches Szenario wäre zu wünschen, dass Algorithmen bei wichtigen juristischen Entscheidungen auch zukünftig die menschliche Urteilskraft nicht ersetzen.
Fußnoten
- Daniel Kahneman / Olivier Sibony / Cass R. Sunstein, Noise. Was unsere Entscheidungen verzerrt – und wie wir sie verbessern können, übers. von Thorsten Schmidt, 3. Aufl., München 2023, S. 89 (Originalausgabe: dies., Noise: A Flaw in Human Judgment, New York 2021).
- Der vorliegende Beitrag ist die überarbeitete Fassung eines Vortrags, den ich im Rahmen des von Axel T. Paul und Oliver Schlaudt veranstalteten interdisziplinären Kolloquiums Technik und Freiheit in Basel gehalten habe. Das Kolloquium fand vom 24.–26.10.2024 im Kontext des Forums Basiliense statt. Der Vortagsstil wurde beibehalten. Auf das Buch Noise hat mich Christoph Burchard aufmerksam gemacht, dem dafür an dieser Stelle herzlich gedankt sei. Dank gilt auch Bijan Fateh-Moghadam für den produktiven Gedankenaustausch zum Thema „Technik und Freiheit“ sowie Jochen Bung für wichtige Hinweise.
- Ebd., S. 11.
- Ebd., S. 9 f.
- Ebd., S. 9 ff.
- Ebd., S. 12.
- Ebd., S. 11 f.
- Ebd., S. 82 f.
- Johannes Kaspar, Sentencing Guidelines statt freies tatrichterliches Ermessen – Brauchen wir ein neues Strafzumessungsrecht?, in: Verhandlungen des 72. Deutschen Juristentages Leipzig 2018, Bd. 1: Gutachten, Teil C, hrsg. von der Ständigen Deputation des Deutschen Juristentages, München 2018.
- Ebd., C 18.
- Ebd., C 20.
- Ebd.
- Siehe etwa Frauke Rostalski / Malte Völkening, Smart Sentencing. Ein neuer Ansatz für Transparenz richterlicher Strafzumessungsentscheidungen, in: Kriminalpolitische Zeitschrift 4 (2019), 5, S. 265–273, hier S. 265. Als Problem der Ungerechtigkeit wird das Thema auch von Kahneman, Sibony und Sunstein erfasst: dies, Noise, S. 392.
- Rostalski / Völkening, Smart Sentencing, S. 265 f.; Johannes Kaspar, Digitalisierung als Chance für die Strafzumessung?, in: Kriminalpolitische Zeitschrift 8 (2023), 1, S. 1–7, hier S. 6; Johannes Kaspar / Katrin Höffler / Stefan Harrendorf, Datenbanken, Online-Votings und künstliche Intelligenz – Perspektiven evidenzbasierter Strafzumessung im Zeitalter von „Legal Tech“, in: Neue Kriminalpolitik 32 (2020), 1, S. 35–56, hier S. 50 ff.
- Kahnemann/Sibony/Sunstein, Noise, S. 410.
- Vgl. ebd., S. 389 ff. u. S. 410.
- Vgl. Hannah Ofterdinger, Strafzumessung durch Algorithmen?, in: Zeitschrift für Internationale Strafrechtsdogmatik 15 (2020), 9, S. 404–410, hier S. 404 ff.; Kaspar, Digitalisierung als Chance für die Strafzumessung?, S. 1 ff.; allgemein dazu Lucia M. Sommerer, Personenbezogenes Predictive Policing. Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose, Baden-Baden 2020, S. 174 ff.
- Dazu mit Blick auf den Einsatz von KI im Strafverfahren Janique Brüning, Big Data und Künstliche Intelligenz im Strafverfahren, in: Carsten Kusche / Georgia Stefanopoulou (Hg.), Digitalisierung als total social fact der Kriminalwissenschaften, Baden-Baden 2024, S. 133–152, hier S. 147.
- Christoph Burchard, Künstliche Intelligenz als Ende des Strafrechts? Zur algorithmischen Transformation der Gesellschaft (= Normative Orders Working Paper 02/2019), S. 22; Tobias Singelnstein, Predictive Policing. Algorithmenbasierte Straftatprognosen zur vorausschauenden Kriminalintervention, in: Neue Zeitschrift für Strafrecht 38 (2018), 1, S. 1–9, hier S. 6; Steffen Mau, Das metrische Wir. Über die Quantifizierung des Sozialen, 3. Aufl., Berlin 2018, S. 134.
- Burchard, Künstliche Intelligenz als Ende des Strafrechts?, S. 15 ff. u. S. 22 f.; Mau, Das metrische Wir, S. 134.
- Burchard, Künstliche Intelligenz als Ende des Strafrechts?, S. 22 f.
- Ebd.
- Vgl. Kahnemann/Sibony/Sunstein, Noise, S. 389, die allerdings den positiven Aspekt der Noise-Beseitigung an dieser Stelle hervorheben: „Regeln können in vielfältiger Weise Voreingenommenheiten reproduzieren. Eine Regel mag Frauen verbieten, Polizistinnen zu werden. Eine andere sagt vielleicht, dass Iren sich nicht bewerben dürfen. Aber selbst wenn Regeln stark voreingenommen sind, führen sie zu einer deutlichen Verringerung von Noise (wenn sich jeder an sie hält).“
- Zum Einzelfallcharakter des strafzumessungsrechtlichen Vorgangs siehe Kim Philip Linoh, Begründungsprobleme der Strafzumessung, in: Zeitschrift für Internationale Strafrechtswissenschaft 3 (2024), S. 408–417, hier S. 410 f.
- Kahnemann/Sibony/Sunstein, Noise, S. 410.
- Ebd.
- Ebd.
- Michael J. Sandel, Plädoyer gegen die Perfektion. Ethik im Zeitalter der genetischen Technik, übers. von Rudolf Teuwsen, Berlin 2008.
- Ebd., S. 107 ff.
- „Die Unvollkommenheit“, meint Jochen Bung in einem unlängst erschienenen Beitrag zur Willkür, „könnte die wahre Vollkommenheit der Freiheit sein“. Jochen Bung, Zum Begriff der Willkür, in: Neue Strafrechtswissenschaft 1 (2024), 2, S. 121–137, hier S. 127.
- Vgl. Luís Greco, Richterliche Macht ohne richterliche Verantwortung. Warum es den Roboter-Richter nicht geben darf, in: Rechtswissenschaft 11 (2020), 1, S. 29–62, hier S. 61.
- Erich Fromm, Die Furcht vor der Freiheit [1945], übers. von Liselotte Mickel und Ernst Mickel, 27. Aufl., München 2022 (Originalausgabe: ders., Escape from Freedom, New York u.a. 1941).
- Ebd., S. 185 f.
- Ebd.
- Ebd., S. 33 u. S. 187.
- Ebd. S. 186.
- Ebd., S. 187.
- Ebd.
- Ebd.
- Ebd.
- Vgl. Sabine Müller-Mall, Freiheit und Kalkül. Die Politik der Algorithmen, Ditzingen 2020, S. 52.
- Oliver Schlaudt, Das Technozän. Eine Einführung in die evolutionäre Technikphilosophie, Frankfurt am Main 2022, S. 193.
- Ebd., S. 192.
- Ebd., S. 193.
- Ebd.
- Ebd., S. 197.
- Ebd., S. 202; Alfred Sohn-Rethel, Das Ideal des Kaputten, hrsg. und mit einem Nachwort vers. von Carl Freytag, Wien 2018, S. 41 ff.
- Sohn-Rethel, Das Ideal des Kaputten, S. 41.
- Schlaudt, Das Technozän, S. 201 ff.; Sohn-Rethel, Das Ideal des Kaputten, S. 42 u. S. 44.
- Sohn-Rethel, Das Ideal des Kaputten, S. 42.
- Vgl. Schlaudt, Das Technozän, S. 202.
- Sohn-Rethel, Das Ideal des Kaputten, S. 20.
- Schlaudt, Das Technozän, S. 202.
- Fromm, Die Furcht vor der Freiheit, S. 187.
- Ebd.
- Ingeborg Puppe, Feststellen, zuschreiben, werten: semantische Überlegungen zur Begründung von Strafurteilen und deren revisionsrechtlicher Überprüfbarkeit, in: Neue Zeitschrift für Strafrecht 32 (2012), 8, S. 409–414, hier S. 409.
- Ebd.
- Vgl. Greco, Richterliche Macht ohne richterliche Verantwortung, S. 38, der allerdings meint, dass KI Wertungen, Intuitionen und Judiz erlernen könne. Sie sei nicht zwingend der richterlichen Person unterlegen.
- Bung, Zum Begriff der Willkür, S. 134, der zu Recht auch anmerkt, dass das Problem sich auch für die Rechtsfolgenseite der Norm stellt, da Tatbestand und Rechtsfolge aufeinander bezogen sein müssen (Fn. 64 auf S. 134).
- Karl Engisch, Logische Studien zur Gesetzesanwendung, 2. Aufl., Heidelberg 1960, S. 15; siehe dazu auch Bung, Zum Begriff der Willkür, S. 135. Bung weist auch darauf hin, dass bereits Hegel den Vorgang der Rechtsanwendung als „Hin und Hergehen“ zwischen Gesetz und Einzelfall beschreibt. Für Müller-Mall bringt die Formel vom Hin- und Herwandern des Blickes zwischen Sachverhalt und Gesetz nicht vollständig das Interpretationsverfahren zum Ausdruck, das die Rechtsanwendung voraussetzt: “Nicht allein der Blick wandert, auch die Gegenstände der Deutung.“ Sabine Müller-Mall, Verfassende Urteile. Eine Theorie des Rechts, Berlin 2023, S. 160.
- Bung, Zum Begriff der Willkür, S. 135.
- Sabine Müller-Mall, Verfassende Urteile. Eine Theorie des Rechts, S. 160.
- Ebd., S. 160; siehe dazu auch Bung, Zum Begriff der Willkür, S. 135.
- Müller-Mall, Verfassende Urteile, S. 160.
- Bung, Zum Begriff der Willkür, S. 135 f.
- Kahneman/Sibony/Sunstein, Noise, S. 410.
- Georg Wilhelm Friedrich Hegel, Werke, Bd. 7: Grundlinien der Philosophie des Rechts oder Naturrecht und Staatswissenschaft im Grundrisse [1820], hrsg. von Eva Moldenhauer und Karl Markus Michel, 14. Aufl., Frankfurt am Main 2015, S. 366 f. (§ 214). Der Verweis auf das Zitat findet sich bei Bung, Zum Begriff der Willkür, S. 135.
Dieser Beitrag wurde redaktionell betreut von Karsten Malowitz.
Kategorien: Affekte / Emotionen Daten / Datenverarbeitung Digitalisierung Gesellschaft Normen / Regeln / Konventionen Recht Technik Wissenschaft
Empfehlungen
Maschinen wie wir
Rezension zu „Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co“ von Catrin Misselhorn
Zur Aufklärung über Kategorisierungen und Klassifikationen
Literaturessay zur Soziologie des Bewertens