Justiz und Algorithmen: Über die Schwächen menschlicher Entscheidungsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung [1 ed.] 9783428581061, 9783428181063

Richterliche Rechtsfindung ist fehleranfällig. Was unspektakulär klingt, belegen neuere empirische Daten eindrucksvoll.

115 78 3MB

German Pages 534 Year 2021

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Justiz und Algorithmen: Über die Schwächen menschlicher Entscheidungsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung [1 ed.]
 9783428581061, 9783428181063

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Internetrecht und Digitale Gesellschaft Band 25

Justiz und Algorithmen Über die Schwächen menschlicher Entscheidungsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung

Von

David Nink

Duncker & Humblot · Berlin

DAVID NINK

Justiz und Algorithmen

Internetrecht und Digitale Gesellschaft Herausgegeben von

Dirk Heckmann

Band 25

Justiz und Algorithmen Über die Schwächen menschlicher Entscheidungsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung

Von

David Nink

Duncker & Humblot · Berlin

Gedruckt mit Unterstützung des Förderungsfonds Wissenschaft der VG WORT. Die Rechtswissenschaftliche Fakultät der Deutschen Universität für Verwaltungswissenschaften Speyer hat diese Arbeit im Jahr 2020 als Dissertation angenommen.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte vorbehalten

© 2021 Duncker & Humblot GmbH, Berlin Druck: CPI buchbücher.de GmbH, Birkach Printed in Germany ISSN 2363-5479 ISBN 978-3-428-18106-3 (Print) ISBN 978-3-428-58106-1 (E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706 Internet: http://www.duncker-humblot.de

Vorwort Die richterliche Rechtsfindung ist – wie jede menschliche Entscheidungs­ findung – nicht fehlerfrei. Was als Binsenweisheit erscheint, belegen empi­ rische Daten aus der jüngeren Forschung eindrucksvoll. Durch Denkfehler und andere Rationalitätsschwächen kann es zu Verzerrungen und Ungleich­ behandlungen, jedenfalls aber dazu kommen, dass sachfremde, „außerrecht­ liche“ Aspekte in gerichtliche Entscheidungen einfließen. Trotz fundierter Ausbildung und Expertenstatus sind auch Richterinnen und Richter anfällig für Rationalitätsschwächen. Um deren Einfluss abzusenken, sind verschie­ dene Wege denkbar: Neben Ergänzungen der juristischen Aus- und Weiter­ bildung kommt auch der Einsatz neuer Technologien in Betracht. Wenngleich es verschiedene Arten von Rationalität gibt, lautet die zentrale Frage der Untersuchung: Können algorithmenbasierte Entscheidungs- oder Entschei­ dungsunterstützungssysteme dazu beitragen, dass gerichtliche Entscheidun­ gen „rationaler“ werden? Überlegungen zur Automatisierung im Recht sind nicht neu. Aufgrund neuer technischer Möglichkeiten (Stichworte: Big Data, Deep Learning) und einem besseren Verständnis der menschlichen Entscheidungsfindung kann es aber sinnvoll und gewinnbringend sein, sie neu zu denken. Anders als etwa im Bereich der Verwaltung (Stichwort: E-Government) oder der Rechtsbera­ tung (Stichwort: Legal Tech) sollen im vorliegenden Werk also nicht Büro­ kratieabbau, Zugang zum Recht oder Effizienzgesichtspunkte im Vordergrund stehen, sondern die Möglichkeiten, Hürden und Grenzen des Einsatzes neuer Technologien in der Justiz gerade vor dem Hintergrund menschlicher Ratio­ nalitätsschwächen ausgeleuchtet werden. Diese Themenblöcke in einer Dis­ sertation zusammenzubringen, war gleichsam Ziel, Reiz und Herausforderung. Auch jenseits der richterlichen Entscheidungsfindung im engeren Sinne: Dass die Justiz praktischen Nutzen aus der Digitalisierung ziehen und sich digitalen Lösungen und Neuerungen nicht verschließen kann und wird, ha­ ben nicht zuletzt die Umwälzungen der COVID-19- bzw. „Corona-Pandemie“ 2020 gezeigt. Die Arbeit wurde im Juli 2019 an der Deutschen Universität für Verwal­ tungswissenschaften Speyer als Dissertation eingereicht und im Mai 2020 verteidigt. Literatur und Rechtsprechung befinden sich grundsätzlich auf dem Stand von Juli 2019; einzelne jüngere Veröffentlichungen und Entscheidun­ gen wurden noch berücksichtigt bis Mai 2020.

6 Vorwort

Für den erfolgreichen Abschluss des Werks bin ich zuvorderst meinem Doktorvater Prof. Dr. Mario Martini zu großem Dank verpflichtet. Mit der Freiheit, die er mir für mein Promotionsvorhaben, aber auch in meiner Tätig­ keit im Programmbereich Digitalisierung am Deutschen Forschungsinstitut für öffentliche Verwaltung gewährt hat, hat er die Arbeit ermöglicht und ge­ fördert. Er ermutigte mich – in guter Tradition der Universität Speyer – zur wissenschaftlichen Neugier und zum breiten Themenzuschnitt einer nicht „rein juristischen“ Perspektive. Herzlicher Dank gilt auch Prof. Dr. Margrit Seckelmann für die sehr zü­ gige Erstellung des Zweitgutachtens und ihre konstruktiven Anmerkungen und Anregungen. Gedruckt wurde die Arbeit mit Unterstützung der Förderungsfonds Wis­ senschaft der VG Wort GmbH, der ich ebenfalls meine Dankbarkeit ausspre­ che. In guter Erinnerung bleiben wird mir besonders das kollegiale Miteinander und der rege wissenschaftliche Austausch im Programmbereich Digitalisie­ rung und am Lehrstuhl. Beides war mir stets Freude und Motivation. Ich bedanke mich dafür herzlich bei meinen ehemaligen Kolleginnen und Kol­ legen, stellvertretend und besonders bei Jonathan Hain, Thomas Kienle, ­Michael Kolain, Jan Mysegades, Tobias Rehorst und Dr. Michael Wenzel sowie bei Beate Bukowski. Besonders herzlicher Dank gebührt daneben vor allem meiner Familie: meiner Frau Sonja insbesondere für ihre unermüdliche Geduld, ihre Ruhe und den steten Zuspruch, sowie meinen Eltern und Geschwistern für die fortwährende Unterstützung. Ihnen ist die Arbeit gewidmet. Frankfurt am Main, im August 2020

David Nink

Inhaltsverzeichnis Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I. Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. Ziel der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. Gang der Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19 19 24 26

Erster Teil

Status quo richterlicher Entscheidungsfindung  

I. Problemaufriss – Menschliche Entscheidungen und die Fehleranfälligkeit juristischer Entscheidungsträger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Zustandekommen menschlicher Entscheidungen – Struktur des Ent­ scheidungsprozesses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Phasenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Entscheidung als (objektive) Informationsverarbeitung? . . . . . . . . . . . c) Flexible Rationalität? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Unvollständige Informationslage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e) Die Diskussion um den freien Willen . . . . . . . . . . . . . . . . . . . . . . . . . . f) Heuristiken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . g) Erkenntnistheorie und Fallibilismus . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Die Subsumtion als Bestandteil juristischer Entscheidungsfindung . . . . . 3. Gefühle, Emotionen und das Recht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Begriffe und Hintergrund  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Wie sich Emotionen auf Entscheidungen auswirken . . . . . . . . . . . . . . aa) Befund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Phänomenologie und normative Einhegung . . . . . . . . . . . . . . . . . cc) Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Denkfehler, Rationalitätsschwächen und weitere rechtsfremde ­Einflüsse – Beispiele und Studien (Auswahl) . . . . . . . . . . . . . . . . . . . . . . a) Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Implizite Assoziationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Priming und Framing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Ankereffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Einführung  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Empirischer Nachweis und konkrete Auswirkungen . . . . . . . . . . . cc) Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

28

28 29 30 31 32 32 33 35 37 37 40 40 41 41 42 44 45 45 47 50 53 53 54 58

8 Inhaltsverzeichnis e) „Peak-End-Regel“-Verzerrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Einführung  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Empirischer Nachweis und konkrete Auswirkungen . . . . . . . . . . . cc) Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . f) Rückschaufehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . g) Confirmation Bias (Bestätigungsfehler) . . . . . . . . . . . . . . . . . . . . . . . . aa) Einführung  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Auswirkungen und Folgen  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . h) Einfluss außergerichtlicher Meinungen, Ansichten und Ereignisse . . . aa) Einfluss der öffentlichen Meinung – Beispiel BVerfG . . . . . . . . . (1) Empirische Nachweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Aussagekraft und Erklärungsansätze  . . . . . . . . . . . . . . . . . . . (3) Parteinähe der Bundesverfassungsrichter . . . . . . . . . . . . . . . . (4) Exkurs: Vorhersage obergerichtlicher Entscheidungen . . . . . . bb) Einfluss der Medien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . cc) Einfluss von Sportereignissen auf gerichtliche Entscheidungen . . dd) Schlafmangel und der Einfluss der Zeitumstellung . . . . . . . . . . . . ee) Geburtstag des Angeklagten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ff) Hungrige Richter, härtere Urteile? . . . . . . . . . . . . . . . . . . . . . . . . . (1) Empirischer Nachweis – Bewährungsentscheidungen ­israelischer Richter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Kritik: Begrenzte Aussagekraft der Studie . . . . . . . . . . . . . . . (3) Resümee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

59 59 60 61 61 63 63 65 66 66 67 68 70 71 71 72 73 73 74

II. Rechtsprechung und Diskriminierungspotenzial . . . . . . . . . . . . . . . . . . . . . . . . 1. Normative Anknüpfungspunkte möglicher Diskriminierungen . . . . . . . . . 2. (Selbst-)Verständnis der richterlichen Tätigkeit . . . . . . . . . . . . . . . . . . . . . 3. Schwächen in der „Quantität der Sachverhaltsanalyse“?  . . . . . . . . . . . . . 4. Rationalität in der Beweiswürdigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Allgemeine Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Problem inkorrekter Zeugenaussagen . . . . . . . . . . . . . . . . . . . . . . . . . . 5. „Verborgene“ Strafzumessung als Diskriminierungsrisiko?  . . . . . . . . . . . a) Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Unterschiedliche Strafzumessungspraxis je nach Region bzw.. . . . . . . Gerichtsbezirk  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Beispiel Ungleichbehandlung aufgrund der Ethnie . . . . . . . . . . . . . . . . d) Beispiel Ungleichbehandlung aufgrund des Geschlechts . . . . . . . . . . . 6. Empirie strafrechtlicher Fehlurteile in Deutschland? . . . . . . . . . . . . . . . . .

76 77 77 79 80 80 82 83 83

III. Vorgaben an die richterliche Rechtsfindung . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Rechtstheoretischer Unterbau  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Rechtspositivismus und Prinzipientheorie . . . . . . . . . . . . . . . . . . . . . . . b) Eingeschränkte praktische Bedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . c) Konsenstheoretische Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Subjektiv richtige Entscheidungen  . . . . . . . . . . . . . . . . . . . . . . . . . . . .

94 95 95 98 100 101

74 75 75

84 86 89 91

Inhaltsverzeichnis9 2. Die richterliche Unabhängigkeit als Basis (Überblick) . . . . . . . . . . . . . . . 102 a) Sachliche Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 b) Persönliche Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 c) Innere Unabhängigkeit? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 aa) Herleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 bb) Gerechtigkeit und richterliche Ethik?  . . . . . . . . . . . . . . . . . . . . . . 105 (1) Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 (2) Konkretisierung im DRiG . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3. Was das Recht vom Richter fordert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 a) Die Gesetzesbindung als Legitimierung und „Disziplinierung“ . . . . . . 109 aa) Grundsätze  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 bb) Sonderfall „Richterrecht“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 (1) Verfassungsrechtliche Zulässigkeit . . . . . . . . . . . . . . . . . . . . . 110 (2) Erscheinungsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 (3) Pflicht zur Rechtsfortbildung? . . . . . . . . . . . . . . . . . . . . . . . . 112 b) Konkrete Vorgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 aa) Kein Verstoß gegen Prozessrecht . . . . . . . . . . . . . . . . . . . . . . . . . . 113 bb) Im Rahmen des Prozessrechts: Entscheidung, die materiellrechtlich der objektiven Rechtslage entspricht . . . . . . . . . . . . . . . 114 cc) Auslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 (1) Auslegungsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 (2) Diskriminierungsverbot und Gleichheitsgrundsatz . . . . . . . . . 118 (a) Spezielles Diskriminierungsverbot – keine Anknüpfung an irrelevante Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . . 118 (b) Rechtsanwendungsgleichheit . . . . . . . . . . . . . . . . . . . . . . 118 (3) Rechtssicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 dd) Gegebenenfalls: Vorlagepflichten . . . . . . . . . . . . . . . . . . . . . . . . . . 121 ee) Nachvollziehbare Begründung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 (1) Normativer Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 (2) Inhaltliche Anforderungen: Widerspruchsfreiheit, V­ollständigkeit, Kohärenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 (3) Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 (a) Zivilprozessuales Urteil . . . . . . . . . . . . . . . . . . . . . . . . . . 126 (b) Strafrechtliches Urteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 c) Kodifizierte äußere Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 aa) Rechtsbeugung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 bb) Ausschluss und Ablehnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 4. Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 IV. Strategien gegen Rationalitätsschwächen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Betroffene Entscheidungsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Zielbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Erforschung der juristischen Entscheidungsfindung in Deutschland ausbauen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

130 130 130 131

10 Inhaltsverzeichnis 4. Abhilfe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 a) „Debiasing“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 b) Juristische Aus- und Weiterbildung, Organisation und Ausgestaltung richterlicher Tätigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 V. Fazit des ersten Teils (B) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 1. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 2. Ausblick: Rationalisierung und Automatisierung als Lösung? . . . . . . . . . 138 Zweiter Teil

Neue Technologien in der richterlichen Entscheidungsfindung – Zu den Grenzen eines „Smart Judging“ 

I. Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Vorabüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Begriffe, Entwicklungen, Auswirkungen . . . . . . . . . . . . . . . . . . . . . . . . . . a) Begriffe und Einordnung in den juristischen Kontext . . . . . . . . . . . . . aa) Algorithmus  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Expertensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . cc) Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . dd) Künstliche Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (1) Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Maschinelles Lernen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (3) Künstliche neuronale Netze . . . . . . . . . . . . . . . . . . . . . . . . . . (4) Statische und dynamische Systeme  . . . . . . . . . . . . . . . . . . . . ee) Neue Technologien und Automatisierung . . . . . . . . . . . . . . . . . . . ff) Entscheidungsunterstützungssystem . . . . . . . . . . . . . . . . . . . . . . . . gg) Autonome Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Bisherige Automatisierungsbeispiele und aktuelle Entwicklungen  . . . aa) Beispiele im hoheitlichen Einsatz (allgemein) . . . . . . . . . . . . . . . . (1) Besteuerungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Allgemeines und Sozialverwaltungsverfahrensrecht . . . . . . . (3) Zivilgerichtliches Mahnverfahren . . . . . . . . . . . . . . . . . . . . . . (4) Ordnungswidrigkeitenrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) „Legal Tech“ und Beispiele aus der Rechtsberatung . . . . . . . . . . . cc) Aktuelle Entwicklungen im Kernbereich der Justiz . . . . . . . . . . . (1) Elektronische Kommunikation und Aktenführung . . . . . . . . . (2) Strukturierung und Beweisführung . . . . . . . . . . . . . . . . . . . . . (3) Zwischenfazit und Ausblick  . . . . . . . . . . . . . . . . . . . . . . . . . . c) (Mögliche) Auswirkungen der Digitalisierung auf die juristische Arbeit insgesamt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

139 139 139 143 143 143 144 145 146 146 147 149 149 150 151 151 152 153 153 155 156 157 158 161 162 163 164 165

II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme . . . . . . . 167 1. Diskriminierungspotenzial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

Inhaltsverzeichnis11 2. Korrelation und Kausalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Reduzierung auf die Vergangenheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Algorithmen als Projektion der Werteinstellungen ihrer Schöpfer . . . . . . a) Machine Bias und Verfestigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) „Rationalisierung der Rationalitätsschwächen“ . . . . . . . . . . . . . . . . . . . c) Gefahr unzulässiger Rückschlüsse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

168 170 172 172 173 174 176

III. Technische Hürden einer automatisierten Rechtsfindung . . . . . . . . . . . . . . . . . 177 1. Vorab: Keine Vollautomation gerichtlicher Verfahren einschließlich Sachverhaltsermittlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 a) Sachverhaltsaufklärung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 b) Informationslücken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 c) „Harte“ und „weiche“ Fakten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 d) Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 2. Ermessen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 a) Ausgangslage: Grundsätzliches zum Ermessensbegriff . . . . . . . . . . . . 181 aa) Ermessen im Verwaltungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . 181 bb) Ermessen in der Rechtsprechung . . . . . . . . . . . . . . . . . . . . . . . . . . 182 (1) „Verfahrensermessen“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 (2) Rechtsfolgenauswahl – das materielle Entscheidungs­ ermessen des Richters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 b) Grenzen der Automation im Verwaltungsrecht – § 35a VwVfG und Parallelnormen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 c) Über die mögliche Parallele zwischen Verwaltungsverfahren und Gerichtsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 aa) Automatisierung durch Verwaltungsvorschriften? . . . . . . . . . . . . . 188 bb) Automatisierung und der Untersuchungsgrundsatz im Verwal­ tungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 cc) Begrenzte Vergleichbarkeit von Verwaltungsverfahren und richterlichen Entscheidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 (1) Schematisierung in der Rechtsprechung? . . . . . . . . . . . . . . . . 191 (2) Der „Regelfall“ vor Gericht? . . . . . . . . . . . . . . . . . . . . . . . . . 192 d) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 3. Einzelfälle und Ausnahmen – Individualgerechtigkeit  . . . . . . . . . . . . . . . 196 a) Automatisierung und Einzelfallgerechtigkeit – ein Widerspruch? . . . . 197 b) Menschliche versus maschinelle Entscheidung . . . . . . . . . . . . . . . . . . . 199 aa) Chancen – Was Technik kann . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 bb) Risiken – Was Technik nicht kann . . . . . . . . . . . . . . . . . . . . . . . . . 201 (1) Grundsätzliches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 (2) Statische Entscheidungsfindung – rein regelbasierte ­Systeme   . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 (3) Dynamische Entscheidungsfindung – lernende Systeme und Künstliche Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

12 Inhaltsverzeichnis cc) Maßstab der Zielbestimmung – Vorgaben an die gerichtliche Entscheidungsfindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 c) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 4. Automatisierung und Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 a) Zum Sprachverständnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 b) Natürliche und formale Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 aa) Einführung – Formalisierung der Rechtssprache? . . . . . . . . . . . . . 210 bb) Unbestimmte Rechtsbegriffe und Generalklauseln . . . . . . . . . . . . 213 cc) Herangehensweise und Kontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . 214 c) Möglichkeiten der Fuzzy-Logik  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 d) Semantik und Syntax – rechtstheoretische Überlegungen . . . . . . . . . . 217 e) Widerspruchsfreiheit  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 5. Wertungen und Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 a) Bewertungen als Teil der Informationsverarbeitung – Wertung und Realität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 b) Wertungen und Filter als Teil des Rechtsfindungsprozesses . . . . . . . . 224 c) Wertungen bis ins Detail? – Strukturelle Grenzen . . . . . . . . . . . . . . . . 225 6. Auslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 7. Die Begründung juristischer Entscheidungen . . . . . . . . . . . . . . . . . . . . . . 228 8. Automatisiertes Richterrecht? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 9. Judiz  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 a) Empathie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 aa) Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 bb) Maschinen und Empathie? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 cc) Empathie in der Rechtsfindung . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 dd) Empathie als unverzichtbarer Bestandteil? . . . . . . . . . . . . . . . . . . 235 b) Kreativität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 c) Ethik der Algorithmen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 d) Das Judiz im engeren Sinne, Intuition und emotionale Kompetenz . . 238 10. Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 a) Wo Maschinen im Vorteil sind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 b) Maschinentheoretische Hürde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 c) Fehler maschineller Entscheidungsfindung . . . . . . . . . . . . . . . . . . . . . . 241 d) Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 IV. Unionsrechtliche Vorgabenzur Automatisierung gerichtlicher Entscheidungen (Überblick) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Datenschutzrechtliche Vorgaben der Datenschutz-Grundverordnung . . . . a) Anwendungsbereich der DSGVO in gerichtlichen Verfahren . . . . . . . aa) Grundsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Sonderfall Strafprozess – Anwendungsbereich der RL (EU) . . . . 2018/680 („JI-RL“) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Rechtsgrundlage der Datenverarbeitung als solcher nach der ­DSGVO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

245 246 246 246 247 249

Inhaltsverzeichnis13 c) Automatisierte Entscheidungen und Profiling (Art. 22 DSGVO) . . . . aa) Grundsatz – Verbot bestimmter vollautomatisierter Entschei­ dungen (Art. 22 Abs. 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Ausnahmen (Art. 22 Abs. 2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (1) Ausdrückliche freiwillige Einwilligung (Abs. 2 lit. c) . . . . . . (2) Öffnungsklausel (Abs. 2 lit. b) . . . . . . . . . . . . . . . . . . . . . . . . cc) Weitere Vorgaben der DSGVO (Auswahl)  . . . . . . . . . . . . . . . . . . (1) Informationen und Auskunft . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Algorithmische Ethik am Beispiel des Rechts auf Erläute­ rung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (3) Datenminimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Datenschutzrechtliche Vorgaben der JI-RL für das Strafverfahren . . . . . . 3. Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

250 250 251 252 253 255 255 256 257 258 259 260

V. Verfassungsrechtliche Direktiven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 1. Art. 92 Hs. 1 GG und die Frage, ob eine Maschine „Richter“ sein kann . 261 a) Die Anknüpfungspunkte in Art. 92 Hs. 1 GG . . . . . . . . . . . . . . . . . . . . 262 aa) Der Begriff der „rechtsprechenden Gewalt“ . . . . . . . . . . . . . . . . . 262 (1) Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262 (2) Rechtsprechungsbegriff des BVerfG . . . . . . . . . . . . . . . . . . . . 263 (3) Zwischenfazit: Wer ist „Richter“? . . . . . . . . . . . . . . . . . . . . . 265 bb) Der Richter und die Anvertrauens-Formel in Art. 92 Hs. 1 GG . . 265 b) Wortlaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 c) Historie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 d) Systematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 aa) Der Richterbegriff im Verfassungsgefüge  . . . . . . . . . . . . . . . . . . . 270 (1) Richterernennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 (2) Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 bb) Ergebnisrationalität und Vorgangswert . . . . . . . . . . . . . . . . . . . . . . 271 e) Telos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 aa) Unterbau – Gewaltenteilung und Rechtsprechungsmonopol . . . . . 272 (1) Recht auf eine richterliche Tatsacheninstanz . . . . . . . . . . . . . 273 (2) Gefahr der „Privatisierung“ durch IT-Systeme privat­ wirtschaftlicher Unternehmen . . . . . . . . . . . . . . . . . . . . . . . . . 274 (3) Zwischenresümee  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 bb) Sinn und Zweck – Kompetenzen . . . . . . . . . . . . . . . . . . . . . . . . . . 276 (1) Der rechtsgelehrte Richter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 (2) Rechtsgelehrte informationstechnische Systeme? . . . . . . . . . 280 cc) Strukturelle Grenzen der Automatisierung – hypothetisch: Maschine erreicht Kompetenz des menschlichen Richters . . . . . . 281 f) Konkretisierungen im DRiG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 g) Landesrecht  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284

14 Inhaltsverzeichnis

2.

3.

4.

5.

6. 7.

8.

aa) Terminologie in den Landesverfassungen . . . . . . . . . . . . . . . . . . . bb) Einfachgesetzliches Landesrecht . . . . . . . . . . . . . . . . . . . . . . . . . . h) Richter und Ewigkeitsgarantie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (Teil-)Automatisierung und richterliche Unabhängigkeit, Art. 97 Abs. 1 GG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Problemstellung – Algorithmen und die sachliche Unabhängigkeit . . . b) Beispiel Metadaten in der Justiz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Rückschluss auf die Grenzen eines IT-Einsatzes . . . . . . . . . . . . . . . . . aa) Parallelen zur Dienstaufsicht  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Überlegungen zur praktischen Ausgestaltung  . . . . . . . . . . . . . . . . cc) Grenzen des Einsatzes entscheidungsunterstützender Systeme . . . (1) „Automation Bias“ und das Risiko der faktischen ­Bindungswirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Schlussfolgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gesetzlicher Richter, Art. 101 Abs. 1 S. 2 GG . . . . . . . . . . . . . . . . . . . . . . a) Begriff und Grundsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Exkurs: Gesetzlicher Richter und Privatautonomie . . . . . . . . . . . . . . . c) Bedeutung des Art. 101 Abs. 1 S. 2 GG für den Algorithmeneinsatz in der Justiz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) . . . . . . . . . . . . . . . a) Inhalt und Umfang des Anspruchs . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Bedeutung und Rückschluss auf Algorithmeneinsatz in der Justiz . . . aa) Verbot der vollständigen (Verfahrens-)Automatisierung . . . . . . . . bb) Kein Verbot entscheidungsunterstützender Algorithmen  . . . . . . . (1) Anleihen in den Prozessordnungen . . . . . . . . . . . . . . . . . . . . . (2) Rechtliches Gehör und das Problem drohender ­„Übernahmeautomatismen“ . . . . . . . . . . . . . . . . . . . . . . . . . . . Grundrecht auf effektiven Rechtsschutz (Art. 19 Abs. 4 GG) . . . . . . . . . . a) Rechtscharakter und grundsätzliche Bedeutung des Art. 19 Abs. 4 GG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Technikeinsatz als Beschleunigungsfaktor gerichtlicher Entschei­ dungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Justizgewährungsanspruch (aus Rechtsstaatsprinzip) . . . . . . . . . . . . . . . . . Das Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) und seine Implikationen auf den justiziellen Algorithmeneinsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Gesetzesbindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Gewaltenteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Faires Verfahren – Art. 6 EMRK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Demokratieprinzip und Volkssouveränität – die demokratische Legiti­ mation gerichtlicher Entscheidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Grundsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Demokratische Legitimation der Judikative . . . . . . . . . . . . . . . . . . . . .

284 286 287 287 288 288 289 291 291 293 295 295 296 298 298 300 301 302 303 304 304 305 306 307 308 308 309 310 311 311 313 314 317 317 318

Inhaltsverzeichnis15 c) Demokratische Legitimation beim Einsatz automatischer Systeme in der Justiz  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 aa) Problemlage  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 bb) Folgerungen  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 (1) Funktionell-institutionelle sowie organisatorisch-personelle Legitimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 (2) Sachlich-inhaltliche Legitimation . . . . . . . . . . . . . . . . . . . . . . 324 (a) Unterscheidung nach der Art der denkbaren Systeme . . . 325 (aa) Regelbasierte Entscheidungssysteme . . . . . . . . . . . . 325 (bb) Dynamische Entscheidungssysteme . . . . . . . . . . . . . 325 (cc) Parallele zum Verwaltungsverfahren . . . . . . . . . . . . 327 (b) Praktische Umsetzung? . . . . . . . . . . . . . . . . . . . . . . . . . . . 328 cc) Demokratische Legitimation durch (Teil-)Automatisierung? . . . . 329 9. Transparenz und Akzeptanz  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 a) Transparenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 aa) Begriff und Inhalt  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 bb) Organisatorische Transparenz – Zurechnung . . . . . . . . . . . . . . . . . 332 cc) Inhaltliche Transparenz – Nachvollziehbarkeit . . . . . . . . . . . . . . . 334 (1) Grundsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 (2) Unterscheidung nach Art der Systeme . . . . . . . . . . . . . . . . . . 335 dd) Vergleich zu menschlichen Entscheidungen  . . . . . . . . . . . . . . . . . 337 ee) Lösungsansatz – die Begründung als zentrale Säule der Trans­ parenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 (1) Information über den Einsatz eines Assistenzsystems (Ob) . 338 (2) Informationen zur Funktionsweise (Wie) . . . . . . . . . . . . . . . . 339 (3) Rechtliche und technische Nachvollziehbarkeit . . . . . . . . . . . 340 b) Akzeptanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 aa) Grundsätzliches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 bb) Bezugspunkt der Akzeptanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 cc) Akzeptanz durch Transparenz  . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 dd) Unterscheidung nach Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 10. Die Menschenwürde und das Menschenbild des Grundgesetzes . . . . . . . 346 a) Begriff und Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 b) Die Menschenwürde als Hindernis einer vollautomatisierten Justiz . . 348 aa) Grenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 bb) Keine Reduktion des Menschen auf Zahlenlogik . . . . . . . . . . . . . 349 cc) Mögliche Kontraindikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 c) Ausblick – keine Rationalisierung um jeden Preis . . . . . . . . . . . . . . . . 351 11. Recht auf informationelle Selbstbestimmung – Achtung des Daten­ schutzes bei der Entwicklung und Nutzung algorithmenbasierter Unterstützungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 12. Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 VI. Fazit des zweiten Teils (C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355

16 Inhaltsverzeichnis Dritter Teil

Algorithmenbasierte Entscheidungsunterstützung in der Strafrechtspflege – Möglichkeiten und Ausblick 

359

I. Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 1. Vorabüberlegungen   . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 2. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 II. Zu den Einsatzmöglichkeiten von E ­ ntscheidungsunterstützungssystemen (Überblick) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Notwendigkeit der Kategorisierung der Einsatzmöglichkeiten . . . . . . . . . a) Rechtsgebiet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Instanz bzw. „Endgültigkeit“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Art und Wesen der Entscheidung sowie Verfahrensstadien . . . . . . . . . d) Entscheidungsteile und Gesamtentscheidung . . . . . . . . . . . . . . . . . . . . 2. Kontrolle justiziell eingesetzter Entscheidungsunterstützungssysteme . . . a) Einfachgesetzlich verankerte Grundsätze und Formalia – Lex lata . . . aa) Mündlichkeitsgrundsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Unterschriften der Berufsrichter . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Bewertung und Nachjustierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) IT-Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Lex ferenda und Gestaltungsvorschläge . . . . . . . . . . . . . . . . . . . . . . . . aa) Mut zum Normativen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Plädoyer für eine frühzeitige Grenzziehung – Garantie der menschlichen Entscheidung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . cc) Weitere allgemeine Vorschläge und Vorgaben . . . . . . . . . . . . . . . . III. Entscheidungsunterstützende Systeme im Strafverfahren nach US-amerika­ nischem Vorbild? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Modell einer Risikobewertung – der COMPAS-Algorithmus . . . . . . . . . . a) Konkreter Einsatz und Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . b) Zulässigkeit (nach US-Recht) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Fragliche Wirksamkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Diskriminierungsrisiken und Unfairness . . . . . . . . . . . . . . . . . . . . . . . . aa) Ergebnisse einer umfassenden Datenauswertung . . . . . . . . . . . . . . bb) Relativierung der Vorwürfe – verschiedene Fairnessmaßstäbe . . . e) Mangelnde Transparenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Der US-amerikanische Strafprozess und seine wesentlichen Unter­ schiede zum deutschen Recht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Zwischenergebnis und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

363 363 363 364 364 365 365 365 366 368 368 369 370 370 372 373 375 376 376 378 379 381 381 382 385 386 387

IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme im Straf­ verfahren (Überblick)  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388 1. Vorab: Risikoprognosen auch im deutschen Strafrecht . . . . . . . . . . . . . . . 388 2. Technisch-praktische Herangehensweise (Überblick) . . . . . . . . . . . . . . . . 390

Inhaltsverzeichnis17 a) Notwendigkeit interdisziplinärer Zusammenarbeit  . . . . . . . . . . . . . . . 390 b) Datenbasis  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 c) Statische regelbasierte und dynamische datenbasierte Systeme . . . . . . 392 d) Regression und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 3. In Betracht kommende Anwendungsszenarien . . . . . . . . . . . . . . . . . . . . . . 396 a) Untersuchungshaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 aa) Gesetzliche Vorgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 bb) Kein normativer Ausschluss algorithmenbasierter Unterstützung, insbesondere für die Prüfung der Haftgründe . . . . . . . . . . . . . . . . 397 cc) Technische Weichenstellungen und erste positive Ergebnisse . . . . 398 dd) Grenze: qualitative Wertungsfragen und Verhältnismäßigkeit . . . . 401 b) Strafzumessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402 aa) Normative Vorgaben und Rechtsprechungspraxis . . . . . . . . . . . . . 402 bb) Rationalisierung durch Strafzumessungstabellen? . . . . . . . . . . . . . 404 cc) Algorithmenbasierte Entscheidungsunterstützung . . . . . . . . . . . . . 406 (1) Stand der Strafzumessungsdogmatik als Hürde . . . . . . . . . . . 407 (2) Konzeption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 (a) Skalen und Fuzzy-Logik – Entscheidungsassistenz bei Eigentums- und Vermögensdelikten . . . . . . . . . . . . . . . . . 409 (b) Datenbasierte Systeme – Ausblick und „Problem“ der fehlenden präjudiziellen Wirkung . . . . . . . . . . . . . . . . . . 412 (3) Zwischenergebnis und Praxisbezug der Überlegungen . . . . . 414 c) Strafaussetzung zur Bewährung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416 aa) Die normativen Vorgaben in § 56 und §§ 57, 57a StGB . . . . . . . . 416 (1) Strafaussetzung zur Bewährung – die Sozialprognose nach § 56 StGB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416 (2) Aussetzung eines Strafrests zur Bewährung (§§ 57, 57a StGB) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 bb) Raum und Grenzen für eine algorithmische Assistenz . . . . . . . . . 419 d) Ausweitung des offenen Vollzugs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 4. Rechtskonformität der skizzierten Anwendungsbeispiele (Standort­ bestimmung) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 a) Entscheidungsunterstützung und richterliche Unabhängigkeit im Strafprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 aa) Grenzen und Zielrichtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 bb) Maßnahmen zur rechtskonformen Ausgestaltung – gegen eine faktische Prädeterminierung und den Automation Bias  . . . . . . . . 424 cc) Freie Beweiswürdigung im Strafprozess . . . . . . . . . . . . . . . . . . . . 427 b) Verfassungsrechtlich-organisatorische Vorgaben für Freiheits­ entziehungen (Art. 104 GG)  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 c) Überlegungen zur Gesetzesbindung  . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 aa) Datenbasis und Entscheidungsgrundlage . . . . . . . . . . . . . . . . . . . . 429 (1) Maßstab der Gesetzesbindung entscheidungsunterstützender Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429

18 Inhaltsverzeichnis (2) Fortschreiben der Rationalitätsschwächen . . . . . . . . . . . . . . . (3) Musterfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Kombination aus induktiven und deduktiven Verfahren . . . . . . . . cc) Verfahrensrechtliche Begründungspflicht am Beispiel der Strafzumessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . dd) Besonders geschützte Merkmale und Diskriminierungsschutz . . . d) Zieldefinition und Fairnessmaßstab . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V. Weitere Vorschläge zur Entscheidungsunterstützung – Anwendungs­ szenarien (Ausblick) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Umfassende Datenbanken als Entscheidungshilfe (ex ante) . . . . . . . . . . . 2. Unterstützung in der Sachverhaltsaufklärung und Beweiswürdigung . . . . a) Termine und Fristen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Visualisierung und Dokumentenmanagement . . . . . . . . . . . . . . . . . . . . c) Glaubhaftigkeit von Aussagen bzw. Glaubwürdigkeit von Zeugen oder Angeklagten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Kontrollsysteme (ex post) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Möglichkeiten speziell im Zivilprozess (Ausblick) . . . . . . . . . . . . . . . . . . a) Automatisierte gerichtliche Prüfung von Verträgen des täglichen Bedarfs . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Automatisch generierte „Vor-Urteile“ . . . . . . . . . . . . . . . . . . . . . . . . . .

431 431 433 434 435 437 439 441 442 444 444 445 445 447 448 449 449

VI.  Fazit des dritten Teils (D) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Algorithmen versus Denkfehler? – Technische Unterstützung als Chance für rationalere Entscheidungen . . . . . . . . . . . . . . . . . . . . . . . . 2. Ergänzungen der juristischen Ausbildung . . . . . . . . . . . . . . . . . . . . . . . . . 3. Ausblick  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

452

Gesamtfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I. Schluss und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. „Entscheidungs-Automatisierungs-Dilemma“ . . . . . . . . . . . . . . . . . . . . . . . . . . III. Zusammenfassung der Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

457 457 459 460

452 454 454

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469 Sachregister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531

A. Einleitung „Die Vernunft ist die Wurzel des Rechts.“ (Lü Buwei)

I. Einführung Die Richter sind unabhängig und nur dem Gesetz unterworfen (Art. 97 Abs. 1 GG). Mit diesen Worten legt die bundesdeutsche Verfassung fest, an­ hand welcher Leitlinien Richterinnen und Richter1 Entscheidungen treffen sollen. Gleichsam als Kehrseite ihrer verfassungsrechtlich garantierten Frei­ heiten verpflichtet sie § 39 DRiG, sich innerhalb und außerhalb ihres Amtes stets so zu verhalten, dass das Vertrauen in ihre Unabhängigkeit nicht gefähr­ det wird. In einem Eid schwört jeder Richter zudem, „das Richteramt […] getreu dem Gesetz auszuüben, nach bestem Wissen und Gewissen ohne An­ sehen der Person zu urteilen und nur der Wahrheit und Gerechtigkeit zu die­ nen“ (§ 38 DRiG). Die Rechtsunterworfenen vertrauen darauf, dass hoheitli­ che Entscheider aufgrund ihrer juristischen Ausbildung und Qualifikation, aber auch aufgrund ihrer persönlichen Integrität stets rechtmäßige Entschei­ dungen treffen.2 Gerichtliche Entscheidungen – so die Idealvorstellung vom „homo iuridicus“3 – sollten ausschließlich von Fakten und der Rechtslage geleitet sein: Rechtsstaat ist „Herrschaft von Gesetzen, nicht von Menschen“.4 Bislang sind es zugleich aber stets (und ausschließlich) Menschen, die gesetzliche Vorgaben mit lebensweltlichen Ereignissen abgleichen, um einen bestimmten Sachverhalt einem Urteil zuzuführen. Wie kann es einem Rechts­ staat dann gelingen, eine Herrschaft von Menschen zu vermeiden und eine Herrschaft gesetzlicher Regelungen zu implementieren? Um eine realistische Einschätzung davon zu bekommen, inwiefern sich der ideale vom allzu 1  Der besseren Lesbarkeit wegen nutzt die folgende Darstellung jeweils die männ­ liche Form, die – als vom Geschlecht abstrahierendes generisches Maskulinum – hier alle Personenbezeichnungen umfassen soll. Der letzte Abruf der Internetquellen und -hinweise datiert (soweit nicht anders angegeben) auf den 10.6.2020. 2  Graevenitz, ZRP 2018, 238 (239). 3  Vgl. Risse, NJW 2018, 2848 (2848). Der Begriff ist jedoch mit unterschiedlichen Inhalten aufgeladen, vgl. Huttner/Teubner, Der Gesellschaft fette Beute, in: Fuchs/ Göbel (Hrsg.), Der Mensch – das Medium der Gesellschaft?, 1994, S. 110 (110 ff.). 4  Vgl. Art. XXX aus dem ersten Teil der Verfassung des Staates Massachusetts (USA): „to the end it may be a government of laws and not of men“.

20 Einleitung

menschlichen Richter unterscheidet, muss der analytische Blick auf das menschliche, insbesondere das richterliche Entscheidungsverhalten fallen. Doch welcher Methodik kann sich die Rechtswissenschaft dafür bedienen? Wie andere Disziplinen kann auch die rechtswissenschaftliche Forschung auf Modelle zurückzugreifen, um das Verhalten seiner relevanten Akteure zu untersuchen. Weder Wissenschaft noch Rechtsprechung haben bislang jedoch ein eigenes, positives Verhaltensmodell konzipiert. Insbesondere handelt es sich bei dem „Menschenbild des Grundgesetzes“, wie es das BVerfG beschreibt,5 nicht um ein Verhaltensmodell, das die Realität abbildet. Viel­ mehr umreißt es die normative (Ziel-)Vorstellung dessen, was den Menschen nach dem Recht im Allgemeinen und dem Grundgesetz im Besonderen aus­ macht. Mangels eigener Verhaltensmodelle ist die Rechtswissenschaft des­ halb weithin auf bewährte Modelle anderer Disziplinen angewiesen. Dabei muss sie sich aber auch der mit einer jeden Methodik einhergehen Grenzen bewusst sein. Ein Verhaltensmodell zielt insbesondere nicht darauf ab, die Wirklichkeit als solche wiederzugeben, sondern soll diese abstrahieren, um Prognosen über typisches Verhalten der Mehrheit der Menschen zu ermögli­ chen.6 Modelle sollen die Wirklichkeit simplifizieren und auf einzelne As­ pekte herunterbrechen. Ein prominentes Modell, um (rationales) menschliches Handeln und Ent­ scheiden vorherzusagen, ist der wirtschaftswissenschaftliche Ansatz des homo oeconomicus.7 Das Verhaltensmodell ist aber weder „Menschenbild“ noch eine real existierende Person.8 Es ist auch kein normatives Ideal, sondern vielmehr ein abstrahierendes Konstrukt.9 Dem Modell des homo oeconomicus liegt die Annahme zugrunde, dass der Mensch Entscheidungen in einer Welt der Ressourcenknappheit stets rational (rational choice) und eigennützig10 trifft. Emotionen oder Probleme der Selbstkontrolle spielen keine Rolle. Der Vorteil eines Modells ist jedoch teilweise hinfällig, wenn empirische Forschung zeigt, dass Menschen sich systematisch modellinkompatibel ver­ 5  BVerfGE 4, 7 (15 f.); BVerfG, NJW 2003, 3111 (3113): „Menschenbild, das von der Würde des Menschen und der freien Entfaltung der Persönlichkeit in Selbstbe­ stimmung und Eigenverantwortung geprägt ist“. 6  Steinbeck/Lachenmaier, NJW 2014, 2086 (2087) m. w. N. 7  Vgl. nur Kirchgässner, Homo Oeconomicus, 4. Aufl., 2013, S. 12 ff., 66 ff. 8  Eidenmüller, JZ 2005, 216 (217). 9  Janson, Ökonomische Theorie im Recht, 2004, S. 46 f.; Steinbeck/Lachenmaier, NJW 2014, 2086 (2087). 10  Das sog. Eigennutztheorem besagt, dass der wirtschaftlich Handelnde aus meh­ reren Alternativen stets diejenige wählen wird, welche die Maximierung seines eige­ nen Nutzens bedeutet, vgl. Mathis, Effizienz statt Gerechtigkeit?, 3. Aufl., 2009, S. 23 f. Zum Rationalitätsbegriff sowie dessen Kriterien und Operationalisierung im Kontext des Rechts ergänzend Kreuzbauer, Jusletter IT 23.2.2017, 1 (2 ff.).



I. Einführung21

halten.11 So legen die Erkenntnisse der Kognitionspsychologie nahe, dass das Modell einer Anpassung bedarf, wenn es tatsächliches Entscheidungsverhal­ ten skizzieren soll.12 Will man das Modell für das Verhalten eines Richters fruchtbar machen, stößt es in der Realität zudem an weitere Grenzen. Denn anders als ein Richter verfügt der homo oeconomicus über vollständige Infor­ mationen und unerschöpfliche Kapazitäten. Ohnehin sind ökonomische Mo­ delle nicht kongruent auf die richterliche Entscheidungsfindung übertragbar. Denn die Entscheidungen eines Richters wirken sich regelmäßig nicht unmit­ telbar auf sein eigenes Wohlbefinden oder seine materielle Lebensgrundlage etc. aus – anders als etwa bei einem Verbraucher oder einem Kaufmann. Hinzu kommt, dass die menschliche Entscheidungsfindung immer nur be­ grenzt rational abläuft.13 Ein Modell, das den tatsächlichen Entscheidungsprozess eines Richters besser vor- und nachzeichnen kann als der homo oeconomicus, verspricht die Verhaltensökonomik.14 Bislang stellen wissenschaftliche Arbeiten, die sich mit verhaltensökonomischen Aspekten im Rechtssystem beschäftigen (Behavioral Law and Economics), aber im Wesentlichen die handelnden Akteure eines bestimmten Rechtsgebiets in ihren Fokus. So gibt es in Deutschland entsprechende Publikationen u. a. in Bereichen des Schuld-15, Kapital- und Finanzmarkt-16, Urhebervertrags-17 und Kartellrechts18. Im Regelfall steht 11  Steinbeck/Lachenmaier,

NJW 2014, 2086 (2087). vieler Kahneman, Schnelles Denken, langsames Denken, 2012, S. 31 ff. 13  Ausführlich unten S. 45  ff. In den Worten Kants: „Kann man überdem die subjektiven Ursachen des Urteils, welche wir für objektive Gründe desselben neh­ men, entwickeln, und mithin das trügliche Fürwahrhalten als eine Begebenheit in unserem Gemüte erklären, ohne dazu die Beschaffenheit des Objekts nötig zu haben, so entblößen wir den Schein und werden dadurch nicht mehr hintergangen, obgleich immer noch in gewissem Grade versucht, wenn die subjektive Ursache des Scheins unserer Natur anhängt“, vgl. Kant, Kritik der reinen Vernunft, 3. Aufl., 1990, S. A 821. 14  Vgl. etwa Ariely, Harvard Business Review July-August 2009, 78 (78 ff.); Hacker, Verhaltensökonomik und Normativität, 2017, S. 40 ff.; Thaler, Misbehaving, 2018, S. 17 ff. Siehe auch Mathis, Effizienz statt Gerechtigkeit?, 3. Aufl., 2009, S.  28 f., 41 ff. 15  Eidenmüller, JZ 2005, 216 (217 ff.). 16  Klöhn, Der Beitrag der Verhaltensökonomik zum Kapitalmarktrecht, in: Flei­ scher/Zimmer (Hrsg.), Beitrag der Verhaltensökonomie (Behavioral Economics) zum Handels- und Wirtschaftsrecht, 2011, S. 83 ff.; Schmies, Behavioral Finance und Fi­ nanzmarktregulierung, in: Engel/Englerth/Lüdemann et al. (Hrsg.), Recht und Verhal­ ten, 2007, S. 165 ff. 17  Etwa Riesenhuber/Klöhn (Hrsg.), Das Urhebervertragsrecht im Lichte der Ver­ haltensökonomik, 2010. 18  Engel, Die Bedeutung der Verhaltensökonomie für das Kartellrecht, in: Flei­ scher/Zimmer (Hrsg.), Beitrag der Verhaltensökonomie (Behavioral Economics) zum Handels- und Wirtschaftsrecht, 2011, S. 100 (100 ff.). 12  Statt

22 Einleitung

dabei das Verhalten der beteiligten rechtsunterworfenen Personen des Rechtsund Wirtschaftsverkehrs in Rede. Die vorliegende Untersuchung versucht demgegenüber, einen Blick darauf zu lenken, welche Schlüsse sich aus den Erkenntnissen der Verhaltensökonomik und der kognitionspsychologischen Forschung im Hinblick auf die richterliche Entscheidungsfindung ergeben.19 Denn entgegen vereinzelter (Selbst-)Einschätzung20 sind juristische Ent­ scheidungsträger vor den typisch menschlichen Schwächen nicht gefeit: Auch Experten entscheiden einen Fall nicht rein nach Sachverhalt und Ge­ setz, ohne dabei vollständig ausschließen zu können, dass Vorurteile, Emoti­ onen oder Denkfehler ihr klares Judiz trüben. Insbesondere strafrechtliche Urteile bieten oft Gelegenheit für Empörung und erfahren in der öffentlichen Diskussion Kritik als „deutlich zu milde“ oder „unverhältnismäßig hart“; generell erfreuen sich populärwissenschaftliche Publikationen mit provokan­ ten Titeln, gespickt mit einzelnen „Fehlurteilen“ und „Justizskandalen“, ho­ her Beliebtheit.21 Legen wissenschaftliche Untersuchungen nahe, dass Men­ schen und damit auch Richter fehlbar und in ihrem Entscheidungsverhalten inkonsistent sind bzw. sein können, fallen – zugespitzt formuliert – Ideal und Wirklichkeit der richterlichen Entscheidungsfindung auseinander. Dadurch öffnen sich zugleich Korridore für neue, unbekannte Pfade. In einer Zeit, in der Schlagwörter wie „Algorithmen“ und „Künstliche In­ telligenz“ die öffentliche Debatte durchziehen, stellt sich mit Blick auf staat­ liche Entscheidungen insbesondere eine Frage: Lassen sich technische Errun­ genschaften womöglich auch im Kernbereich der Justiz nutzbar machen? So viel steht fest: Die Digitalisierung zeitigt längst weitreichende Änderungen in nahezu allen Lebensbereichen. Auch der Staat selbst durchlebt eine digitale Transformation. Die Idee der universellen Formalisierbarkeit verändert nicht nur seine administrativen Prozesse, sondern die algorithmische Logik be­ rührt – etwa über Chatbots – auch menschliche und soziale Interaktionszu­ sammenhänge. Die fortschreitende kybernetische Annäherung von Mensch und Maschine unter der Leitmaxime der Effizienzsteigerung ist aus dieser Perspektive zwar keine zwingende, aber doch eine logische Folge der immer Steinbeck/Lachenmaier, NJW 2014, 2086 (2088 ff.). „Überheblichkeit“ und „Selbstüberschätzung“ vieler Richter kritisierte etwa Blüm, Berufsbedingt überheblich, ZEIT Online vom 27.6.2013; vgl. auch dessen Anekdotensammlung Blüm, Einspruch!, 2014. Beiden Veröffentlichungen Blüms be­ gegnete der ehemalige BGH-Richter Fischer mit einem heftigen Widerspruch, vgl. Fischer, „Vom Recht verstehe ich wenig bis nichts“, ZEIT Online vom 1.11.2014. 21  Siehe etwa Lamprecht, Die Lebenslüge der Juristen, 2. Aufl., 2008; Wagner, Ende der Wahrheitssuche, 2017; sowie bereits Anonymus, Strafmaß: „Die Richter würfeln“, Der Spiegel vom 23.2.1981, S. 94 ff.; aus Übersee z. B. Stevenson, Ohne Gnade, 2016. 19  Ähnlich 20  Eine



I. Einführung23

kürzer werdenden Zyklen technologischer Innovationen.22 Moderne Technik geht jedenfalls für viele Menschen mit Komfort und einer Vereinfachung ihres Alltags einher: Statt Landkarten lesen zu müssen, lassen sie sich von Navigations-Apps ans Ziel führen; anstelle der Enzyklopädie im Bücher­ schrank konsultieren sie algorithmenbasierte Suchmaschinen; in einem Smart Home sorgen Sprachassistenten und vernetzte Geräte dafür, dass direkt nach der heißen Dusche ein frisch gebrühter Kaffee bereitsteht. Der digitale Wandel erfasst aber nicht nur den Alltag, sondern auch die Arbeitswelt: Sie erlebt die vielleicht gravierendste Modulation seit der indus­ triellen Revolution im 19. Jahrhundert. So fragt ein Online-Tool der Süddeutschen Zeitung spannungsgeladen: „Wie wahrscheinlich ist es, dass ich durch einen Computer ersetzt werde?“.23 Neben den „Rationalisierungsopfern“, an die man unmittelbar denken kann (etwa kaufmännische Assistenten oder Call-Center-Mitarbeiter), betreffen die technologischen Umwälzungen auch Berufsgruppen wie Programmierer, Rechtsanwälte oder Architekten; selbst für Richter besteht angeblich eine 40-prozentige Wahrscheinlichkeit, dass algorithmisch gesteuerte Entscheidungsmaschinen sie ersetzen.24 Diese Zahl ist nicht allein deshalb brisant, weil ein akademisch hochquali­ fizierter Berufsstand, für den ein gewisses Maß an sozialen Kompetenzen erforderlich ist, ins Visier der Automatisierung gerät. Denn dieser Umstand relativiert sich zumindest dadurch, dass die in dem Tool verwendeten Daten auf Standards und Berufsleitbildern des US-amerikanischen Arbeitsmarktes basieren.25 Die eigentliche Brisanz der Prognose ergibt sich vielmehr daraus, dass der Wert von 40 Prozent die mittelfristige Übertragung judikativer Staatsgewalt auf intelligente Maschinen prophezeit – und zwar ohne dabei 22  Martini,

Blackbox Algorithmus, 2019, S. V. Wie wahrscheinlich ist es, dass ich durch einen Computer ersetzt werde?, http://gfx.sueddeutsche.de/pages/automatisierung/ (10.6.2020); das Tool ba­ siert auf einer Oxford-Studie zur Zukunft der Arbeit, vgl. Frey/Osborne, Technologi­ cal Forecasting and Social Change 114 (2017), 254. 24  Auch die ARD hat in Kooperation mit der Bundesagentur für Arbeit und dem Institut für Arbeitsmarkt- und Berufsforschung (IAB) ein „Job-Futuromat“ genanntes Tool erstellt (abrufbar unter http://job-futuromat.ard.de/). In dessen Fokus steht nicht die Frage, mit welcher Wahrscheinlichkeit ein Computer den jeweiligen Berufsträger ersetzt, sondern welchen Anteil der jeweiligen Tätigkeit Maschinen bereits ausführen könnten. Für den Beruf des Richters gibt das Tool aus, ein Drittel der richterlichen Tätigkeiten könnten bereits Maschinen übernehmen (Stand: 2020). 25  Siehe zu den Hintergründen des US-amerikanischen Bestrebens nach einer (stär­ keren) Justiz-Automatisierung Braswell, All rise for Chief Justice Robot, http://www. ozy.com/immodest-proposal/all-rise-for-chief-justice-robot/41131 (10.6.2020), sowie Barry-Jester/Casselman et al., The New Science of Sentencing, https://www.themar shallproject.org/2015/08/04/the-new-science-of-sentencing#.QdtVLuLD5 (10.6.2020). Vgl. zu den Unterschieden im Strafverfahren unten S. 386 ff. 23  Weyrauch,

24 Einleitung

zugleich die Konsequenzen des Austauschs menschlicher Entscheidungsträ­ ger durch Maschinen zu hinterfragen.

II. Ziel der Arbeit Die vorliegende Untersuchung widmet sich der Frage, ob und inwiefern Computerprogramme die richterliche Tätigkeit unterstützen oder gar (teil­ weise) substituieren können – und welche Hürden und Risiken dabei beste­ hen. Sie begnügt sich dabei nicht damit, allein die technische Substituierbar­ keit auf der Grundlage eines ergebnisorientierten Kompetenzprofils auszu­ leuchten. Denn ein solches Vorgehen könnte die gesellschaftliche Akzeptanz sowie die Verfassungskonformität nicht abbilden. Vielmehr sind rechtsstaat­ liche Direktiven von Beginn an mitzudenken, wenn der Blick auf neue tech­ nische Möglichkeiten im Kontext staatlicher Aufgabenerfüllung fällt. Ohne eine umfassende Analyse der rechtlichen und ethischen Implikationen wäre es schlechthin unvertretbar, Algorithmen bzw. informationstechnische Sys­ teme zur Entscheidung oder Entscheidungsunterstützung in gerichtlichen Verfahren einzusetzen. Der Mehrwert des vorliegenden Werks zu früheren Arbeiten soll in seinem weiten, nicht auf die Rechtswissenschaft begrenzten Blickwinkel liegen: Es verknüpft aktuelle Ergebnisse aus dem Bereich der Entscheidungsforschung und der Psychologie mit rechtlichen und technischen Fragen einer (teil-)au­ tomatisierten Entscheidungsfindung und -unterstützung. Die Untersuchung folgt dabei dem Anspruch, über die Möglichkeiten der Automatisierung juris­ tischer Entscheidungen nicht unabhängig von, sondern gerade wegen der Schwächen zu diskutieren, die menschliche Entscheidungen prägen. Gerade sie sollen die Grundlage dafür bilden und als Ausgangspunkt dienen, um ei­ nen Technikeinsatz als Chance für die Justiz zu sehen. Die Frage, ob bzw. unter welchen Voraussetzungen richterliche Entschei­ dungen automatisierbar sind, ist mehr als ein realitätsfernes Glasperlenspiel. Dass Computer den Richter nicht vollständig ersetzen können, mag vielen als Binsenweisheit erscheinen, die keiner vertieften Erörterung bedarf. Wa­ rum genau aber bspw. Ermessen nicht automatisierbar ist, wo die sprachbe­ zogenen Probleme einer automatisierten Rechtsfindung oder die verfassungs­ rechtlichen Grenzen der Automatisierung en détail liegen, findet sich bislang nur selten im Zusammenhang beleuchtet. Für eine umfassende Analyse der Voraussetzungen, unter denen das Recht in Gemeinschaften und Gesellschaften wirkt, und wie es das menschliche Zusammenleben gerecht und zukunftsweisend gestalten kann, ist es notwen­ dig, die Schnittstellen der Rechtswissenschaft zu anderen Disziplinen auszu­ leuchten. Führt man sich vor Augen, dass das Recht stets menschengemacht



II. Ziel der Arbeit25

ist, spränge es zu kurz, psychologische Wirkmechanismen bei dem Versuch, grundlegende Erkenntnisse über juristisches Begründen und Entscheiden zu gewinnen, außer Acht zu lassen. Der Blick sollte jedoch nicht nur auf die menschliche Psyche – also gleichsam das Innere – fallen. Vielmehr fordern auch soziale Umbrüche und bisweilen disruptive Entwicklungen wie die Di­ gitalisierung die Wandlungsfähigkeit des Rechts heraus. Da das Recht nie­ mals losgelöst von gesellschaftlichen Entwicklungen entsteht und wirkt, also weder einen Selbstzweck erfüllt noch einen statischen Charakter aufweist, muss eine wissenschaftliche Untersuchung der Rolle des Richters und seiner Arbeitsweise auch das Äußere und seine Wechselwirkung mit der Rechtsdog­ matik in den Fokus nehmen. Motivation und Ziel der Arbeit ist es daher, sich analytisch folgenden Fra­ gen zu nähern: In welchem Ausmaß verzerren Rationalitätsschwächen die richterliche Entscheidungsfindung? Welchen allgemeinen und konkreten normativen Vorgaben unterliegen Richter in ihrer Kerntätigkeit? Gibt es Möglichkeiten, den Einfluss der Denkfehler und kognitiven Verzerrungen zu reduzieren und die richterliche Entscheidungsfindung rationaler auszufor­ men? Können informationstechnische Systeme einen Beitrag hierzu leisten? Immerhin ist auch „Künstliche Intelligenz“ kein Wundermittel. Anschließend skizziert die Untersuchung die Vor- und Nachteile sowie technische und nor­ mative Grenzen algorithmengesteuerter Entscheidungen der Dritten Staatsge­ walt: Darf der Staat einem technischen System eine gerichtliche Entschei­ dung anvertrauen, die das Leben einer Person, die von ihr betroffenen ist, erheblich beeinträchtigt? Wo besteht Diskriminierungspotenzial? Wo liegen die Grenzen der Automatisierung staatlicher Entscheidungen? Können algo­ rithmenbasierte Systeme in rechtlich zulässiger Weise die Arbeit der Gerichte im Strafverfahren unterstützen und wenn ja, wie? In der kontroversen Debatte zwischen einem technozentrischen Fort­ schrittsglauben und einer vollständigen Ablehnung gegenüber Modernisie­ rung oder Technikeinsatz26 liegt der „goldene Mittelweg“ womöglich darin, neue technische Möglichkeiten gestaltend nutzbar zu machen. Die Arbeit versteht sich insofern nicht als abschließende Untersuchung und verfolgt auch nicht den Anspruch, die Thematik vollständig auszuleuchten. Bestimmte Aspekte zu abstrahieren oder zu verkürzen, ist notwendig, um den Rahmen nicht zu sprengen und der Komplexität einer in Ansätzen interdisziplinären Perspektive Herr zu werden. So sehr die Arbeit an einigen Stellen vage blei­ ben und sich auf einen Überblick beschränken muss, so sehr sind einige Thesen bewusst zugespitzt formuliert. Dies ist dem Umstand geschuldet, dass die Arbeit zu einer Diskussion anregen bzw. die bereits geführten Dis­ 26  Vgl. zu der Debatte etwa Bull, Der Staat 58 (2019), 57 (57 f.); Martini, Black­ box Algorithmus, 2019, S. 4 ff.

26 Einleitung

kussionen bereichern möchte. Sie will Impulsgeber und Beitrag für einen breit angelegten gesellschaftlichen und nicht ausschließlich rechtswissen­ schaftlichen Diskurs sein:27 Ansatz und Intention dieser Arbeit ist es gerade, die verschiedenen Themen und Fragestellungen miteinander zu verbinden und aufeinander zu beziehen.28

III. Gang der Darstellung Die Untersuchung gliedert sich in drei Hauptteile. In einem ersten Teil analysiert sie Rationalitätsschwächen und Fehler in der Entscheidungsfin­ dung. Dazu geht sie auf aktuelle Studien und empirische Untersuchungen ein, um sie in einen juristischen Kontext zu stellen. Wo vorhanden, fällt ein besonderer Blick auf die Möglichkeit, dass menschliche Schwächen in dis­ kriminierende Entscheidungen münden können.29 Um daraus Schlussfolge­ rungen für die juristische Entscheidungsfindung ziehen zu können, werden auch die normativen Vorgaben konturiert, welche die Rechtsordnung an den Prozess der richterlichen Entscheidungsfindung stellt. Denn nur, wenn der normative Sollzustand geklärt ist, kann eine Antwort auf die Frage gelingen, ob und wie die richterliche Entscheidungsfindung einer noch weiter gehen­ den Rationalisierung zugänglich ist. Eigene empirische Untersuchungen sind nicht Gegenstand dieser Arbeit. Der zweite Hauptteil wechselt die Perspek­ tive und stellt einen möglichen Ansatzpunkt, Rationalität zu erhöhen, in den Fokus: eine algorithmenbasierte Entscheidungsfindung informationstechni­ scher Systeme. Die Möglichkeiten und Grenzen deren Einsatzes in der Justiz beleuchtet er aus technischer wie auch aus rechtlicher, insbesondere verfas­

27  Mit dieser Zielrichtung wäre es nicht vereinbar, jeden der angeschnittenen Punkte in aller Tiefe und Ausführlichkeit zu beleuchten. Vielmehr sollen möglichst viele re­ levante Aspekte einfließen, damit ein Überblick entsteht. Aufgrund der Fülle der be­ reits vorhandenen Literatur handelt es sich auch bei den Literaturangaben bisweilen notwendigerweise um eine Auswahl. 28  Es ist ausdrücklich nicht das Ziel der vorliegenden Arbeit, den Berufsstand der Richter oder gar einzelne Personen in ein schlechtes Licht zu rücken, oder den Pro­ zess der richterlichen Arbeit in seiner Komplexität herabzustufen. Sowohl die Aus­ führungen zu den menschlichen Rationalitätsschwächen als auch die Darstellung der technischen Möglichkeiten sind daher cum grano salis zu verstehen. 29  Ein großer Teil der dargestellten Studien, insbesondere die empirischen Be­ funde über richterliche Entscheidungsprozesse, stammen aus dem englischsprachi­ gen Ausland. Das liegt vor allem daran, dass empirische Forschung zur richterli­ chen Entscheidungsfindung in Deutschland eher ein Nischendasein fristet. Anders in den USA: Die law studies dienen dort nicht nur der Ausbildung künftiger Richter und Rechtsanwälte, sondern sind Teil auch anderer sozialwissenschaftlicher Diszi­ plinen.



III. Gang der Darstellung27

sungsrechtlicher Perspektive.30 Der Darstellung dritter Teil stellt die Straf­ rechtspflege in den Mittelpunkt, um die abstrakten verfassungsrechtlichen Direktiven auf einen konkreten Referenzbereich anzuwenden und sie dadurch gleichsam einem Praxistest zu unterziehen. Als konkrete Anwendungsfälle stützt sich die Untersuchung auf konkrete Beispiele aus den USA. In einigen Bundesstaaten verwenden dort Richter seit einigen Jahren eine Software, die sie bei Entscheidungen über die Untersuchungshaft unterstützt oder ihnen als Hilfsmittel in der Strafzumessung dient. Vor dem Hintergrund der verfas­ sungsrechtlichen Grenzen in Deutschland werden die Möglichkeiten eines entscheidungsunterstützenden Technikeinsatzes im deutschen Strafprozess skizziert. Im Fazit folgt ein Ausblick sowie eine Zusammenfassung der Er­ gebnisse.

30  Soweit die nachfolgende Darstellung Mensch und Maschine als (diametrale) Gegenpole skizziert, ist dies eine (vereinfachende) Abstraktion. Zur tatsächlich kom­ plexeren Lage Kersten, JZ 2015, 1 (1 ff.).

Erster Teil

Status quo richterlicher Entscheidungsfindung „Errare humanum est.“

I. Problemaufriss – Menschliche Entscheidungen und die Fehleranfälligkeit juristischer Entscheidungsträger Die Worte „richterliche Unabhängigkeit“ beschreiben das verfassungs­ rechtlich abgesicherte (Art. 97 Abs. 1 GG) Privileg des Richters, seine Ent­ scheidungen frei von Weisungen treffen zu dürfen. Der Begriff lässt sich in­ des auch anders interpretieren – namentlich als Unabhängigkeit des Urteils von der Person des Richters im Sinne von Objektivität und Neutralität. In der Idealvorstellung des Laien fallen Urteile bei zwei gleichen bzw. vergleichba­ ren Sachverhalten gleich bzw. vergleichbar aus, unabhängig davon, welche Person über den Fall richtet.1 Denn richterliche Unabhängigkeit meint auch die innere bzw. innerliche2 Unabhängigkeit, wonach der Richter nur dem Gesetz unterworfen ist und daher frei jeglicher Einflussnahme entscheiden darf – und muss. Allerdings sind menschliche Entscheidungen auch durch Emotionen, Er­ ziehung und Prägung, Vorurteile, Denkfehler und Rationalitätsdefizite bzw. -schwächen, Stress, Motivation, Anreize und weitere Einflussfaktoren ge­ prägt.3 Wenngleich die Vorstellung, Richter entschieden grundsätzlich an­ ders – weniger fehleranfällig – als andere Menschen, eine utopische ist, so besteht doch die Hoffnung, dass Richter als Berufsentscheider auf Basis ihrer beruflichen Ausbildung adäquat gegen Entscheidungsfehler gewappnet sind. Doch trifft diese Vermutung zu? Richter kann werden, wer durch zwei be­ standene Staatsprüfungen die Befähigung zum Richteramt erwirbt (vgl. § 5 Abs. 1 DRiG). So gelangen teilweise Menschen mit vergleichsweise wenig Lebenserfahrung und ohne Kenntnisse in (Sozial-)Psychologie in die Posi­ 1  Vgl. Schmid, Vom Pendeln des Blickes – Wie kommt der Richter zum Fall?, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Richters, 2009, S. 95 (96). 2  Vgl. zum Begriff der „innerlichen Unabhängigkeit“ etwa Sommer, ZRP 2017, 60 (60). 3  Im Einzelnen sogleich.



I. Problemaufriss29

tion, über andere Menschen und deren Leben zu richten. Trifft dies zwar potenziell auf viele (akademische) Berufe zu, so können im Bereich juristi­ scher Entscheidungen die Auswirkungen indes besonders sensibel sein. Als Beispiel kann etwa die Sozialprognose i. S. d. § 56 StGB dienen.4 Die Vor­ schrift regelt die Voraussetzungen, unter denen eine Strafaussetzung zur Be­ währung in Betracht kommt (Abs. 2) oder zu gewähren ist (Abs. 1). Diese Entscheidung kann Relevanz für die Lebensentwicklung ganzer Familien entfalten. Eine solche Sozialprognose zu erstellen, ist jedoch nicht Teil der juristischen Grundausbildung, sodass für einen Berufsanfänger die Anwen­ dung der Vorschrift im „Ernstfall“ zugleich auch der „Erstfall“ seiner beruf­ lichen Laufbahn sein kann. Das gilt zwar für alle Rechtsgebiete und alle Gerichtsbarkeiten; im Strafverfahren können richterliche Entscheidungen je­ doch besonders gravierend und endgültig in das Leben, insbesondere die persönliche Freiheit des Betroffenen einschneiden. 1. Zustandekommen menschlicher Entscheidungen – Struktur des Entscheidungsprozesses Um die richterliche Entscheidungsfindung beschreiben und erfassen zu können, lohnt ein Blick darauf, wie Menschen grundsätzlich Entscheidungen treffen. Diese Frage ist Gegenstand der Entscheidungstheorie.5 Die wissen­ schaftliche Annäherung an menschliches Entscheidungsverhalten erfolgt je nach Zielsetzung: So lassen sich insbesondere normative und deskriptive Entscheidungstheorien unterscheiden.6 Die normative Entscheidungstheorie basiert auf dem Rational-Choice-Ansatz7 und fragt: Wie können Menschen 4  Teilweise ist auch der Begriff „Kriminalprognose“ gebräuchlich, siehe Groß, in: Joecks/Miebach (Hrsg.), MüKo-StGB, Bd. 2, 3. Aufl., 2016, § 56, Rn. 14. Vgl. zur Prognose und deren Erstellung vertiefend unten S. 416 f. 5  Klassischerweise findet die Entscheidungstheorie als Instrument der Wirt­ schaftswissenschaften (mit Überschneidungen zur Verhaltensökonomik) Beachtung, sie ist mittlerweile aber stark interdisziplinär ausgelegt. Die Entscheidungspsychologie nimmt – etwas allgemeiner – die kognitiven Prozesse in den Fokus, die beim Denken, Lernen und Entscheiden zum Tragen kommen. 6  Dazu Laux/Gillenkirch et al., Entscheidungstheorie, 9. Aufl., 2014, S. 4 sowie 16 ff.; vgl. auch Gillenkirch, Stichwort: Entscheidungstheorie, in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, 2018. Siehe auch Baron, Heuristics and Biases, in: Zamir/Teichman (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, 2014, S. 3 (3 ff.). 7  Der Rational-Choice-Ansatz (auch: Theorie der rationalen Entscheidung) ist ein Sammelbegriff der Sozial- und Wirtschaftswissenschaften und schreibt handelnden Akteuren grundsätzlich ein rein rationales, also nutzenmaximierendes (z. B. kostenmi­ nimierendes) Verhalten zu, wobei Gefühle, Vorurteile oder ähnliche Mechanismen keine Rolle spielen, vgl. dazu Hacker, Verhaltensökonomik und Normativität, 2017, S. 33, 101.

30

Erster Teil: Status quo richterlicher Entscheidungsfindung

Entscheidungen rational treffen bzw. wie sollen sie entscheiden? Der darauf basierende präskriptive Ansatz berücksichtigt von vornherein die begrenzten (insbesondere kognitiven) Fähigkeiten des Menschen und zielt darauf, Ver­ haltensempfehlungen für reale Entscheidungssituationen und Strategien zu entwickeln, die Menschen zu besseren Entscheidungen verhelfen sollen. Die deskriptive Entscheidungstheorie geht dagegen empirisch vor und leitet aus Beobachtungen (vor allem in kontrollierten Experimenten) reales menschli­ ches Entscheidungsverhalten her: Wie entscheiden Menschen tatsächlich? Mit dieser Methode lässt sich bei Kenntnis einer konkreten Entscheidungssi­ tuation das Entscheidungsverhalten von Individuen oder Gruppen prognosti­ zieren. a) Phasenmodell Der Prozess menschlicher Entscheidungsfindung lässt sich, jedenfalls ide­ altypisch, in folgende Phasen einteilen:8 – Problem-, Situations- und Zieldefinition (Orientierungsphase), – Alternativen erarbeiten und feststellen (Suchphase), – Alterativen bewerten und gewichten, insbesondere hinsichtlich ihrer Kon­ sequenzen (Bewertungsphase), – Wahl einer bzw. Entscheidung für eine der zuvor erarbeiteten Alternativen, zugleich Entscheidung gegen die anderen Alternativen (Auswahlphase), – tatsächliche Umsetzung der Auswahl (Umsetzungsphase), – Rückkopplung und Bewertung der getroffenen Entscheidung (Evaluations­ phase). Kernstück des Entscheidungsprozesses ist dabei die Auswahlphase als „Entscheidung im engeren Sinne“. Ein solches Modell bildet nicht die Reali­ tät jedes Entscheidungsvorgangs ab. Es bietet aber eine Orientierungshilfe für das Verständnis menschlicher Entscheidungen und kann insoweit auch dabei helfen, Entscheidungen zu optimieren. Fehler sind in jeder Phase mög­ lich; die begrenzte Rationalität des menschlichen Gehirns kann sich bereits beim Erkennen und Abgrenzen des zu lösenden Problems äußern.9 8  Idealtypische Darstellung in Anlehnung an Nesseldreher, Entscheiden im Infor­ mationszeitalter, 2006, S. 11 ff. Phasenschemata dieser Art bringen allerdings auch Probleme mit sich, siehe etwa Laux/Gillenkirch et al., Entscheidungstheorie, 9. Aufl., 2014, S. 15. 9  Gillenkirch, Stichwort: Entscheidungstheorie, in: Springer Gabler (Hrsg.), Gab­ ler Wirtschaftslexikon, 2018. In diesen Fällen mangelt es dann oftmals auch an einem vollständigen Katalog verfügbarer Alternativen und ihrer Konsequenzen sowie an eindeutigen Zielvorstellungen.



I. Problemaufriss31

Übertragen auf das Recht, zeigt sich der Entscheidungsprozess in folgen­ den Phasen:10 – Sachverhalt ermitteln, – (anwendbare) Normen ermitteln, – Sachverhalt im Hinblick auf den Normgehalt konkretisieren, – Bewertungen, – Schlussfolgerungen. b) Entscheidung als (objektive) Informationsverarbeitung? Betrachtet man das Zustandekommen menschlicher Entscheidungen an­ hand der Phasenmodelle derart abstrakt, so liegt der Schluss nahe, dass Entscheiden lediglich meint, möglichst effizient Informationen zu beschaffen und zu verarbeiten. Dies suggeriert eine Objektivität, die nicht der Realität entspricht. Die Informationsanalyse sowie deren Verwertung und Umsetzung in eine konkrete Entscheidung sind abhängig von der Person des Entschei­ ders sowie seinen Erfahrungen und seinem Vorwissen.11 Menschen sammeln Informationen nicht lediglich, sondern sie selektieren und gewichten, setzen sie in Bezug und übermitteln sie.12 In dem skizzierten Phasenmodell bildet die Informationsverarbeitung auf einer jeden Stufe die Grundlage des weite­ ren Entscheidungsvorgangs auf den nachfolgenden Stufen. Ein solches Schritt-für-Schritt-Vorgehen erinnert an die Arbeitsweise ei­ nes Computerprogramms und legt eine Parallele von Mensch und Maschine nahe.13 Die zutreffende Ansicht, dass Mensch und Maschine sich grundle­ gend unterscheiden, weil Menschen nicht emotionslos Arbeitsschritte aus­ führen, sondern Gefühle, Motive und Intuitionen in den Entscheidungspro­ zess einbinden,14 hat indes lediglich deskriptiven Charakter. Ob es sinnvoll und gerechtfertigt ist, dass Entscheider diese „fallfremden“ Aspekte in ihre Entscheidungen einfließen lassen, ist damit nicht gesagt. Es drängt sich vielmehr auch der umgekehrte Schluss auf: Gerade wegen dieser außerjuris­ tischen Aspekte sollten sich insbesondere grundrechtlich relevante Entschei­ 10  Ebenso Kilian, Juristische Expertensysteme, in: Nickel/Roßnagel/Schlink (Hrsg.), Freiheit und Macht, 1994, S. 201 (205); vgl. auch Berkemann, JZ 1971, 537 (538), der den Fokus aber stärker auf die Empfindungen des Richters beim Entschei­ den legt: „hochdifferenzierter Phänomenkomplex“. 11  Nesseldreher, Entscheiden im Informationszeitalter, 2006, S. 10 f. m. w. N. 12  Siehe bereits Böhret, Entscheidungshilfen für die Regierung, 1970, S. 141 ff. 13  Vgl. zu den Parallelen und Unterschieden ausführlich unten S. 139 ff. 14  Nesseldreher, Entscheiden im Informationszeitalter, 2006, S. 11. Vgl. im Einzel­ nen unten S. 45 ff.

32

Erster Teil: Status quo richterlicher Entscheidungsfindung

dungen womöglich stärker an einem rein rationalen „Maschinenvorgehen“ orientieren. c) Flexible Rationalität? Wenngleich es zahlreiche Arten von Rationalität geben kann:15 Rationale Entscheidungen sind „vernünftige“ Entscheidungen.16 Die Rationalität einer Entscheidung ist aber immer auch durch das zugrundeliegende Zielsystem bestimmt: So können Personen mit unterschiedlichen Zielen in identischen Entscheidungssituationen zu verschiedenen, sogar gegensätzlichen Entschei­ dungen kommen, ohne dass eine der Entscheidungen als irrational einzustu­ fen wäre.17 Auch zwei Richter müssen nicht stets identische, sondern können unterschiedliche Ziele verfolgen und unterschiedlich an einen Fall heran­ treten. Politische, weltanschauliche, psychologische, soziologische Einflussfakto­ ren können sich in jedem Entscheidungsprozess auswirken. Eine Unzahl an Nervenzellen und noch viel mehr Teilchen im Gehirn reagieren miteinander; ihre Aktivitäten lassen sich nicht voraussagen, sondern maximal näherungs­ weise beschreiben. Daher kann auch eine technische Modellierung dieser menschlichen Informationsverarbeitung selbst mit künstlichen neuronalen Netzen immer nur näherungsweise erfolgen.18 „Rationalität“ ist daher nicht starr und eindeutig. d) Unvollständige Informationslage Entscheidungen beruhen oftmals auf unvollständigen Informationen.19 Sind dadurch die menschlichen Erkenntnismöglichkeiten beschränkt, könnte eine vollständigere Informationslage ein Ansatzpunkt für gesteigerte Rationa­ lität sein. Im Rahmen der Entscheidungsfindung kann dies aber nur teilweise weiterhelfen. Denn eine zu große Anzahl an Einzelinformationen überfordert das Zerebrum: Aufmerksamkeit ist selektiv; eine Abwägung kann dann nur nur Steinbach, Rationale Gesetzgebung, 2017, S. 19 ff. Eisenführ/Weber et al., Rationales Entscheiden, 5. Aufl., 2010, S. 4 ff.; vgl. auch Hacker, Verhaltensökonomik und Normativität, 2017, S. 33 f., 55. 17  Nesseldreher, Entscheiden im Informationszeitalter, 2006, S. 27. 18  Kilian, Juristische Expertensysteme, in: Nickel/Roßnagel/Schlink (Hrsg.), Frei­ heit und Macht, 1994, S. 201 (203 f.). 19  Vgl. Rühl, Ökonomische Analyse des Rechts, in: Krüper (Hrsg.), Grundlagen des Rechts, 2. Aufl., 2013, S. 217 (219); Hill, DÖV 2014, 213 (213). Unvollständige Informationen können mitunter zu tragischen Ergebnissen führen, vgl. etwa die Bei­ spiele bei Hofstetter, Sie wissen alles, 2014, S. 50 f. 15  Vgl.

16  Ausführlich



I. Problemaufriss33

sehr verzögert erfolgen.20 Zu viele Informationen beschränken die kognitiven Kapazitäten, es droht eine informationelle Überlastung (sog. information overload).21 Selbst wenn ein Mensch alle jeweils vorhandenen Informationen erfassen und in eine Abwägung einbeziehen könnte, bestünde noch immer das Prob­ lem der Deutung: Bspw. können einem Richter, der über den Erlass eines Haftbefehls entscheidet, objektiv alle Informationen vorliegen (Aufenthalts­ ort, sämtliche tatsächlichen Anhaltspunkte zu Flucht- oder Wiederholungsge­ fahr etc.), und selbst subjektive Aspekte des Tatverdächtigen lassen sich aufgrund äußerer Umstände recht sicher beschreiben. Der Richter wird aber diese Informationen nicht als „Einzelfakten“ addieren und ein objektives Gesamtbild zeichnen. Vielmehr obliegt es seiner Verantwortung, die vorhan­ denen Informationen jeweils zu gewichten, zu interpretieren und zu deuten. Gleiches gilt im Verfahrensrecht: Der Richter muss Zeugenaussagen deuten, Beweise würdigen, abwägen, Auswirkungen antizipieren etc. Ein Mehr an objektiv vorhandenen Informationen führt also nicht per se zu einer rationa­ leren Entscheidung. e) Die Diskussion um den freien Willen Überlegungen zur Entscheidungsfindung im Rahmen einer rechtswissen­ schaftlichen Untersuchung sowie darüber, ob und wie Entscheidungsfindung rationaler gestaltet werden könnte, sind nur sinnvoll unter der Grundan­ nahme, dass Entscheidungen prinzipiell frei zustande kommen, wobei frei hier zunächst nicht vollständig determiniert bedeuten soll. Die (im Ergebnis in ihrer Wichtigkeit überschätzte) Frage nach dem freien Willen führte zu einer kontroversen und vielstimmigen öffentlichen Debatte – sowohl in den Wissenschaften verschiedener Disziplinen22 als auch in der 20  Vgl. etwa Krummenacher/Müller, Kapitel „Aufmerksamkeit“, in: Müsseler/Rie­ ger (Hrsg.), Allgemeine Psychologie, 3. Aufl., 2017, S. 104 (105 ff.). 21  Hacker, Verhaltensökonomik und Normativität, 2017, S. 116 ff., 752 f. 22  Vgl. die Zusammenstellung aus verschiedenen Disziplinen bei Tress/Heinz (Hrsg.), Willensfreiheit zwischen Philosophie, Psychoanalyse und Neurobiologie, 2007; interdisziplinär Köchy/Stederoth (Hrsg.), Willensfreiheit als interdisziplinäres Problem, 2006; Tress, Trotzdem: Willensfreiheit!, in: Tress/Heinz (Hrsg.), Willens­ freiheit zwischen Philosophie, Psychoanalyse und Neurobiologie, 2007, S. 65; rechts­ wissenschaftlich Lampe/Pauen/Roth (Hrsg.), Willensfreiheit und rechtliche Ordnung, 2008; aus Sicht des Strafrechts Adam/Schmidt et al., NStZ 2017, 7; Hillenkamp, JZ 2005, 313, bzw. der Strafrechtsphilosophie Merkel, Willensfreiheit und rechtliche Schuld, 2. Aufl., 2014; aus philosophischer Sicht Seebaß, Willensfreiheit und Deter­ minismus, 2007.

34

Erster Teil: Status quo richterlicher Entscheidungsfindung

breiten Öffentlichkeit.23 Unser Rechtssystem basiert jedenfalls auf der Grundüberzeugung, dass Menschen in ihren Gedanken und in ihrem Handeln frei sind.24 Art. 2 Abs. 1 GG garantiert jeder Person grundsätzlich die Mög­ lichkeit zur freien Entfaltung seiner Persönlichkeit – die allgemeine Hand­ lungsfreiheit.25 Die Freiheit der körperlichen (Fort-)Bewegung gewährt dane­ ben Art. 2 Abs. 2 S. 2 GG; auch diese ist Voraussetzung und Grundlage der Entfaltung des Bürgers.26 Daneben basiert das Konzept der Vertragsfreiheit, das unser Privatrecht ausmacht, als Ausprägung des Grundsatzes der Privat­ autonomie27 auf der Grundüberzeugung, dass Menschen freie und selbstbe­ stimmte Entscheidungen treffen können.28 Die Frage nach dem freien Willen stellt sich im Strafrecht in besonderem Maße.29 Der Staat droht Sanktionen für nicht mehr tolerables, abweichendes (Fehl-)Verhalten an. Dieser Strafanspruch ließe sich nur schwer begründen, wenn man davon ausgehen müsste, jedwede Entscheidung sei in ihrem Zu­ standekommen vollständig determiniert und stünde (vorbestimmt oder -be­ stimmbar) bereits im Vorhinein fest: Denn dann wäre eine vorsätzlich began­ gene Straftat nicht das Ergebnis einer bewussten und gewollten Handlung, sondern nur die unvermeidbare Folge von Kausalketten, die dem Täter gar keine andere Wahl gelassen hat. Der Neurobiologe Benjamin Libet, dessen Experimente Anfang der 1980er mehr oder weniger den Grundstein für die heutige Diskussion um den freien Willen legten, interpretierte seine For­ schungsergebnisse dahingehend, dass die Initiative für eine Willenshandlung zwar aus dem Unbewussten kommt oder kommen kann, ihre Ausführung aber stets einer Vetomöglichkeit des Bewusstseins – also dem bewussten Willen – unterliegt.30

23  Vgl. die gesammelten Beiträge aus der FAZ bei Geyer (Hrsg.), Hirnforschung und Willensfreiheit, 2004; populärwissenschaftlich etwa Stier, Willensfreiheit, 2014, sowie Gabriel, Ich ist nicht Gehirn, 2015. Siehe auch Precht, Wer bin ich – und wenn ja wie viele?, 2012, S. 146 ff. 24  Zum Menschenbild des Grundgesetzes siehe auch unten S. 346 ff. 25  Grundlegend BVerfGE 6, 32 (36 f.) – Elfes. 26  BVerfGE 128, 326 (372) – EGMR Sicherungsverwahrung. 27  Vgl. nur di Fabio, in: Maunz/Dürig (Begr.), GG, 39. Erg.-Lfg. (Juli 2001), Art. 2, Rn. 101 (zur Herleitung aus Art. 2 Abs. 1 GG); Ellenberger, in: Palandt (Begr.), BGB, 78. Aufl., 2019, Überbl. vor § 104, Rn. 1. 28  Vgl. zum Haftungsrecht und der grundsätzlichen Notwendigkeit eines persönli­ chen Vorwurfs Lindemann, Recht und Neurowissenschaften, in: Krüper (Hrsg.), Grundlagen des Rechts, 3. Aufl., 2017, S. 261 (263). 29  Dazu Adam/Schmidt et al., NStZ 2017, 7 (7 ff.). 30  Libet, Mind time, 2005, S. 159 ff., insbesondere S. 177 ff.; dazu auch Lindemann, Recht und Neurowissenschaften, in: Krüper (Hrsg.), Grundlagen des Rechts, 3. Aufl., 2017, S. 261 (261).



I. Problemaufriss35

Die Relevanz dieser Forschungsergebnisse für Justiz und Gesellschaft bleibt überschaubar: Die Vorgänge im menschlichen Zerebrum laufen nicht außerhalb der Naturgesetze, insbesondere des Prinzips von Ursache und Wir­ kung ab – sie sind also durchaus auf kausale Wirkmechanismen wie Gene, Erziehung, Prägung etc. sowie Ereignisse auf molekularer, atomarer und so­ gar subatomarer Ebene zurückzuführen.31 Das Gegenteil hiervon stellten rein zufällige Vorgänge dar.32 Entscheidungen, die auf Zufall beruhen, sind aller­ dings erst recht nicht das, was einen freien Willen ausmacht33 – nämlich Abwägen, Gewichten und Werten von Informationen und eine darauf ge­ stützte Optionenauswahl gerade aufgrund des Vorwissens und der eigenen Gedanken. So basiert auch diese Arbeit auf der Prämisse, dass Menschen Entscheidungen im Sinne des üblichen Sprachgebrauchs grundsätzlich frei treffen.34 f) Heuristiken Treffen Menschen Entscheidungen unter Unsicherheit, kommen sog. Ur­ teilsheuristiken zum Einsatz. Heuristiken sind bewährte Denkmuster, einfa­ che Faustregeln, welche die Entscheidungsfindung vereinfachen und kom­ plexe Urteile ermöglichen. Heuristische Verfahren35 basieren auf Vorwissen und Erfahrungen. Dabei leiten sie einfache Gesetzmäßigkeiten aus der Ver­ gangenheit ab; dergestalt können sie aber auch auf „falsche“ Erfahrungen (z.  B. verzerrte Wahrnehmungen, Scheinkorrelationen) begründet sein.36 Menschen setzen Heuristiken als vereinfachte Entscheidungsregeln in der Regel nicht bewusst ein; diese sind vielmehr auf Erfahrungen basierende automatische „Abkürzungen“ kognitiver Prozesse und ermöglichen, mit un­ 31  In einem streng deterministischen Verständnis lässt sich daher rein theoretisch jedes (äußere wie innere) Ereignis berechnen und vorhersagen. „Vorherbestimmbar­ keit“ ist indes nicht identisch mit einer (aktiven) Vorherbestimmung. 32  Phänomene und Modelle der Quantenphysik können hier keine Berücksichti­ gung finden. 33  Ähnlich Schuhr, Rechtstheorie 46 (2015), 225 (249): „Die Vorstellung, Indeter­ minismus laufe vom Standpunkt der Naturwissenschaften betrachtet auf Zufälligkeit hinaus, wäre grundlegend verfehlt. Personen, die sich regelmäßig unvorhersehbar verhalten, betrachten wir nicht als frei, sondern als psychisch krank und rechnen ih­ nen ihr Verhalten gerade nicht als eigene, freie Handlung zu“. 34  Für den strafrechtlichen Schuldvorwurf bedeutet das: Die Verschuldensfähigkeit eines Menschen resultiert aus einer alternativen Handlungsmöglichkeit, einem An­ ders-handeln-Können, vgl. Hacker, RW 2018, 243 (257 f.) m. w. N. Wie hier auch Adam/Schmidt et al., NStZ 2017, 7 (8 f.) m. w. N. 35  Klassische Beispiele sind die „Versuch und Irrtum“-Methode (trial and error) oder das Ausschlussverfahren. 36  Pillkahn, Innovationen zwischen Planung und Zufall, 2012, S. 170.

36

Erster Teil: Status quo richterlicher Entscheidungsfindung

vollständigen Informationen und wenig Zeit zu wahrscheinlich richtigen Lösungen oder Schlussfolgerungen zu kommen.37 Im Alltag haben sich Heu­ ristiken seit jeher bewährt: Sie helfen Menschen, sich schnell bzw. schneller (intuitiv) zu entscheiden, und reduzieren Komplexität.38 Sogar Nichtwissen kann sich positiv auswirken und Quelle neuer Innovation sein.39 Heuristiken treten bei alltäglichen Entscheidungen ubiquitär auf; auch in Organisations­ verbänden wie etwa Unternehmen kommen sie zum Einsatz.40 In anderen Situationen können Heuristiken zu systematischen Verzerrun­ gen und Abweichungen von einer rationalen Entscheidung führen bzw. eine solche verhindern. Besonders gravierend sind die Auswirkungen solcher Heuristiken dann, wenn die systematischen Verzerrungen unmittelbar oder mittelbar das Leben Dritter beeinflussen. Bei juristischen Entscheidungen wirken sich Verzerrungen und Rationalitätsschwächen besonders aus und bedingen den sensiblen Blick auf das zu untersuchende Diskriminierungspo­ tenzial.41 Heuristiken entlasten die Menschen in Alltagssituationen, indem sie schnelle Entscheidungen unter Zeitdruck und bei einer unvollständigen Informationslage ermöglichen. Richterliche Entscheidungen erfolgen zwar nach bewusstem Abwägen und einer möglichst vollständigen Sachverhalts­ aufklärung (z. B. bei Entscheidungsreife), sodass sie prima facie nicht anfäl­ lig für heuristikbasierte Verzerrungen sind. Dennoch bleiben gerichtliche Entscheidungen stets Entscheidungen unter Ungewissheit: Auch und gerade dem Gerichtsverfahren ist die „Unmöglichkeit der Erkenntnis objektiver Wahrheit“42 immanent.43

37  Grundlegend Tversky/Kahneman, Science 185 (1974), 1124 (1125  ff.). Siehe daneben nur den Sammelband Kahneman/Slovic/Tversky (Hrsg.), Judgment under uncertainty: Heuristics and biases, 1982, S. 3 ff. 38  Gigerenzer, Heuristics, in: Gigerenzer/Engel (Hrsg.), Heuristics and the Law, 2006, S. 17 (17 ff.); siehe auch Hafenbrädl/Waeger et al., Journal of Applied Research in Memory and Cognition 5 (2016), 215 (216 ff.). 39  Gigerenzer, Warum wir uns dem Wissen verweigern, Neue Zürcher Zeitung (Online) vom 5.1.2017. 40  Siehe ergänzend die systematische Literaturauswertung bei Loock/Hinnen, Jour­ nal of Business Research 68 (2015), 2027 (2027 ff.). 41  Das wohl prominenteste Beispiel ist die Ankerheuristik; vgl. die Auswahl und Einordnung der Heuristiken und Denkfehler unten S. 45 ff.; siehe auch die systema­ tische (aber weniger aktuelle und ohne Bezugnahme auf deutsches Recht verfasste) Darstellung bei Schweizer, Kognitive Täuschungen vor Gericht, 2005, S. 35 ff. 42  Kühne, Strafprozessrecht, 9. Aufl., 2015, S. 1 (§ 1, Rn. 1): Die „begrenzte Re­ konstruktion oder die Neukonstruktion von historischer Realität [ist] insoweit nicht Ziel, sondern erkenntnistheoretisch begründete Schwäche“ des Verfahrens. 43  Überspitzt: Pragmatische und (rein) dogmatische Rechtsfindung sind nicht im­ mer kongruent.



I. Problemaufriss37

g) Erkenntnistheorie und Fallibilismus Wie menschliche Entscheidungen zustandekommen, beschäftigt auch die Philosophie: So beschreibt bspw. der Begriff Fallibilismus einen Ansatz der Erkenntnistheorie, wonach es keine absolute Gewissheit geben kann und sich Irrtümer nie gänzlich ausschließen lassen.44 Wenngleich die Positionen der Erkenntnistheorie, insbesondere der Fallibilismus, für das Selbstverständnis der Rechtswissenschaft Bedeutung entfalten können,45 sind philosophische Aspekte hier nicht zu vertiefen.46 2. Die Subsumtion als Bestandteil juristischer Entscheidungsfindung Die Subsumtion ist einer der wichtigsten Bestandteile juristischer Arbeit – so auch in der Rechtsprechung. Subsumtion meint die Anwendung einer Rechtsnorm auf einen Sachverhalt, also die Unterordnung eines Lebenssach­ verhalts unter die Voraussetzungen der Rechtsnorm.47 Der Rechtsanwender überprüft die Übereinstimmung des konkreten Sachverhalts mit dem Tatbe­ stand der gesetzlichen Vorschrift(en) und leitet gerade daraus die Rechtsfolge nach einem „Wenn-dann“-Schema ab.48 Rechtsnormen sind regelmäßig in einem solchen Konditionalgefüge verfasst.49 Auf einen Bedingungs- (Tatbe­ stand) folgt ein Hauptsatz (Rechtsfolge), bspw. in Art. 16 S. 1 DSGVO – 44  Die gewichtigste fallibilistische Position in der Philosophiegeschichte ist Karl Poppers Kritischer Rationalismus. Als prägende Figur der modernen Erkenntnistheo­ rie hat Popper insbesondere das wissenschaftstheoretische Modell der Falsifikation und des rationalen Revisionismus entwickelt. Eine übersichtliche Darstellung der (vier) Hauptthesen Poppers gibt bspw. Birk, Rechtstheorie 48 (2017), 43 (43 f.): Da­ nach ist erstens Wissen stets nur vermutendes Wissen; Theorien über die Wirklichkeit können sich grundsätzlich als falsch herausstellen. Es gibt zweitens keine guten Gründe für die Wahrheit von Theorien. Drittens erfolgt Fortschritt in der Wissen­ schaft nur durch die Entwicklung neuer Theorien, die rational zu überprüfen sind, indem man nach möglichen, empirischen Gründen zu ihrer Widerlegung (Falsifika­ tion) sucht. Viertens ist Wahrheit eine „regulative Idee“, die zwar unerreichbar ist, aber der Orientierung dient. 45  Vgl. Damas, ARSP 89 (2003), 186 (186 f.). Das gilt etwa für die Frage, welche Lösungsmöglichkeit eines Meinungsstreits „richtig“ ist. 46  Vgl. zu deren grundsätzlich enger Beziehung zur Rechtswissenschaft Birk, Rechtstheorie 48 (2017), 43 (43 ff.). 47  Ausführlich und grundlegend Engisch, Einführung in das juristische Denken, 12. Aufl., 2018, S. 70 ff. Über die Frage, was genau Subsumtion ist, ließe sich freilich trefflich streiten. Hier genügt ein kurzer Überblick. 48  Vgl. etwa Hill, DÖV 2017, 433 (434). 49  Siehe zur konditionalen Struktur von Rechtsnormen auch Maurer/Waldhoff, All­ gemeines Verwaltungsrecht, 19. Aufl., 2017, S. 141 f.

38

Erster Teil: Status quo richterlicher Entscheidungsfindung

wenn die Daten unrichtig sind, dann sind sie zu berichtigen; in § 108 Abs. 1 BGB – wenn der Minderjährige einen Vertrag ohne die erforderliche Einwil­ ligung des gesetzlichen Vertreters schließt, dann hängt die Wirksamkeit die­ ses Vertrags von der Genehmigung des Vertreters ab; in § 434 Abs. 1 S. 1 BGB – wenn die Sache bei Gefahrübergang die vereinbarte Beschaffenheit hat, dann ist sie frei von Sachmängeln. Ist also die Bedingung gegeben, gilt die Aussage des Hauptsatzes ohne weitere Auslegung oder Interpretation. Oftmals birgt der ausformulierte Hauptsatz nicht genau ein konkretes, punktgenaues „Ergebnis“, sondern eröffnet einen Interpretations-, eben Ent­ scheidungsspielraum. Insbesondere die Vorschriften im Besonderen Teil des Strafgesetzbuches (§§ 80 ff. StGB) sowie im Nebenstrafrecht weisen diese Struktur auf. So regelt bspw. § 223 Abs. 1 StGB: Wenn jemand eine Körper­ verletzung begeht, dann wird er mit Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe bestraft. Diese Formulierung eröffnet dem Entscheider einen Spielraum. Bei erfüllter Bedingung gibt der Hauptsatz zwar eine unmissver­ ständliche Folge vor: Der Täter wird bestraft. Zum „Wie“ dieser Rechtsfolge gibt die Vorschrift aber nur grobe Leitlinien vor. Innerhalb dieser groben Leitlinien, dem Strafrahmen, richtet sich die Strafzumessung nach den §§ 46 ff. StGB, die den Entscheidungsspielraum begrenzen und den Entschei­ dungsprozess der Strafzumessung anleiten. Auf der Suche nach menschlichen Fehlern im richterlichen Entscheidungs­ prozess stellt sich die Frage, ob die Entscheidung über die Rechtsfolge Teil der Subsumtion bzw. vice versa die Subsumtion Teil der richterlichen Entscheidung ist oder diese nur vorbereitet. Die oben genannte Definition des Subsumtionsbegriffes – Unterordnung eines Sachverhalts unter eine Rechtsnorm – verleitet zunächst zu dem Schluss, dass das Auffinden der Rechtsfolge nicht Teil der Subsumtion sei. Denn die Rechtsfolge ergibt sich aus der Vorschrift selbst, dessen tatbestandliche Anwendbarkeit der Entschei­ der bejaht hat. Dem ist Folgendes entgegenzuhalten: Die Einschätzung, dass Sachver­ halt X unter Rechtsnorm Y fällt, ist Teil des Prozesses, der schlussendlich zur Gesamtentscheidung führt. In diesem Verständnis ist die Subsumtion je­ denfalls Teil des Gesamtentscheidungsprozesses.50 Die Subsumtion ist der Vorgang, wie der Rechtsanwender einen Lebenssachverhalt auf rechtlicher Ebene einordnet – und dabei eine abstrakte Vorschrift „mit Leben ausfüllt“. Zwar umfasst dieser Vorgang nicht das Endergebnis einer richterlichen Ent­ scheidung, also insbesondere nicht schon den Tenor bzw. die Rechtsfolge einer Entscheidung. Sie ist aber umgekehrt zwingende Voraussetzung der Entscheidung bzw. des Tenors und somit Teil des Entscheidungsprozesses. 50  Das gilt unabhängig davon, an welcher Stelle in einem Entscheidungs-Phasen­ modell man die Subsumtion einordnen will.



I. Problemaufriss39 Beispiele: In einem Strafprozess verkündet das Gericht: „Der Angeklagte wird wegen gefährlicher Körperverletzung zu einer Freiheitsstrafe von … Jahren verur­ teilt.“ Der Tenor (auch: Entscheidungsformel) enthält implizit die vorangegangene Subsumtion, dass nämlich die Handlung des Täters (Lebenssachverhalt) unter die Voraussetzungen der §§ 223, 224 StGB (Rechtsnorm) zu fassen ist. Ähnlich könnte es in einem zivilrechtlichen Streitfall einer Schmerzensgeldklage heißen: „Der Be­ klagte wird verurteilt, an den Kläger … zu zahlen.“ Der Tenor sagt aus, dass das Gericht den Sachverhalt unter die tatbestandlichen Voraussetzungen einer zivil­ rechtlichen Anspruchsgrundlage gefasst und sich daraufhin für eine Rechtsfolge entschieden hat.

Die Subsumtion und ihr Ergebnis sind Teil der Entscheidungsgründe eines Urteils bzw. der Gründe eines Beschlusses. Sie gehen der Tenorierung lo­ gisch voraus und sind damit nicht nur Teil des Urteils, sondern Teil des Entscheidungsprozesses.51 Subsumtion bedeutet daneben auch Interpretation. Der Rechtsanwender interpretiert das geschriebene Recht und konkretisiert das jeweilige Gesetz dadurch auch für dessen weitere (künftige) Anwendung. Er nimmt durch die Subsumtion aktiv am Rechtsbetrieb teil und gestaltet das Recht und die Rechtssprache pro futuro. Die Subsumtion kann nicht nur aus einem Blick­ winkel heraus im Sinne einer rein linearen Rechtsanwendung stattfinden, sondern der Sachverhalt beeinflusst die Norm und die Norm beeinflusst den Sachverhalt.52 Urteile, auch höchstrichterliche, sind zwar kein Gesetzesrecht und erzeugen keine damit vergleichbare Rechtsbindung.53 Der Richter kann also grundsätzlich von ihnen abweichen, ohne gegen Art. 20 Abs. 3 GG zu verstoßen;54 eine präjudizielle Bindung existiert (jenseits § 31 BVerfGG) nicht im deutschen Recht. Allerdings verfestigen sich Subsumtionen und In­ terpretationen; sie werden an anderer Stelle aufgegriffen und enthalten somit eine zukunftsgerichtete Komponente. Auch nach Ansicht des BVerfG beschränkt sich die richterliche Rechtsfin­ dung nicht auf den Vollzug vorgegebener Normen in dem Sinne, dass der Richter dabei als bloße „bouche de la loi“, also als „Subsumtionsautomat“ fungiert.55 Jeder richterlichen Tätigkeit ist vielmehr immanent, den Inhalt 51  Ähnlich Neumann, Subsumtion als regelorientierte Fallentscheidung, in: Gab­ riel/Gröschner (Hrsg.), Subsumtion, 2012, S. 311 (324 ff.). 52  Vgl. Schuhr, Subsumtion und Automatisierung, 20.1.2017, S. 11 f. 53  BVerfGE 84, 212 (227); BVerfG, NVwZ 2016, 1631 (1632); vgl. auch BVerfGE 38, 386 (396). 54  BVerfGE 84, 212 (227). 55  BVerfG, NVwZ 2016, 1630 (1631); vgl. aus Sicht der Rechtsinformatik auch Fiedler, Computers and the Humanities 25 (1991), 141 (141 f.). Rechtsgeschichtlich bestand schon früh eine Skepsis und Ablehnung gegenüber einer maschinenmäßigen Gesetzesanwendung, eben einem „Subsumtionsautomaten“; vgl. zu dieser rechtshisto­ rischen Perspektive Günzl, JZ 2019, 180 (180 ff.) m. w. N.; siehe auch Neumann,

40

Erster Teil: Status quo richterlicher Entscheidungsfindung

gesetzlicher Normen methodisch zu interpretieren und deren Anwendungsbe­ reich zu definieren, um auf der Grundlage des positiven, abstrakt-generell formulierten Gesetzes im Einzelfall über dessen Anwendung zu entscheiden. Aus diesem Grund ist auch die Rechtsanwendung die Erzeugung von neuem, noch nicht bestehendem Recht – auf der Grundlage und nach Maßgabe des anzuwendenden Rechts, dessen Vorgaben der Richter eruieren muss.56 Die juristische Methodik zielt darauf ab, Rechtstexte in einer bestimmten Art und Weise auszulegen und zu interpretieren, um deren Bedeutung juristisch kor­ rekt zu ermitteln – und dadurch sicherzustellen, dass nicht private Meinungen oder Vorurteile, sondern die gesetzgeberisch intendierte Textbedeutung für die richterliche Entscheidung maßgeblich ist.57 Zu den Hauptintentionen des Rechts gehört es gerade, Streitfälle, Fehlverhalten und rechtsrelevante Bezie­ hungen objektiv verbindlich und akzeptabel zu regeln – unabhängig von der Person, die im Einzelfall hierüber entscheidet. 3. Gefühle, Emotionen und das Recht Emotionen und Gefühle sind Gegenstand zahlloser Publikationen – von der politikwissenschaftlichen Forschung58 bis hin zu Ratgebern, die zeigen, wie sich Emotionen für beruflichen bzw. wirtschaftlichen Erfolg nutzen las­ sen.59 Auch im Recht, insbesondere in juristischen Entscheidungen, kommt ihnen Bedeutung zu: Emotionen vermögen bereits die Wahrnehmung und Einordnung der rechtlichen Relevanz und der Informationen eines Sachver­ halts zu beeinflussen.60 a) Begriffe und Hintergrund „Gefühl“ ist im allgemeinen Sprachgebrauch der weitergehende Begriff. Er schließt alle affektiven Phänomene ein.61 „Emotion“ beschreibt dagegen Subsumtion als regelorientierte Fallentscheidung, in: Gabriel/Gröschner (Hrsg.), Sub­ sumtion, 2012, S. 311 (311): „[D]as „Bild des Subsumtionsautomaten [ist] nicht zu verteidigen“. 56  BVerfG, NVwZ 2016, 1630 (1631); siehe auch Bernhart, Regeln der Jurispru­ denz, 2008, S. 97 ff. 57  Adrian, Rechtstheorie 48 (2017), 77 (83) m. w. N. 58  Vgl. etwa Korte (Hrsg.), Emotionen und Politik, 2015. 59  Vgl. etwa Hill, Emotionomics, 2008. 60  Landweer/Koppelberg, Der verkannte Zusammenhang von Recht und Emotion, in: dies. (Hrsg.), Recht und Emotion I, 2016, S. 13 (40 f.); Näheres sogleich. 61  Myers, Psychologie, 3. Aufl., 2014, S. 496 ff.; Landweer/Koppelberg, Der ver­ kannte Zusammenhang von Recht und Emotion, in: dies. (Hrsg.), Recht und Emo­ tion I, 2016, S. 13 (13).



I. Problemaufriss41

zumeist episodische Gefühle – also solche, die auf einen bestimmten Be­ zugsgegenstand gerichtet sind und akut verspürt werden.62 Denn anders als das Gefühl ist die Emotion – aus Sicht der handelnden Person – regelmäßig nach außen gerichtet. Nicht unter „Emotion“ fällt das, was in der deutschen Rechtstradition „Rechtsgefühl“ heißt und einen auf das positive Recht bezo­ genen Sinn für Gerechtigkeit bezeichnet.63 Eine genaue Unterscheidung der Begriffe „Gefühl“ und „Emotion“ kann hier unterbleiben, da lediglich der jeweilige Einfluss auf die Entscheidungsfindung im Fokus steht. Im menschlichen Gehirn übernimmt der präfrontale Cortex die Prozesse des Überlegens, Abwägens, rationalen Nachdenkens. Emotionen verarbeitet hingegen das limbische System.64 Durch Emotionen beeinflusste Entschei­ dungen sind dementsprechend grundsätzlich verdächtig, weniger rational zu sein als emotionslos getroffene. Weil der präfrontale Cortex im Vergleich zu anderen Hirnarealen überproportional viel Energie verbraucht, „automati­ siert“ das Gehirn einzelne Arbeitsschritte, was das limbische System wiede­ rum als belohnenswert empfindet. Dieser (biologische) Prozess kann so zu Schubladendenken und Vorurteilen führen.65 b) Wie sich Emotionen auf Entscheidungen auswirken aa) Befund Der emotionale Zustand einer Person hat Auswirkungen auf ihre kognitive Fähigkeit, Risiken einzuschätzen.66 Eine Rechtsordnung ist kein in sich ge­ schlossenes und lückenloses Begriffssystem; es verbleibt immer ein Spiel­ raum für Wertungen. Auch ein Richter kann Urteile nicht in einem rein rati­ 62  Landweer/Koppelberg, Der verkannte Zusammenhang von Recht und Emotion, in: dies. (Hrsg.), Recht und Emotion I, 2016, S. 13 (13 f.). 63  Landweer/Koppelberg, Der verkannte Zusammenhang von Recht und Emotion, in: dies. (Hrsg.), Recht und Emotion I, 2016, S. 13 (14 und 22). Als „Rechtsgefühle“ gelten hiernach insbesondere: Schuldgefühl, Reue, Zorn, Empörung, Scham, Achtung. Der Begriff des „Rechtsgefühls“, wie er vor allem im nicht-rechtswissenschaftlichen Kontext Anwendung findet, lässt jedenfalls vermuten, dass eine Verbindung zwischen Recht und Emotion oder Gefühl besteht. 64  Myers, Psychologie, 3. Aufl., 2014, S. 502 f.; Hock, „Unser Hirn kann nicht mit Geld umgehen“, FAZ vom 11.1.2017, S. 25. 65  Hock, „Unser Hirn kann nicht mit Geld umgehen“, FAZ vom 11.1.2017, S. 25. 66  Vgl. nur Johnson/Tversky, Journal of Personality and Social Psychology 45 (1983), 20 (23 ff.); Hänni, German Law Journal 13 (2012), 369 (369 ff.). Siehe auch die soziologischen Aspekte der Entscheidungstheorie bei Luhmann, Die Wirtschaft der Gesellschaft, 2. Aufl., 1989 in Kapitel 8 (Soziologische Aspekte des Entschei­ dungsverhaltens), S. 272 ff. Aus rechtsvergleichend-historischer Sicht interessant Filseck, GRUR 1976, 328 (328 ff.).

42

Erster Teil: Status quo richterlicher Entscheidungsfindung

onalen Erkenntnisvorgang ausschließlich aus der Norm bzw. den Normen ableiten.67 Aus diesem Grund trägt der Rechtsanwender immer zugleich persönliche Elemente in die Wahrnehmung des Sachverhalts herein.68 Wenngleich unser Rechtssystem erwartet, dass ein Richter zwei identische Sachverhalte nicht lediglich aufgrund situationsbedingter Emotionen unter­ schiedlich beurteilt, ist es dennoch offen für und bisweilen auch angewiesen auf „außerrechtliche“ Wertmaßstäbe.69 Als Beispiele können hier etwa der Umfang des elterlichen Erziehungsrechts (ehemals „Züchtigungsrecht“) aus Art. 6 Abs. 2 GG (vgl. aber § 1631 Abs. 2 BGB) oder die Generalklauseln „gute Sitten“ (§ 138 Abs. 1 BGB, § 826 BGB) und „Treu und Glauben“ (§ 242 BGB) dienen. Auch der Begriff der „öffentlichen Ordnung“ im Poli­ zei- und Ordnungsrecht ist eine „Inkorporation von Nichtrecht in die Rechtsordnung“70. Trotz identischen Wortlauts der Vorschriften wird ein Richter im Verlaufe der Zeit gleiche Sachverhalte unter Umständen völlig anders bewerten: Der gesellschaftliche Kontext und jeweils aktuelle Wert­ maßstäbe fließen regelmäßig in die Auslegung und Anwendung rechtlicher Vorschriften ein. Der Richter ist dadurch auf ein gewisses Vorverständnis, eine Vorwertung, angewiesen. Auch im Fall einer teleologischen Reduktion löst oft erst ein ungutes Gefühl, ein Missbehagen, ein gestörtes Richtigkeits­ empfinden die Gesetzeskorrektur durch Richterrecht aus – wenn nämlich die Anwendung der nach dem Wortlaut einschlägigen Norm dem intendierten Normsinn oder einem allgemeinen Gerechtigkeitssinn zuwiderliefe;71 ähnlich liegt es bei Analogien. bb) Phänomenologie und normative Einhegung Für den Umfang, in dem außerrechtliche Maßstäbe zulässig sein können, lässt sich zwischen der rechtlichen Entscheidung und ihrer Begründung un­ terscheiden.72 Die Entscheidung selbst ist immer auch Bewertung und inso­ weit grundsätzlich, jedenfalls rein tatsächlich, auch emotionalen Einflüssen zugänglich. Die Begründung der gefundenen Entscheidung ist hingegen (nur noch) Entscheiddarstellung und muss als solche (ausschließlich) der rechtli­ 67  Hänni,

163.

Vom Gefühl am Grund der Rechtsfindung, 2011, S. 50 ff., 61 ff. sowie

68  Zippelius,

Wertungsprobleme im System der Grundrechte, 1962, S. 128. und nachfolgend Hänni, Phänomenologie, in: Landweer/Koppelberg (Hrsg.), Recht & Emotion I, 2016, S. 227 (236 ff.). 70  Hoffmann-Riem, Innovation und Recht, 2016, S. 41. 71  Vgl. Hänni, Phänomenologie, in: Landweer/Koppelberg (Hrsg.), Recht & Emo­ tion I, 2016, S. 227 (239) m. w. N. und Beispielen. 72  Vgl. Hänni, Phänomenologie, in: Landweer/Koppelberg (Hrsg.), Recht & Emo­ tion I, 2016, S. 227 (240 ff.). 69  Dazu



I. Problemaufriss43

chen Logik folgen. Die Entscheidung stützt sich also typischerweise (auch) auf intuitiv-wertende Erkenntniselemente, welche dann im Rahmen ihrer Begründung rational erschlossen und argumentativ belegt werden (müssen).73 Gerade bei schwierigen Auslegungsfragen prägt die „Kompetenz einer pri­ mären intuitiven Wertung“ die juristische Urteilskraft wesentlich mit.74 Zwi­ schen Entscheidungsfindung und -begründung besteht auch in tatsächlicher sowie in zeitlicher Hinsicht ein Stufenverhältnis. Die Begründung, das aktive Auseinandersetzen mit den Entscheidungskriterien, zwingt den Entscheider dazu, eine zuvor (möglicherweise auch intuitiv) getroffene Entscheidung zu überdenken und zu reflektieren. Das Gefühl in der Rechtsprechung jedoch als „eines unserer primären Richtigkeitskriterien“ sowie generell als „Anker und Korrektiv für die Richtigkeitsentscheidung“75 anzusehen, kann nicht überzeugen. Denn eine solche Erhöhung wird der nüchtern-rationalen Grundausrichtung der Rechts­ ordnung als Kernelement eines Staates nicht gerecht. Es bestünde die Gefahr der Willkür durch überbordende Subjektivität und strukturell bedingte Un­ gleichbehandlung gleicher Sachverhalte.76 Einträglicher ist es, das Gefühl im Einzelfall als Korrektiv heranzuziehen, es aber nicht als Grundlage oder Rechtsprinzip zu adeln. Auch insoweit kann es etwa in bestimmten Fällen rechtsmissbräuchlichen Verhaltens eines Verfahrensbeteiligten sowie bei In­ teressenabwägungen mit sozialen Folgen als Kontrollinstanz oder Ausgleich fungieren. „Intuitiven Wertungsvorgängen ein maßgebliches Gewicht für die Rechts­ findung“ einzuräumen und eine „emotionale juristische Urteilskraft“ aufzudecken,77 scheint problematisch; emotionalen Einflüssen per se ein „starkes und eigenständiges Urteilsvermögen […] von zentraler Wichtigkeit“78 auch für juristische Entscheidungen zuzusprechen, kann in dieser Pauschali­ tät nicht überzeugen. Selbst wenn „gefühlsgeleitete Wahrnehmungsakte“ nicht nur „Ausgangspunkt der Normerkenntnis“, sondern auch „Vorausset­ zung aller deduktiv-rationalen juristischen Argumentation“79 wären, dürfte dies nicht über die Grundintention des Rechtssystems hinwegtäuschen – die Regeln des Zusammenlebens in einer Gemeinschaft objektiv und fair auszu­ 73  Hänni, a. a. O., S. 244; wohl auch Meier, Zur Diskussion über das Rechtsge­ fühl, 1986, S. 62. 74  Hänni, a. a. O., S.  228. 75  Hänni, a. a. O., S.  239 f. 76  Vgl. zur richterlichen Unabhängigkeit einerseits unten S. 102 ff., zur Rechts­ anwendungsgleichheit andererseits unten S. 118 f. 77  Hänni, a. a. O., S.  243. 78  Hänni, Vom Gefühl am Grund der Rechtsfindung, 2011, S. 167. 79  Hänni, Phänomenologie, in: Landweer/Koppelberg (Hrsg.), Recht & Emo­ tion I, 2016, S. 227 (245).

44

Erster Teil: Status quo richterlicher Entscheidungsfindung

gestalten und ihre Geltung unabhängig von dem, der über ihre Anwendung im Einzelfall entscheidet, festzuschreiben. Auch Gefühle, etwa ein Gefühl der Ungerechtigkeit, gründen sich freilich in der intuitiven Wertung auf Fak­ ten der Außenwelt. Entscheidend ist also das Zusammentragen, das Gewich­ ten, das In-Beziehung-Setzen der Fakten eines Falles, woraus ein Gefühl entstehen kann. In die Entscheidung einfließen sollten dann aber die Fakten, die dem Gefühl zugrunde liegen, sowie ihre Gewichtung – und nicht das Gefühl selbst. cc) Grenzen Der Einfluss emotionaler Auswirkungen auf eine gerichtliche Entschei­ dung darf nicht überborden. Bspw. kann es die in einem Strafprozess ent­ scheidenden Richter auf emotionaler Ebene berühren und deren Urteil beein­ flussen, wenn die Staatsanwaltschaft Beweise anhand grausamer Bilder oder Videos einführt.80 So reagieren Richter, die grausame Fotos des Opfers se­ hen, deutlich emotionaler als diejenigen Kollegen, die die Fotos nicht be­ trachten.81 Insbesondere die Emotionen Wut und Abscheu gegenüber dem Angeklagten wirken sich auch auf die richterliche Entscheidung aus, indem sie etwa die Wahrscheinlichkeit einer Verurteilung oder das Strafmaß erhö­ hen.82 Richter sind insbesondere nicht kraft ihrer beruflichen Ausbildung immun gegen den Einfluss von Emotionen und Sympathien.83 Es liegt auf der Hand, dass es zu ungerechtfertigten Ungleichbehandlungen vergleichba­ rer Fälle führen kann, wenn nicht die die Emotion auslösenden Fakten (etwa eine besonders brutale Tatausführung als Indiz für ein höheres Maß an per­ sönlicher Schuld), sondern die Emotion selbst sich im Entscheidungsprozess auswirkt. Hinzu kommt das psychologische Phänomen, dass insbesondere 80  Bright/Goodman-Delahunty, Law and Human Behavior 30 (2010), 183 (197); vgl. auch Bandes/Salerno, Arizona State Law Journal 46 (2014), 1003 (1054 f.); Ware, Emotions in the Evaluation of Legal Risk, in: Landweer/Koppelberg (Hrsg.), Recht und Emotion I, 2016, S. 249 (256 ff.); siehe dazu bereits Bright/Goodman-Delahunty, Psychiatry, Psychology and Law 11 (2004), 154 (155 ff.). 81  Bright/Goodman-Delahunty, Law and Human Behavior 30 (2010), 183 (183 ff.). 82  Vgl. Ware, Emotions in the Evaluation of Legal Risk, in: Landweer/Koppel­ berg (Hrsg.), Recht und Emotion I, 2016, S. 249 (258 f.). Das englische disgust kann auch „Ekel“ oder „Empörung“ bedeuten. Siehe allgemein zum Einfluss „optischer Beweismittel“ auf die Gefühle des Entscheiders und dadurch auf die Entscheidung auch Feigenson, Psychonomic Bulletin & Review 17 (2010), 149 (149 ff.). 83  Wistrich/Rachlinski et al., Texas Law Review 93 (2015), 855 (898 ff.); im Kern zustimmend, aber die Rhetorik von Wistrich et al. („Heart versus Head“) kritisierend, weil sich beides nicht ausschlösse, Maroney, Texas Law Review (See Also) 93 (2015), 317 (318 ff., 330); vgl. auch Eren/Mocan, American Economic Journal: Ap­ plied Economics 10 (2018), 171 (186 ff.).



I. Problemaufriss45

die Emotion Wut oftmals mit einer erhöhten Entscheidungsselbstsicherheit einhergeht: Wütende Richter sind sich ihrer Entscheidung sicherer.84 Wo Entscheider zu Neutralität und Rationalität verpflichtet sind und zu­ dem die Gesellschaft erwartet, dass die Träger hoheitlicher Gewalt diese Werte achten, wirkt ein emotionaler Einfluss befremdlich. Gefühle und Emo­ tionen lassen sich also durchaus „nutzen“, etwa in einzelnen Fällen als Kor­ rektiv heranziehen; sie bleiben aber gesetzesfremde Einflüsse, die nicht den Status von Rechtsprinzipien verdienen. 4. Denkfehler, Rationalitätsschwächen und weitere rechtsfremde Einflüsse – Beispiele und Studien (Auswahl) a) Einführung Um Situationen zu verstehen, Informationen zu interpretieren und ange­ messen zu reagieren, führt das menschliche Gehirn bereits vorliegende sowie neue Informationen unbewusst und unverzüglich mit bereits abgespeichertem Erfahrungswissen zusammen.85 Zur Informationsverarbeitung bildet es neu­ ronale Netze: Es speichert Informationen nie separat, sondern nutzt assozi­ ierte Informationseinheiten mit (Prinzip der automatischen Ausbreitung).86 84  Feigenson, Emotional Influences on Judgments of Legal Blame, in: Bornstein/ Wiener (Hrsg.), Emotion and the Law, 2010, S. 45 (46 ff.). Insgesamt sind Personen mit einem verminderten emotionalen Reaktionsvermögen wohl in der Lage, vorteil­ haftere Entscheidungen (jedenfalls in Entscheidungskonstellationen unter Unsicher­ heit) zu treffen, vgl. Shiv/Loewenstein et al., Cognitive Brain Research 23 (2005), 85 (88). Die Studie von Shiv et al. untersuchte Investmententscheidungen, bei denen der Gewinn zu maximieren war – Rückschlüsse auf richterliche Entscheidungen sind in­ soweit nicht unmittelbar möglich. Grundsätzlich nach einer vollständigen Abwesen­ heit von Emotionen in (grund-)rechtsrelevanten Entscheidungen zu verlangen, er­ scheint vor diesem Hintergrund nachvollziehbar, führte aber kaum zu einer Verbesse­ rung der Entscheidungen: So konnte der Neurowissenschaftler und Psychologe Damásio etwa nachweisen, dass Personen, die Schäden an den für Emotionen „zustän­ digen“ Hirnarealen erlitten, deutlich schlechter Risikoentscheidungen zu treffen in der Lage sind als die Personen der Vergleichsgruppe, die emotionaler Verzerrung unterlie­ gen, vgl. insbesondere Bechara/Damásio et al., Cerebral Cortex 10 (2000), 295 (297 ff.), siehe auch Damásio, Descartes’ Irrtum, 1997. Völlig ohne Gefühle und Emotionen treffen Menschen in Entscheidungssituationen unter Unsicherheit also re­ gelmäßig noch schlechtere Risikoentscheidungen – Gefühle bilden die Brücke zwi­ schen der kognitiv-rationalen Risikoevaluation und einem risikoadäquaten tatsächli­ chen (Entscheidungs-)Verhalten, vgl. Loewenstein/Weber et al., Psychological Bulletin 127 (2001), 267 (274). Viele richterliche Entscheidungen sind Risikoentscheidungen, etwa die Entscheidung über eine Strafaussetzung zur Bewährung (vgl. § 56 StGB). 85  Clark, Behavioral and Brain Sciences 36 (2013), 181 (187 ff.). 86  Dazu und zum Folgenden Glöckner/Towfigh, DRiZ 2015, 270 (271).

46

Erster Teil: Status quo richterlicher Entscheidungsfindung

Dieses Prinzip kann bspw. im Kontext von Zeugenaussagen problematische Fehler erzeugen. So lässt sich z. B. die Wahrscheinlichkeit für das fälschliche Erinnern der Farbe eines Fahrzeugs manipulieren. Der Begriff „Feuerwehr“ etwa ruft unbewusst die Assoziation mit der Farbe Rot hervor. Die Informationseinheiten im Gehirn hemmen und aktivieren sich zudem gegenseitig. Das menschliche Hirn nimmt neue Informationen nicht neutral auf. Bspw. bildet und akzentuiert es stets diejenige Deutung einer Situation, welche die bereits vorhandenen (abgespeicherten) Informationen am besten erklärt. Bereits die Informationsaufnahme im menschlichen Zerebrum ist also nicht „objektiv“. Das kann dazu führen, dass sich die (neuen) Informa­ tionen eines Sachverhalts bzw. eines juristischen Falles automatisch und un­ bewusst zu einer möglichst kohärenten Interpretation zusammenfügen – und etwaige Gegenevidenz abwerten.87 Die Entscheidungspsychologie ist mittlerweile ein eigener Forschungs­ zweig; auch die Psychologie speziell der juristischen Entscheidungsfindung erfährt seit einiger Zeit ein gestiegenes Interesse.88 Die Erwartungsnutzenthe­ orie und das Modell des homo oeconomicus büßen an Stellenwert gegenüber der Neuen Erwartungstheorie (prospect theory) ein: Kognitive Verzerrungen modifizieren systematisch die Rationalität menschlicher Handlungen und Entscheidungen. Das Gros der empirischen Forschung auf diesem Gebiet findet in den USA statt.89 Einzelne Ergebnisse sind vor dem Hintergrund zu betrachten, dass sich das US-amerikanische und das deutsche Rechtssystem in großen Teilen unterscheiden. In den USA sind die Gerichte (und die ent­ scheidenden Richter) stärker abhängig von den durch die Prozessparteien vorgebrachten Beweisen.90 Nach deutschem Prozessrecht sind die Gerichte in deutlich größerem Umfang – über das Vorbringen der Prozessbeteiligten hinausgehend – verpflichtet, den korrekten Sachverhalt zu ermitteln und zur Basis ihrer Entscheidung zu machen. Im Strafprozess besteht die Aufklä­ 87  Vgl. Simon, University of Chicago Law Review 71 (2004), 511 (536 f., 549 ff.); zum sog. Selbstbestätigungsfehler (Confirmation Bias) ausführlich unten S. 63 ff. 88  Vgl. etwa Vidmar, Current Directions in Psychological Science 20 (2011), 58 (58 f.) m. w. N. 89  Überblick etwa bei Vidmar, Current Directions in Psychological Science 20 (2011), 58 (58 ff.) m. w. N. sowie im interdisziplinären Sammelband Klein/Mitchell (Hrsg.), The Psychology of Judicial Decision Making, 2010. Siehe auch die Darstel­ lung der empirischen Befunde (speziell der Verhaltensökonomik) bei Hacker, Verhal­ tensökonomik und Normativität, 2017, S. 79 ff. Selbstverständlich gibt es viele wei­ tere (potenzielle) Einflussfaktoren auf die richterliche Entscheidungsfindung: allen voran die jeweilige Rechtskultur, aber gleichsam auch Vorverständnis und Methoden­ wahl ebenso wie das Verfahren der Richterwahl bzw. -ernennung sowie ökonomische Aspekte. Nachfolgend bleibt der Fokus zunächst auf der verhaltensökonomischen Analyse des Entscheidungsprozesses. 90  Vgl. insbesondere zum Strafprozess unten S. 386 f.



I. Problemaufriss47

rungspflicht des § 244 Abs. 2 StPO. Im Zivilprozess- sowie im Verwaltungs­ prozessrecht gilt zwar in erster Linie die Dispositionsmaxime, nach der grundsätzlich die Parteien das Verfahren beherrschen (§ 308 ZPO; § 92 VwGO); allerdings besteht auch hier die Pflicht des Gerichts, die Prozesspar­ teien zu unterstützen und etwa darauf hinzuwirken, dass diese die geeigneten Anträge stellen (§ 139 ZPO; § 173 VwGO i. V. m. § 139 ZPO). Die skizzierten Studien lassen aber trotz der Unterschiede in den Rechts­ systemen auch Rückschlüsse auf deutsche Entscheidungsträger zu, soweit sie nicht zuvorderst spezielle Aspekte des US-amerikanischen Rechts beleuch­ ten, sondern den Prozess der Entscheidungsfindung aus (kognitions-)psycho­ logischer Sicht zum Gegenstand haben; die Unterschiede im Rechtssystem fallen für die Frage der Entscheidungsfindung eher klein aus. Zudem lassen sich empirisch belegte Ergebnisse durchaus rechtssystemübergreifend bestä­ tigen.91 Darüber hinaus ist den für die juristische Entscheidungsfindung re­ levanten (untersuchten) Rationalitätsschwächen gemein, dass die juristische Ausbildung nicht darauf vorbereitet, ihnen adäquat begegnen zu können.92 b) Implizite Assoziationen Rationalitätsschwächen erfolgen sowohl im alltäglichen Verhalten als auch im Rahmen der (juristischen) Entscheidungsfindung überwiegend nicht im Rahmen des Bewussten. Auf den ersten Blick ist das offenkundig. Manche Verzerrungen treten aber selbst dann auf, wenn sich die Personen aktiv mit dem Denkfehler befassen und sogar explizit darüber informiert wurden, dass das die Verzerrung auslösende Element zufällig zustande kam und keinerlei Auswirkung auf die Entscheidung haben sollte.93 Der menschliche Geist ist nicht ohne Weiteres in der Lage, unbewusste Schwächen und Fehler gänzlich 91  Rachlinski/Wistrich et al., Indiana Law Journal 90 (2015), 695 (710 ff.); die Studie involvierte über 600 Richter in drei verschiedenen Ländern. Weil insbesondere das Strafmaß eine leicht quantifizierbare und damit gut vergleichbare Variable dar­ stellt – vgl. etwa Schmid, Vom Pendeln des Blickes – Wie kommt der Richter zum Fall?, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Rich­ ters, 2009, S. 95 (97) – haben einige der nachfolgend beispielhaft dargestellten Stu­ dien (nur) die strafgerichtliche Entscheidungsfindung zum Gegenstand. Einzelne Studienergebnisse und deren Aussagekraft sind aber ohnehin stets kritisch zu betrach­ ten bzw. zu bewerten; siehe zum empirischen Gehalt psychologischer Theorien und zur Aussagekraft empirischer Studien noch Glöckner/Betsch, Judgment and Decision Making 6 (2011), 711 (711 ff.). 92  Eine Systematik i. S. einer Modellbildung über Risikofaktoren für strafgericht­ liche Fehlentscheidungen hat jüngst auch Dunkel, Fehlentscheidungen in der Justiz, 2018, S. 60 ff., skizziert. 93  Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (192 ff.); dazu unten S. 53 ff.

48

Erster Teil: Status quo richterlicher Entscheidungsfindung

durch bewusstes Nachdenken auszugleichen. Das gilt auch für einen Ent­ scheider, der für sich selbst in Anspruch nimmt, in keiner Weise diskriminie­ rend zu agieren oder Vorurteile und Stereotype in seine Entscheidungen ein­ fließen zu lassen. Ein (in der Wissenschaft nicht unumstrittener) Test macht dies plastisch: Der sog. „Implizite Assoziationstest (IAT)“94 konnte bei einer Mehrheit der Testpersonen zeigen, dass deren Assoziation positiver Begriffe mit Bildern hellhäutiger Menschen häufiger vorkommt als die mit dunkelhäutigen Men­ schen (und vice versa). In Rede steht dabei eine unbewusste Diskrepanz zwischen Erwartungen und Selbsteinschätzungen einerseits und tatsächlichen Wertungen und Handlungen andererseits: Jenseits bewusster Erkenntnis und Kontrolle können Gedanken und Gefühle Auswirkungen auf das Entschei­ 94  Eine deutsche Version ist online abrufbar unter https://implicit.harvard.edu/im plicit/germany/. Vgl. dazu mit dem Fokus auf strafrechtliche Entscheidungen Rachlinski/Johnson et al., Notre Dame Law Review 84 (2009), 1195 (1197 ff.). Dem IAT liegt die Annahme zugrunde, dass es Menschen leichter fällt, auf (unbewusst) mitein­ ander verknüpfte bzw. assoziierte Kategorien („assoziierte Konzepte“) mit derselben Antworttaste zu reagieren als mit einer entgegengesetzten Antworttaste. Der Test ist ein reaktionszeitbasiertes indirektes Verfahren zur Messung der Stärke assoziativer Verknüpfungen; er wurde für verschiedene Kategorisierungen konzipiert, u. a. Rassis­ mus, Sexismus, Geschlecht und Karriere, Nationalismus. Vgl. zu den kognitiven Prozessen im Einzelnen und dem kognitionspsychologischen Hintergrund Mierke, Kognitive Prozesse und der IAT, 2004, S. 7 ff. Die Testpersonen sollen am Computer durch Tastendruck verschiedene Reize kategorisieren. Die Reize weisen entweder eine bestimmte Eigenschaft auf – z. B. positive oder negative Wörter – oder sind ei­ ner von zwei Kategorien („Zielkonzepten“) zugehörig, welche sich nicht überlappen (z. B. helle oder dunkle Hautfarbe, weibliche oder männliche Namen). Jeweils zwei Antwortkategorien dieser sog. Diskriminationsaufgaben sind einer gemeinsamen Ant­ worttaste zugeordnet. Das Testergebnis ergibt sich aus einem Vergleich der Reakti­ onszeiten in den einzelnen Phasen. In der ersten von insgesamt fünf Phasen sollen die Probanden Wörter mittels Tastendrucks als positiv oder negativ kategorisieren. Alle Phasen laufen ähnlich ab. In der zweiten Phase geht es darum, Bilder von Personen in die Kategorien „weiße Hautfarbe“ und „schwarze Hautfarbe“ einzuordnen, eben­ falls wieder mittels Betätigung derselben Tasten; im „Geschlechts-IAT“ sind stattdes­ sen Vornamen in „männlich“ oder „weiblich“ zu kategorisieren. Die dritte Phase verbindet die Aufgaben aus den ersten beiden Phasen. Die Antworttasten sind jetzt doppelt belegt. Bei positiven Wörtern und bei Menschen mit heller Hautfarbe (bzw. im parallelen Test weiblichen Namen) soll der Proband die linke Taste betätigen, bei negativen Wörtern sowie Menschen mit dunkler Hautfarbe (bzw. männlichen Namen) die rechte Taste. In der vierten Phase beginnt nun der eigentliche Test. Hier ist die Tastenkombination bezüglich der „Zielkonzepte“ vertauscht: Der Proband soll mit der linken Taste auf Menschen dunkler Hautfarbe (bzw. männliche Namen) reagieren und mit der rechten Taste auf Menschen heller Hautfarbe (bzw. weibliche Namen). Die fünfte Phase ähnelt der dritten. Allerdings sind hier die Seiten getauscht, d. h. der Proband soll auf positive Wörter und Menschen dunkler Hautfarbe (bzw. männliche Namen) mit der linken Taste reagieren und bei negativen Wörtern sowie Menschen heller Hautfarbe (bzw. weiblichen Namen) die rechte Taste betätigen.



I. Problemaufriss49

dungsverhalten haben.95 Im Test reagieren die Menschen in derjenigen Phase (durchschnittlich) schneller, die für sie eine „kompatible Zuordnung“ auf­ weist – etwa „positiver Begriff“ und „Mensch mit heller Hautfarbe“. Hervorzuheben ist dabei nicht allein der Umstand, dass einzelne Fakto­ ren – wie etwa die Hautfarbe des Gegenübers – bestimmte Reaktionen und Assoziationen bei den Testpersonen auslösen. Überraschend ist vor allem, dass die unmittelbaren Testergebnisse und die Selbsteinschätzung der meis­ ten Testpersonen deutlich auseinanderliegen. Das Phänomen, dass die Asso­ ziation negativer Begriffe mit Bildern dunkelhäutiger Menschen stärker aus­ geprägt ist als diejenige mit hellhäutigen, kommt auch und gerade bei Perso­ nen vor, die für sich deklarieren, keinerlei Vorurteile gegenüber Personen dunkler Hautfarbe zu hegen und ein solches Ergebnis daher nicht erwarten. Der IAT versucht aufzuzeigen, dass nicht nur bewusst gewählte bzw. be­ stehende Vorurteile oder Vorbehalte das menschliche (Entscheidungs-)Ver­ halten beeinflussen. Auch Sozialisation und verbreitete Stereotype spielen eine entscheidende Rolle: Implizite Assoziationen zeichnen sich gerade da­ durch aus, dass sie nicht auf bewusstem Reflektieren basieren und sich nicht einfach „löschen“ lassen. Aktives Training kann die Folgen des Implicit Bias aber reduzieren. So konnten Psychologen zeigen, dass US-amerikanische Polizisten in einer Computersimulation häufiger auf dunkelhäutige virtuelle Verdächtige schießen als auf weiße; mit fortdauerndem Training aber verklei­ nert sich der Unterschied.96 Auch Motivationen haben Einfluss darauf, wie sich Vorurteile und (implizite) Assoziationen auswirken.97 In begrenztem Umfang ist es demnach möglich, die Auswirkungen des Implicit Bias zu steuern bzw. zu reduzieren.98 Die Ergebnisse des IAT sind indes nicht überzubewerten, kommen für die Effekte doch auch alternative Ursachen in Betracht:99 Sofern assoziative 95  Die zentrale abhängige Variable, der sog. IAT-Effekt, beschreibt die Reaktions­ zeitdifferenz zwischen einer kompatiblen Bedingung, in der assoziierte Konzepte je­ weils auf derselben Antworttaste liegen, und einer inkompatiblen Bedingung, in der assoziierte Konzepte jeweils auf verschiedenen Antworttasten liegen, vgl. Mierke, Kognitive Prozesse und der IAT, 2004, S. 7. 96  Plant/Peruche, Psychological Science 16 (2005), 180 (180 ff.). 97  Vgl. Devine/Plant et al., Journal of Personality and Social Psychology 82 (2002), 835 (835 ff.). Vertiefend zur Kontrolle von Vorurteilen Plant/Devine, Journal of Personality and Social Psychology 75 (1998), 811 (811 ff.), sowie dies., Journal of Personality and Social Psychology 96 (2009), 640 (640 ff.). 98  Plant/Peruche et al., Journal of Experimental Social Psychology 41 (2005), 141 (144 ff.); Plant/Devine et al., Journal of Experimental Social Psychology 45 (2009), 961 (962 f.); Plant/Devine, Journal of Personality and Social Psychology 96 (2009), 640 (641 ff.). 99  Schnabel/Asendorpf et al., European Journal of Psychological Assessment 24 (2008), 210 (210 ff.); Mierke/Klauer, Journal of Personality and Social Psychology 85

50

Erster Teil: Status quo richterlicher Entscheidungsfindung

Verknüpfungen nur hinreichend, jedoch nicht notwendig für das Auftreten der Effekte sind, lassen sie keinen Rückschluss auf das Vorliegen bestimmter Assoziationen zu.100 Korrelationen und Kausalzusammenhänge sind dann nicht klar zu trennen.101 Geeignet ist der IAT aber immerhin, um darzustel­ len, wie sich Assoziationen und Rationalitätsschwächen in Handlungen und Entscheidungen niederschlagen können: unbewusst, oft unbemerkt und mög­ licherweise mit diskriminierenden Auswirkungen. c) Priming und Framing Von Priming spricht die Psychologie, wenn ein vorangegangener Reiz implizite Gedächtnisinhalte aktiviert hat und dies anschließend die Verarbei­ tung eines nachfolgenden Reizes beeinflusst.102 Der Kontakt mit den entspre­ chenden Informationen (die Vorerfahrung) führt zu einer Aktivierung speziel­ ler Assoziationen im Gedächtnis.103 Auch Priming ist ein unbewusster Pro­ zess, dessen Effekt in erster Linie bei Handlungen auftritt, die die handelnde oder entscheidende Person nicht gesondert reflektiert.104 Stärker als die Auswirkungen des Primings auf das Treffen bewusster Ent­ scheidungen ist der Framing-Effekt:105 Verschiedene Formulierungen einer Botschaft gleichen Inhalts beeinflussen das Verhalten des Empfängers auf (2003), 1180 (1180 ff.). Der Vergleich der Reaktionszeiten in den verschiedenen Test­ phasen wirft keine absoluten, sondern lediglich relative Werte aus. 100  Mierke/Klauer, Journal of Personality and Social Psychology 85 (2003), 1180 (1187 ff.). Daneben bestreiten einige Forscher bereits die Grundannahme des IAT, dass eine Assoziation zwischen kognitiven Konzepten die Basis für die Varianz der Reaktionszeit darstellt; vgl. etwa Rothermund/Wentura, Journal of Experimental Psy­ chology 133 (2004), 139 (159 f.), wonach auch sog. Figur-Grund-Asymmetrien die Ergebnisse des IAT gleichermaßen erklären könnten. 101  Zum Problem der sog. methodenspezifischen Varianz konstatiert Mierke, Kog­ nitive Prozesse und der IAT, 2004, S. 163 ff., dass der IAT als flexibles Werkzeug zur Erfassung assoziativer Verknüpfungen einen fruchtbaren Beitrag leisten könne, eine ausschließlich auf den IAT gestützte Forschungsstrategie bei der Untersuchung kog­ nitiver Prozesse aber keine grundlegenden und verwertbaren Schlüsse zulasse. Erst in Kombination mit andersartigen Verfahren könne der IAT einen inhaltlichen Erkennt­ nisgewinn bringen. 102  Vgl. etwa Kahneman, Schnelles Denken, langsames Denken, 2012, S. 72 ff., sowie Mussweiler/Damisch, Journal of Personality and Social Psychology 95 (2008), 1295 (1295 ff.). Der deutsche Begriff „Bahnungs-Effekt“ ist eher ungebräuchlich. 103  Vertiefend zur stereotypen Aktivierung Mussweiler, Psychological Science 17 (2006), 17 (17 ff.). 104  Kahneman, Schnelles Denken, langsames Denken, 2012, S. 73 f. 105  In deutscher Sprache sind alternativ auch „Einrahmungs-“ oder „RahmungsEffekt“ geläufig, vgl. Falk/Alles, ZIP 2014, 1209 (1209); siehe auch Dobelli, Die Kunst des klaren Denkens, 2011, S. 173 ff.



I. Problemaufriss51

unterschiedliche Weise.106 Allein aufgrund der Form der Präsentation bewer­ ten Menschen inhaltsgleiche Informationen unterschiedlich. Selbst minimale Veränderungen in der Art und Weise der Informationsvermittlung und gering­ fügige Variationen des Entscheidungskontextes können zu dramatischen Veränderungen im Entscheidungsverhalten führen.107 Je nachdem, wie einer Person die zu treffende Auswahl präsentiert wird – z. B. indem entweder die Gewinn- oder die Verlustmöglichkeiten dominieren – entscheidet sich die Person anders, obwohl beide Auswahlmöglichkeiten inhaltlich exakt diesel­ ben Folgen haben.108 Der Darstellungsrahmen der Alternativen sowie der je­ weiligen Risiken oder Chancen führt also zu einer unterschiedlichen Aus­ wahlentscheidung. In einem Test109 trug man den Teilnehmern auf: Stellen Sie sich vor, Ihr Land bereite sich auf eine Epidemie vor, die ca. 600 Menschenleben fordern wird. Sie müssen zwischen 2 alternativen Programmen zur Bekämpfung der Krankheit wählen. Programm A 1 wird 200 Menschenleben retten. Programm B 1 wird mit einer Wahrscheinlichkeit von 1 : 3 600 Menschenleben retten, mit einer Wahrscheinlichkeit von 2 : 3 kein Menschenleben. Die große Mehr­ zahl der Teilnehmer zieht die sichere Version (A 1) der „Lotterie“ (B 1) vor. Sodann führte man eine zweite Version des Tests durch und stellte die Teil­ nehmer wiederum vor die Wahl: Bei Programm A 2 werden 400 Menschen sterben. Bei Programm B 2 besteht eine Wahrscheinlichkeit von 1 : 3, dass niemand stirbt, und eine Wahrscheinlichkeit von 2 : 3, dass 600 Menschen sterben. Die Folgen in beiden Testversionen waren also jeweils (A 1 und A 2 sowie B 1 und B 2) identisch. In der zweiten Testversion entschied sich je­ doch die große Mehrheit der Testpersonen für das Glücksspiel der Variante B 2. Entscheider wählen bei positiven bzw. positiv formulierten Ergebnissen eher die sichere Version und sind risikoscheu, bei negativen bzw. negativ formulierten Ergebnissen verwerfen sie jedoch die sichere Option zugunsten des Glücksspiels und entscheiden risikofreudig.110

106  Grundlegend zum Framing-Effekt – wenngleich der Begriff hier noch nicht auftaucht – Tversky/Kahneman, Science 185 (1974), 1124 (1124  ff.); weiterhin Kahneman, Schnelles Denken, langsames Denken, 2012, S. 447 ff.; Kahneman/Tversky, American Psychologist 39 (1984), 341 (343 ff.). 107  Stocké, Framing und Rationalität, 2002, S. 10. 108  Kahneman, Schnelles Denken, langsames Denken, 2012, S. 448 f. 109  Kahneman/Tversky, American Psychologist 39 (1984), 341 (343). 110  Kahneman/Tversky, American Psychologist 39 (1984), 341 (343). Der wirt­ schaftswissenschaftliche Ansatz, zur Erklärung menschlichen Verhaltens auf die The­ orie der rationalen Entscheidung abzustellen, gelangt hier an seine Grenzen. Der Framing-Effekt gilt als schwerwiegende Anomalie dieses Modells. Vgl. auch Stocké, Framing und Rationalität, 2002, S. 10 f.

52

Erster Teil: Status quo richterlicher Entscheidungsfindung

Neben die Schwierigkeiten, die Menschen mit der rationalen Auswahl zwischen mehreren Optionen haben, tritt die Unfähigkeit, bekannte Informa­ tionen vollständig zu ignorieren: Das menschliche Hirn nutzt in seiner Ent­ scheidungsfindung – ohne, dass dies ein bewusstes Vorgehen ist – automa­ tisch alle Informationen, die es über einen bestimmten Sachverhalt hat, um einen verstehbaren Vorgang zu konstruieren. Dass die Informationslage vor einer Entscheidung meist nicht vollständig ist und es anhand dessen zu einer vorschnellen, falschen Beurteilung der Kausalbeziehungen kommt („what you see is all there is“111), ist dabei grundsätzlich noch kalkulierbar und zu akzeptieren. Es stellt im juristischen Kontext jedoch ein Problem dar, wenn – umgekehrt – ein Entscheider juristisch irrelevante Informationen, die er bspw. zufällig im Rahmen der Sachverhaltsaufklärung erfahren hat, im Ent­ scheidungsprozess nicht wirksam ausblenden kann.112 Plastisch macht das eine Studie um einen fiktiven Produkthaftungsprozess: Die Richter erhielten die Information, dass das vermeintliche Opfer (Kläger) zu einem früheren Zeitpunkt strafrechtlich verurteilt worden war.113 Für die zu beurteilende Fahrlässigkeitshaftung des Beklagten war diese Information juristisch vollkommen irrelevant,114 sodass auch alle Studienteilnehmer direkt erkannten, dass sie diese Information zu ignorieren hatten. Dennoch erkannte die Vergleichsgruppe, die von der früheren Verurteilung unzulässigerweise im Prozess erfahren hatte, auf einen um 12 Prozent niedrigeren Schadensersatz. Selbst das Wissen darum, dass eine Information juristisch irrelevant ist, führt also nicht dazu, dass diese Information in der Entscheidungsfindung tatsäch­ lich keine Rolle spielt. Besonders im Strafverfahren könnte diese Funktionsweise des menschli­ chen Gehirns Friktionen auslösen. So dürfen bei der Frage, ob ein Angeklag­ ter schuldig ist oder nicht, d. h. ob er eine Tat begangen hat und keine recht­ fertigenden oder entschuldigenden Umstände vorlagen, dessen Vorstrafen keine Rolle spielen. Die Vorstrafen dürfen erst in der Strafzumessung Be­ rücksichtigung finden (vgl. § 46 StGB).115 Das menschliche Gedächtnis ist 111  Dazu grundlegend Kahneman, Schnelles Denken, langsames Denken, 2012, S.  112 ff. 112  Vgl. dazu Risse, NJW 2018, 2848 (2849 f.), der dieses Phänomen – nicht ganz treffend – als Unterfall bzw. „Transfer“ des What-you-see-is-all-there-is-Effekts an­ sieht. 113  Wistrich/Guthrie et al., University of Pennsylvania Law Review 153 (2005), 1251 (1304 ff.). 114  Nach US-amerikanischem Beweisrecht ist es daher unzulässig, eine solche In­ formation überhaupt in den Prozess einzubringen. 115  In der Justizpraxis ist die Vorstrafenbelastung der zentrale Aspekt des „Vorle­ bens des Täters“ (§ 46 Abs. 2 S. 2 StGB), vgl. Streng, in: Kindhäuser/Neumann/Paeff­ gen (Hrsg.), NK StGB, 5. Aufl., 2017, § 46, Rn. 66 m. w. N.



I. Problemaufriss53

indes keine Computerfestplatte, in der sich Informationen ohne Weiteres lö­ schen ließen, sodass sie sich zukünftig nicht auswirken könnten. Vielmehr beeinflussen wahrgenommene und verarbeitete Informationen auch das be­ reits Abgespeicherte.116 Aus psychologischer Sicht ist es also auch einem Richter nicht möglich, bereits zur Kenntnis genommene Informationen voll­ ständig zu ignorieren. Dies zeigt, dass die an einem Gerichtsprozess beteilig­ ten Parteien die richterliche Entscheidung stark beeinflussen können, je nachdem, wie sie dem Richter Informationspakete präsentieren.117 d) Ankereffekt aa) Einführung Eines der prominentesten Beispiele für Rationalitätsschwächen ist die sog. Ankerheuristik. Der Ankereffekt erregt mittlerweile auch unter Juristen Auf­ merksamkeit.118 Er beschreibt die (systematische) Verzerrung numerischer Urteile in Richtung eines (willkürlich als Ausgangspunkt) vorgegebenen Zahlenwertes – des Ankers. Wohl erstmals nachweisen konnten den Ankeref­ fekt Amos Tversky und Daniel Kahneman 1974.119 In deren „Glücksrad-Ex­ periment“ drehte der Testleiter in Anwesenheit der Testpersonen ein manipu­ liertes Glücksrad, das entweder bei „10“ oder bei „65“ anhielt. Die Probanden sollten daraufhin schätzen, ob der Prozentsatz afrikanischer Staaten in der UNO oberhalb oder unterhalb des am Glücksrad „gedrehten“ Wertes liege, und dann einen genauen Schätzwert angeben. Gruppen, die am Glücksrad 116  Schmittat/Englich, Juristen sind auch nur Menschen – Einflüsse psychologi­ scher Mechanismen auf die juristische Entscheidungsfindung, in: Boorberg Verlag (Hrsg.), Soft Skills im Trend – Kompetenz, Kommunikation und Recht, 2017, S. 10 (11 f.). 117  Der Framing-Effekt ist daher Wahrnehmungstäuschungen ähnlicher als Re­ chenfehlern. Er tritt selbst unter fachkundigen Menschen auf und lässt sich selbst dann nicht beseitigen, wenn dieselben Personen beide Testfragen innerhalb weniger Minuten beantworten: Sogar nach einer erneuten Lektüre der Problemstellungen ent­ scheiden sie nach wie vor risikoavers in der Version „gerettete Menschenleben“ und risikogeneigt in der Version „Verluste an Menschenleben“, siehe Kahneman/Tversky, American Psychologist 39 (1984), 341 (343). 118  Vgl. etwa Nickolaus, Ankereffekte im Strafprozess, 2019, S. 25 ff.; Steinbeck/ Lachenmaier, NJW 2014, 2086 (2087 ff.); Schweizer, Kognitive Täuschungen vor Gericht, 2005, S. 77 ff.; Traut/Nickolaus, StraFo 2015, 485 (486 ff.); siehe ferner ­Eisenberg, JGG, 2018, § 68, Rn. 10; Englich, Law & Policy 28 (2006), 497 (497 ff.); Schmittat/Englich, Juristen sind auch nur Menschen – Einflüsse psychologischer Me­ chanismen auf die juristische Entscheidungsfindung, in: Boorberg Verlag (Hrsg.), Soft Skills im Trend – Kompetenz, Kommunikation und Recht, 2017, S. 10 (10 f.). 119  Tversky/Kahneman, Science 185 (1974), 1124 (1128 ff.).

54

Erster Teil: Status quo richterlicher Entscheidungsfindung

zuvor die „10“ erhielten, schätzten den Prozentsatz im Median auf 25 Pro­ zent, die anderen Gruppen (Glücksrad: „65“) auf 45 Prozent.120 bb) Empirischer Nachweis und konkrete Auswirkungen Im Zivilprozess kann insbesondere die Höhe eines Klageantrags einen Ankereffekt auslösen: Ist die Bezifferung einer Schmerzensgeldsumme im Klageantrag hoch, steigert dies die Chancen darauf, dass das Gericht ein höheres Schmerzensgeld als angemessen i. S. d. § 253 Abs. 2 BGB ansieht.121 Diesen Zusammenhang hat auch die Rechtsprechung erkannt.122 Gravierender sind jedoch die Auswirkungen im Strafprozess: Eine umfas­ sende Studienreihe aus Deutschland konnte den Effekt für die juristische Entscheidungsfindung in strafrechtlichen Verfahren empirisch nachweisen.123 Vier Einzelstudien untersuchten die Auswirkungen eines zuvor gesetzten Zahlenankers auf die Höhe einer vom Probanden zu verhängenden Freiheits­ strafe.124 Befragt wurden jeweils Volljuristen (Richter und Staatsanwälte), im dritten und vierten Durchlauf Referendare mit ersten Erfahrungen im Ge­ richtssaal. In der ersten Studie präsentierten die Forscher den Probanden125 den fikti­ ven Vorschlag eines Journalisten zur Strafhöhe (den Anker).126 Es erscheint 120  Tversky/Kahneman, Science 185 (1974), 1124 (1128 ff.). Vgl. auch die Kritik bei Gigerenzer, Psychological Review 103 (1996), 592 (593 ff.). Siehe ergänzend Rachlinski/Guthrie et al., Boston University Law Review 86 (2006), 1227 (1229), sowie Falk/Alles, ZIP 2014, 1209 (1213). Weil der Ankereffekt auch in deutschen Studien, insbesondere deutsches Recht betreffenden Testreihen, nachgewiesen und erforscht wurde, erfährt er nachfolgend eine etwas umfassendere Darstellung. 121  Geipel/Nill, ZfS 2007, 6 (7 f.); Traut/Nickolaus, StraFo 2015, 485 (487). 122  So nimmt etwa OLG Karlsruhe, NJW 2011, 2143 (2144 f.) – freilich als eine der wenigen obergerichtlichen Entscheidungen – explizit auf den Ankereffekt Bezug. 123  Siehe Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (188 ff.). Aufgrund ihrer besonderen Anschaulichkeit erfahren die Ergeb­ nisse von Englich, Mussweiler et al. hier eine etwas ausführlichere Darstellung. Wei­ tere Nachweise zum Ankereffekt liefert auch der empirische Teil bei Nickolaus, An­ kereffekte im Strafprozess, 2019, S. 158 ff. Es ist wahrscheinlich, dass ähnliche Ergeb­ nisse auch bei anderen numerischen (juristischen) Entscheidungen zustande kommen, etwa solche der Verwaltung (Bußgeldhöhe, Bemessung von Zuschüssen etc.). 124  Den Strafrahmen gibt der jeweilige Straftatbestand vor. Die Strafzumessung rich­ tet sich nach der Schuld des Täters (§ 46 Abs. 1 StGB). „Externe“ numerische Anker sollten bzw. dürfen daneben keinerlei Auswirkungen auf die Strafzumessung haben. 125  Die Begriffe „Teilnehmer“ und „Proband“ werden, um Wiederholungen zu vermeiden, hier äquivalent verwendet, wenngleich sie in der empirischen Forschung Unterschiedliches bedeuten können. 126  Dazu und zu den folgenden Ausführungen Englich/Mussweiler et al., Persona­ lity and Social Psychology Bulletin 2006, 188 (190 ff.).



I. Problemaufriss55

als Binse, dass Berichterstattungen der Presse und persönliche Ansichten von Journalisten keine Auswirkungen auf richterliche Entscheidungen haben soll­ ten; dieser Zielvorstellung sind sich Entscheider auch bewusst. Umso mehr überraschen die Ergebnisse: Die Entscheidungen unterschieden sich deutlich und reichten von Freispruch bis hin zu 5 Jahren Freiheitsstrafe für ein und denselben Sachverhalt. Die Analyse der im Durchschnitt verhängten Strafen zeigt eindeutig, dass der jeweilige Vorschlag des Journalisten zur Strafhöhe die Probanden deutlich beeinflusste.127 Teilnehmer, die sich zuvor mit einem höheren Anker konfrontiert sahen, sprachen signifikant höhere Strafen (Durchschnitt: 33 Monate Freiheitsstrafe) aus als diejenigen mit niedrigerem Anker (Durchschnitt: 25 Monate, also eine Differenz von 8 Monaten). Die Daten ergaben weiterhin, dass alle Probanden sich ihres Urteils sicher waren und diese Einschätzung nicht mit der Beeinflussbarkeit durch den Anker in Verbindung stand. Der Vergleich mit einer vorherigen Studie128 offenbarte, dass das Ausmaß, in welchem der Ankereffekt die Entscheidung beeinflusst, nicht davon abhängig ist, ob der Anker von einem Journalisten oder einem Staatsanwalt stammt, es war also unabhängig von der „Anker-Relevanz“.129 Die zweite Studie lieferte den Probanden einen noch offensichtlicher irre­ levanten Anker. Die Probanden sollten vor ihrem Urteil in einem Ladendieb­ stahlsfall den Antrag der Staatsanwaltschaft i. S. d. § 258 Abs. 1 StPO in Be­ tracht ziehen. Dieser war entweder hoch (9 Monate Freiheitsstrafe zur Aus­ setzung auf Bewährung) oder niedrig (3 Monate, ebenfalls Bewährung). Die Studienanweisungen enthielten den deutlichen Hinweis, dass der Antrag der Staatsanwaltschaft per Zufall ermittelt wurde und somit keinerlei juristische Expertise widerspiegelte. Die Teilnehmer sollten daraufhin angeben, ob sie das beantragte Strafmaß als zu niedrig, zu hoch oder genau richtig ansehen. Sodann wurden die Probanden mit dem Antrag des Verteidigers konfrontiert (der stets „1 Monat Freiheitsstrafe auf Bewährung“ lautete) und sollten die­ sen gleichermaßen einschätzen. Daraufhin hatten die Teilnehmer ihre Ent­ scheidung über das Strafmaß anzugeben. Auch diese Studie ergab, dass die offenkundig zufällig ermittelten Anträge der Staatsanwaltschaft die Strafur­ teile in hohem Maße beeinflussten. Eine weitere besondere Besonderheit konnte eine Zusammenschau der Studien 1 und 2 zeigen: In beiden Studien waren die Probanden erfahrene Volljuristen. Jeweils etwa die Hälfte der Teilnehmer waren Strafrechtler mit 127  Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (191). Der Effekt betrifft strukturell in gleicher Weise auch Geldstrafen, denn dort können ebenfalls numerische Anker die Entscheidung verzerren. 128  Englich/Mussweiler, Journal of Applied Social Psychology 31 (2001), 1535 (1538 ff.). 129  Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (191 f.).

56

Erster Teil: Status quo richterlicher Entscheidungsfindung

Erfahrung in vergleichbaren Fällen, die andere Hälfte Juristen mit anderen Berufsschwerpunkten (etwa Zivilrecht und Verwaltungsrecht) und ohne Er­ fahrung in vergleichbaren Fällen. Der Ankereffekt trat in beiden Studien und Gruppen (Strafrechtler als „Experten“ sowie Nicht-Strafrechtler als „NichtExperten“) nahezu gleich auf. Der einzige signifikante Unterschied war, dass die Strafrechtler sich ihres Urteiles viel sicherer waren (im Durchschnitt 6,88 auf einer Skala von 1 bis 9) als die Nicht-Strafrechtler (im Durchschnitt 4,45). Weil jedoch die geschätzte Sicherheit bzw. Überzeugung nicht mit der Anfälligkeit für den Ankereffekt in Relation stand, folgt daraus (lediglich), dass sich Experten (hier: die Strafrechtler) fälschlicherweise als weniger an­ fällig für Rationalitätsschwächen einschätzen.130 Die Expertise wirkt(e) sich nicht auf die objektive, sondern lediglich die subjektive Qualität der Ent­ scheidungen aus. Studie 2 ergab also, dass offenkundig zufällig zustande gekommene Anker dennoch Auswirkungen auf die Entscheidungen der Volljuristen hatten. Aller­ dings bestanden Restzweifel darüber, ob die Probanden sich des zufälligen Zustandekommens tatsächlich vollständig bewusst waren. Um vollständig sicherzugehen, dass jeder Teilnehmer sich der Zufälligkeit wirklich bewusst war, ermittelten in der dritten Studie daher die Probanden (Referendare) selbst den Anker (also: die von der Staatsanwaltschaft beantragte Strafhöhe), indem sie zwei Würfel warfen. Gezinkte Würfel erzielten exakt dieselben Anker wie in Studie 2 (also 3 bzw. 9 Monate auf Bewährung). Die Ergeb­ nisse verblüfften erneut: Teilnehmer, die einen hohen Anker würfelten, urteil­ ten auch höhere Strafen aus und umgekehrt. Es machte keinen Unterschied, ob der Anker durch einen Staatsanwalt gesetzt wurde oder dem Werfen zweier Würfel entstammt: In beiden Fällen passten die Probanden die Strafe in vergleichbarem Ausmaß an den Anker an. Zusammenfassend lässt sich sagen, dass die Probanden der Studien – allesamt Juristen – deutlich durch den jeweils zuvor gesetzten Anker beeinflusst wurden und dies sogar dann, wenn sie diesen Anker durch den Wurf zweier Würfel, also offenkundig irre­ levant für die Entscheidung, selbst erzeugt hatten. In einem vierten Studiendurchgang ging man der Frage nach, inwieweit ein zuvor gesetzter Anker dafür ausschlaggebend ist, ob die Probanden eher für strafmildernde oder für strafschärfende Umstände und Argumente „empfäng­ lich“ bzw. zugänglich waren. Dazu sollten die Teilnehmer eine Reihe von Ar­ gumenten und Aspekten entweder als strafschärfend oder als strafmildernd kategorisieren. Auch das Ergebnis dieser vierten Studie ist bemerkenswert:131 130  Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (193 f.). 131  Die Aussagekraft dieser vierten Studie darf deshalb nicht überschätzt werden, weil die Kategorisierung der Argumente „so schnell wie möglich“ erfolgen sollte.



I. Problemaufriss57

Die Empfänglichkeit bzw. Zugänglichkeit der Probanden für strafschärfende Umstände bzw. Argumente war höher, wenn man sie zuvor mit einem eher hohen Anker konfrontiert hatte.132 Wie erwartet, konnten diejenigen, die zuvor eine höhere durch den Staatsanwalt beantragte Strafe sahen, die belastenden (strafschärfenden) Umstände schneller kategorisieren als die Vergleichs­ gruppe. Für die Verzögerung in Bezug auf die entlastenden (strafmildernden) Umstände bestand demgegenüber keine Abhängigkeit zum Ankerwert. Anders ausgedrückt, bestand eine signifikant schnellere Einordnung nur für die Kom­ bination „belastende Umstände und hoher Anker“; für die anderen drei Kom­ binationen („belastende Umstände und niedriger Anker“, „entlastende Um­ stände und hoher Anker“, „entlastende Umstände und niedriger Anker“) war die Verzögerung in etwa gleich hoch. Die Höhe des Ankers spielte also für die Einordnung entlastender Umstände keine Rolle. Negative Informationen erzeugen eine höhere Aufmerksamkeit als posi­ tive, sie beanspruchen daher auch einen Vorrang in der Informationsverarbei­ tung des menschlichen Gehirns.133 Dies wird etwa daran deutlich, dass Menschen negative Begriffe durchschnittlich leichter und schneller erfassen als positive.134 Die Beurteilung der Moralität einer anderen Person hängt stärker von negativen denn von positiven Taten ab.135 Negative Informatio­ nen haben demnach generell eine gewisse Priorität, die sich auch bei juristi­ schen Entscheidungen bemerkbar macht; auch juristische Experten fokussie­ ren sich bei der (unbewussten) Verarbeitung eines Ankerwertes zuerst und vor allem auf negative, also belastende und strafschärfende Umstände und Argumente.136 Weil die finale Entscheidung über das Strafmaß daher stark Das Studiendesign ist daher nicht mit dem Abwägungsprozess vergleichbar, den ein Richter vor der Urteilsfindung vollführt. Denn dieser steht kraft seiner richterlichen Unabhängigkeit nicht unter demselben Zeitdruck, wie ihn die Studie erzeugte. 132  Dazu und zum Folgenden Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (196 f.). 133  Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (196). 134  Dijksterhuis/Aarts, Psychological Science 14 (2003), 14 (16 ff.). 135  Reeder/Brewer, Psychological Review 86 (1979), 61 (63 f.). 136  Englich et al. vermuten die Gründe hierfür in dem Zuschnitt des (Straf-)Verfah­ rensrechts. Nach § 261 StPO entscheidet „das Gericht“, also der bzw. die Richter, über das Ergebnis der Beweisaufnahme einschließlich der Schuld oder Unschuld des Angeklagten nach freier, aus dem Inbegriff der Verhandlung geschöpften Überzeugung. Der Richter muss sich persönlich festlegen, ob ein Angeklagter schuldig ist, er ist also darauf fokussiert, die Schuld des Angeklagten sicher nachweisen bzw. Zwei­ fel daran ausräumen zu können. Aus diesem Grund könnte er von vornherein eher für belastende denn für entlastende Umstände zugänglich sein. Der Umfang, in dem Richter eher auf belastende Umstände fokussiert sind, hängt von der Zielrichtung ab, mit der Informationen verarbeitet werden. Bei hohem Anker liegt der Fokus also un­ bewusst darauf, Argumente für dessen Bestätigung zu finden, sodass belastende Um­

58

Erster Teil: Status quo richterlicher Entscheidungsfindung

durch diejenigen Aspekte beeinflusst wird, die dem Entscheider „leichter in den Sinn“ kommen (leichter zugänglich sind), führt dies letztendlich zu hö­ heren Strafmaßentscheidungen. (Juristische) Entscheidungen können also geprägt sein durch vollständig und offenkundig zufällige Umstände. cc) Ausblick Als „Lösungsvorschläge“ für den als Problem wahrgenommenen Ankeref­ fekt im Strafprozess sind verschiedene Konzepte in der Diskussion.137 In Betracht kommt insbesondere eine Änderung der Plädoyer-Reihenfolge in § 258 StPO. Den Ankereffekt durch Schulungen in das Bewusstsein der Richter zu rufen, scheint allein nicht ausreichend, weil Menschen die Heuris­ tik nicht eigenständig durch psychologische Selbsterkenntnis korrigieren können.138 Allerdings beeinflusst nicht nur das beantragte Strafmaß den Spruchkör­ per. Die Plädoyers greifen auch inhaltliche Aspekte auf. Ein Richter wird seine Entscheidung niemals allein aufgrund des gesetzten Ankers treffen. Die inhaltlichen Aspekte und Sachargumente können den Ankereffekt abmil­ dern.139 Die Verzerrung lässt sich in Gerichtsverfahren dadurch reduzieren, dass der Richter sich aktiv mit den Argumenten der Streitparteien auseinan­ dersetzt, insbesondere solchen Argumenten, die gegen den Anker sprechen.140 Zudem kann die Kenntnis des „korrekten“ oder jedenfalls annähernd „kor­ rekten“ Zielwerts den Ankereffekt mäßigen;141 die Heuristik hat daher weni­ stände eine höhere Aufmerksamkeit erregen als entlastende. Mehr Aufmerksamkeit für eine Kategorie von Umständen führt aber dazu, dass die entscheidende Person hierfür auch generell zugänglicher bzw. empfänglicher ist und diese dann eher in den Entscheidungsprozess einfließen lässt. Zufällige Einflüsse – bspw. Anker – bringen also eine selektive (Informations-)Zugänglichkeit mit sich. Vgl. Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (197). 137  Dazu Nickolaus, Ankereffekte im Strafprozess, 2019 S. 96  ff. sowie bereits Traut/Nickolaus, StraFo 2015, 485 (490 f.). 138  Englich, Law & Policy 28 (2006), 497 (510); siehe auch Traut/Nickolaus, StraFo 2015, 485 (490). 139  Englich, Law & Policy 28 (2006), 497 (509); siehe ergänzend Englich/Soder, Judgment and Decision Making 4 (2009), 41 (41 ff.). 140  So die Feldstudie von Mussweiler/Strack et al., Personality and Social Psycho­ logy Bulletin 26 (2000), 1142 (1144 ff.) in einem nicht-juristischen Kontext; Schweizer, Kognitive Täuschungen vor Gericht, 2005, S. 85; vgl. auch Steinbeck/Lachenmaier, NJW 2014, 2086 (2089). 141  Mussweiler/Strack, Journal of Experimental Social Psychology 36 (2000), 495 (515 f.): Je mehr ein Entscheider über den „korrekten“ Zielwert weiß, desto besser ist er gegen die Verzerrung des Ankereffekts geschützt – selbst wenn er den Zielwert nicht mit Sicherheit kennt.



I. Problemaufriss59

ger „Angriffsfläche“, wenn es eine gefestigte Praxis gibt – z. B. bei der Strafzumessung zu Trunkenheitsfahrten.142 e) „Peak-End-Regel“-Verzerrung aa) Einführung Menschen unterliegen nicht nur quantitativen Verzerrungen, sondern sie bewerten retrospektiv auch Ereignisse nicht immer rational.143 Das betrifft insbesondere emotionale oder gefühlsbezogene Episoden – etwa Schmerzoder Leidensperioden. Der Effekt tritt sowohl bei angenehmen als auch bei unangenehmen Erfahrungen auf; nur letztere sollen hier von Interesse sein. In der Rückschau wenden Menschen in der Bewertung ihrer Leidensepisoden oftmals die sog. Peak-End-Regel an.144 Sie besagt, dass die Bewertung einer Leidensepisode maßgeblich von nur zwei Faktoren abhängt: der Leidensin­ tensität am unangenehmsten (schmerzhaftesten) Punkt (  peak) und der Lei­ densintensität am Ende der Episode (end).145 Die Dauer des Ereignisses spielt hingegen eine untergeordnete Rolle146 oder wird fast vollständig ver­ nachlässigt.147 Die Peak-End-Regel kann sich auch im Strafprozess auswirken. Gem. § 46 Abs. 2 S. 2 StGB muss der Richter – neben weiteren Aspekten – die ver­ schuldeten Auswirkungen der Tat in der Strafzumessung berücksichtigen. „Auswirkungen der Tat“ meint in erster Linie unmittelbare Tatfolgen wie z. B. die Schwere verursachter Verletzungen oder die Höhe eines dem Ge­ schädigten tatsächlich verbleibenden Vermögensschadens,148 sofern die Ur­ sächlichkeit der Tat für die Auswirkungen außer Zweifel steht.149 So sollte 142  Schweizer,

Kognitive Täuschungen vor Gericht, 2005, S. 86. Journal of Personality and Social Psychology 65 (1993), 45 (48 ff.). 144  Redelmeier/Kahneman, Pain 66 (1996), 3 (5 ff.). 145  Klöhn/Stephan, Psychologische Aspekte der Urteilsbildung bei juristischen Ex­ perten, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Rich­ ters, 2009, S. 65 (87 f.). 146  Fredrickson/Kahneman, Journal of Personality and Social Psychology 65 (1993), 45 (49 ff.). 147  Redelmeier/Kahneman, Pain 66 (1996), 3 (6). Alternativ ist daher auch der (allgemeinere) Begriff Duration Neglect geläufig. 148  Fischer, StGB, 66. Aufl., 2019, § 46, Rn. 34. Daneben sind grundsätzlich auch außertatbestandliche Folgen zu berücksichtigen, sofern es sich um regelmäßige Tat­ folgen handelt, die vom Schutzbereich der Norm erfasst sind, vgl. etwa OLG Düssel­ dorf, Beschl. v. 2.11.2000 – 2a Ss 282/00 – 48/00 III –, juris, Rn. 8. 149  Vgl. BGHSt 37, 179 (180). 143  Fredrickson/Kahneman,

60

Erster Teil: Status quo richterlicher Entscheidungsfindung

sich bspw. das Strafmaß für eine Verurteilung wegen gefährlicher Körperver­ letzung nach § 224 Abs. 1 StGB also (auch) nach der Dauer und Intensität der Schmerzen richten, die das Opfer der Tat erleiden musste. bb) Empirischer Nachweis und konkrete Auswirkungen Legt man Richtern testweise den Sachverhalt einer gefährlichen Körper­ verletzung zur Fallentscheidung vor, so sollte sich – bei ansonsten gleichen Voraussetzungen – eine längere Leidensdauer des Opfers in jedem Fall in einer höheren Strafe niederschlagen. In einer empirischen Studie150 sollten die Probanden lediglich über die Höhe der Freiheitsstrafe für eine gefährliche Körperverletzung gem. § 224 Abs. 1 StGB entscheiden. In dem fiktiven Test­ fall warf der Täter das Opfer zu Boden und trat minutenlang auf dieses ein. Dadurch trug das Opfer neben Prellungen einen Nierenriss davon, dessen Folge zwei Wochen starke Schmerzen waren (Version 1). Die weiteren Ver­ sionen des Grundfalles waren identisch, lediglich die Leidensepisode (also der zeitliche Verlauf und die Intensität der Schmerzen) wurde abgewandelt: Das Opfer hatte im zu beurteilenden Fall zwei Wochen starke Schmerzen (Version 1: „++“), zwei Wochen starke und danach eine Woche leichtere Schmerzen (Version 2: „++ –„), eine Woche leichtere und dann zwei Wochen starke Schmerzen (Version 3: „– ++“) bzw. drei Wochen starke Schmerzen (Version 4: „+++“).151 Mit Blick auf die normative Wertung des § 46 Abs. 2 S. 2 StGB sollten die Studienteilnehmer (im Durschnitt) in Version 4 die höchste Freiheitsstrafe verhängen, gefolgt von den Versionen 2 und 3, und in Version 1 die nied­ rigste Strafe. Wenn Richter, hier also die Studienteilnehmer, die Strafzumes­ sung hingegen (auch) nach der Peak-End-Regel vornähmen, so brächte Ver­ sion 2 trotz längerer Schmerzdauer eine niedrigere Freiheitsstrafe hervor als Version 1 (Vernachlässigung der Dauer bei gleichen Peaks, aber einem schwächeren End). Tatsächlich ergab die Studie folgende Ergebnisse:152 Version 1 führte im Mittelwert zu 16,5 Monaten Freiheitsstrafe, Version 2 zu 14,8 Monaten, Ver­ 150  Klöhn/Stephan, Psychologische Aspekte der Urteilsbildung bei juristischen Ex­ perten, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Rich­ ters, 2009, S. 65 (65 ff.). 151  Dazu und zum Folgenden Klöhn/Stephan, Psychologische Aspekte der Urteils­ bildung bei juristischen Experten, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Richters, 2009, S. 65 (86 f.). 152  Klöhn/Stephan, Psychologische Aspekte der Urteilsbildung bei juristischen Ex­ perten, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Rich­ ters, 2009, S. 65 (91).



I. Problemaufriss61

sion 3 zu 17,3 Monaten und Version 4 zu 17,1 Monaten. Tatsächlich ver­ hängten die Teilnehmer also in Version 1 eine niedrigere Freiheitsstrafe als in Version 2, obwohl das Opfer in Version 2 eine 50 Prozent längere Leidens­ dauer hatte. Die Verlängerung der Leidensepisode „zwei Wochen starke Schmerzen“ um eine Woche leichtere Schmerzen führte zu einer Verminderung des Strafmaßes. Dies steht im Widerspruch zu einer rationalen Strafzu­ messung. Weiterhin bemerkenswert ist, dass Version 3 zu einer (im Mittelwert) deut­ lich höheren verhängten Strafe führte als Version 2, obgleich sowohl die In­ tensität des Schmerzes als auch die Dauer in diesen beiden Konstellationen identisch waren (bei lediglich anderer Reihenfolge). Auch dies legt nahe, dass die Juristen die Peak-End-Regel angewandt hatten (gleiche „Peaks“, aber unterschiedliche Schmerzintensität am Ende). cc) Einordnung Die Ergebnisse stehen im Widerspruch zum normativ-rationalen Ausgangs­ punkt des § 46 Abs. 2 S. 2 StGB und den Prinzipien der Strafzumessung. Die Autoren mahnen allerdings selbst zur Vorsicht bei der Interpretation, insbe­ sondere wegen der geringen Stichprobengrößen.153 Es wird indes einmal mehr deutlich, dass Entscheidungsträger (strafrechtliche) Entscheidungen nicht so treffen, wie es normativ-rational wünschenswert wäre (Art. 3 Abs. 1 GG). Die Ergebnisse wirken nicht gravierend. Für den einzelnen von einer solchen Entscheidung Betroffenen haben sie jedoch schweres Gewicht: Im Beispielsfall etwa erhält der Täter in Version 2, der noch einmal mehr zutritt als der Täter in Version 1 und möglicherweise gerade dadurch dem Opfer eine weitere Woche mit leichteren Schmerzen zufügt, mit einer gewissen Wahr­ scheinlichkeit eine geringere Freiheitsstrafe als der Täter in Version 1. f) Rückschaufehler Der Rückschaufehler (Hindsight Bias) bezeichnet die kognitive Verzer­ rung, frühere Vorhersagen über ein Ereignis systematisch falsch zu bewerten, nachdem man den Ausgang des Ereignisses erfahren hat: Die ursprüngliche Schätzung der Vorhersagbarkeit oder der Eintrittswahrscheinlichkeit wird dabei systematisch in Richtung des tatsächlichen Ausgangs verzerrt.154 Auch 153  Klöhn/Stephan, Psychologische Aspekte der Urteilsbildung bei juristischen Ex­ perten, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Rich­ ters, 2009, S. 65 (92). 154  Carli, Personality and Social Psychology Bulletin 25 (1999), 966 (966 ff.); vgl. zu den psychologischen Erklärungsansätzen des Phänomens Hawkins/Hastie, Psycho­

62

Erster Teil: Status quo richterlicher Entscheidungsfindung

Experten, etwa Richter, erachten Ereignisse im Nachhinein als vorhersehba­ rer bzw. prognostizierbarer, als sie es tatsächlich waren.155 Der Rückschaufehler kann besonders die gutachterliche oder gerichtliche Entscheidungsfindung in Haftungssachverhalten, etwa Produkthaftung oder Managerhaftung, beeinflussen. Relevant wird er dort u. a. bei Fragen der Schadenshöhe oder beim Anscheinsbeweis: Der nachträglich (also „in der Rückschau“, etwa nach einem Haftungsfall) Entscheidende tendiert dazu, auch solche Erkenntnisse (etwa über Compliance-Defizite oder sonstige Fra­ gen der Fahrlässigkeit), die erst ex post aufgrund vollständiger Sachverhalts­ kenntnis vorliegen, als bereits zum Entscheidungszeitpunkt erkennbar anzu­ nehmen – und damit sowohl die Sorgfaltsanforderungen als auch die Kausa­ lität zwischen Pflichtverletzung und Schaden deutlich strenger zu beurteilen, als dies aus einer unverzerrten Ex-ante-Perspektive gerechtfertigt wäre.156 Die besondere Bedeutung dieses Denkfehlers bei der (gerichtlichen) Beur­ teilung der strafrechtlich relevanten Fahrlässigkeit (vgl. nur § 15 StGB) liegt auf der Hand: Denn für die Strafbarkeit wegen eines Fahrlässigkeitsvorwurfs verlangt die Strafrechtsdogmatik die (objektive und subjektive) Voraussehbarkeit der Rechtsgutsverletzung bzw. des Schadenseintritts aus Ex-anteSicht.157 Der Rückschaufehler kann hier bewirken, dass Staatsanwälte und Richter diese Voraussehbarkeit allein deswegen, weil es tatsächlich zum Schadenseintritt gekommen ist, überschätzen bzw. bejahen. Sachexpertise kann den Einfluss des Rückschaufehlers nicht gänzlich ver­ hindern, allerdings sind Debiasing-Techniken möglich:158 Der Einfluss der Verzerrung lässt sich signifikant reduzieren, wenn der Entscheider sich aktiv Gründe vorstellt, die für einen alternativen Ausgang des geschilderten Sach­ verhalts sprechen.159 Zum anderen empfiehlt es sich, überall dort, wo es logical Bulletin 107 (1990), 311 (316 f., 320 ff.); siehe auch Risse, NJW 2018, 2848 (2850); Steinbeck/Lachenmaier, NJW 2014, 2086 (2089 f.); Elsner, ZfS 2017, 3 (3). 155  Kamin/Rachlinski, Law and Human Behavior 19 (1995), 89 (91 f.); Roberto/ Grechenig, Zeitschrift für Schweizerisches Recht (ZSR) 2011, 5 (5 ff.) mit einem Fo­ kus auf Sorgfaltspflichtverletzungen. 156  Ott/Klein, AG 2017, 209 (209 ff.). 157  Siehe nur Fischer, StGB, 66. Aufl., 2019, § 15, Rn. 14 ff. sowie BGHSt 49, 1 (5); 10, 369 (369 ff.). Zusätzlich, aber hier weniger relevant, muss die Rechtsgutsver­ letzung objektiv vermeidbar gewesen sein und der Täter muss nach seinen individu­ ellen Fähigkeiten und Kenntnissen auch subjektiv sorgfaltswidrig gehandelt haben. 158  Kamin/Rachlinski, Law and Human Behavior 19 (1995), 89 (92 ff.); Ott/Klein, AG 2017, 209 (218 ff.); Steinbeck/Lachenmaier, NJW 2014, 2086 (2090 f.) m. w. N. Siehe zum Debiasing unten S. 131 f. 159  Slovic/Fischhoff, Journal of Experimental Psychology: Human Perception and Performance 3 (1977), 544 (548); Lowe/Reckers, Decision Sciences 25 (1994), 401 (414 f.).



I. Problemaufriss63

möglich ist, objektive Ex-ante-Maßstäbe in Form normativer Vorgaben (z. B. TA Lärm, DIN-Normen) für die Beurteilung des in Rede stehenden Ereignis­ ses bzw. Verhaltens heranzuziehen160 und den Verschuldensvorwurf bei re­ gelkonformem Verhalten grundsätzlich entfallen zu lassen.161 g) Confirmation Bias (Bestätigungsfehler) aa) Einführung Der Confirmation Bias bzw. (Selbst-)Bestätigungsfehler bezeichnet das Phänomen, dass Menschen Informationen umso eher wahrnehmen und als wichtig bewerten, je besser sie zur eigenen Erwartungshaltung passen162 und so den eigenen Standpunkt stützen. Daraus ergibt sich die Neigung, auch in Entscheidungsprozessen zuvorderst solche Informationen zu berücksichtigen, die die eigenen Theorien und Prognosen sowie Meinungen und Vorurteile bestätigen.163 Vice versa blenden Menschen neue Informationen, welche im Widerspruch zu den eigenen Anschauungen und Überzeugungen stehen (engl. disconfirming evidence), eher aus.164 Menschen neigen also dazu, In­ formationen, welche die eigene Meinung widerlegen (könnten), auszufil­ tern165 oder zumindest als weniger relevant einzuordnen. Damit verwandt ist der Inertia- bzw. Trägheitseffekt: Einmal getroffene Entscheidungen bzw. einmal begünstigte Entscheidungsalternativen bleiben gegen widersprechende Informationen immun.166 Wir neigen dazu, im Ablauf der Geschehnisse nach einer Ordnung zu suchen – sobald eine solche Ordnung gefunden ist, wird 160  Rachlinski, University of Chicago Law Review 65 (1998), 571 (608 ff.); zu der Art und Weise, wie der BGH diese Regeln bei der Bestimmung deliktsrechtlicher Verkehrs- und Sorgfaltspflichten (im Zivilrecht) berücksichtigt Steinbeck/Lachenmaier, NJW 2014, 2086 (2091); prägend waren insofern BGHZ 92, 143 ff.; 103, 338 ff.; BGH, NJW 2001, 2019 f. 161  Vgl. etwa BGHZ 92, 143 (147 ff.). 162  Nickerson, Review of General Psychology 2 (1998), 175 (175 f.); Singelnstein, StV 2016, 830 (832). 163  Rack, CB 2014, 190 (191); siehe auch Strauch, JZ 2000, 1020 (1027) zur se­ lektiven Wahrnehmung. 164  Myers, Psychologie, 3. Aufl., 2014, S. 370 f. m. w. N. 165  Rack, CB 2014, 190 (191). 166  Bergius, Stichwort: Inertia-Effekt, in: Wirtz (Hrsg.), Dorsch – Lexikon der Psy­ chologie, 18. Aufl., 2017. Durch die Anpassung subjektiver Wahrscheinlichkeiten wird der Wert solcher Informationen, die der präferierten Alternative oder Hypothese entsprechen, über- und der Wert konträrer Informationen unterschätzt. Vgl. aus revi­ sionsrechtlicher Sicht für das Strafverfahren noch Eschelbach, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 261, Rn. 67.3 f.

64

Erster Teil: Status quo richterlicher Entscheidungsfindung

diese Weltschau durch selektive Aufmerksamkeit selbstbestätigend.167 Ein­ mal gefundene Theorien sind überaus resistent gegen (widerstreitende) Tatsa­ chen.168 Unser Gehirn weist einen Hang zur Trägheit auf, sich auf neue In­ formationen einzulassen, die dem ursprünglich geformten Bild widerspre­ chen.169 Die kognitive Verzerrung des Bestätigungsfehlers betrifft also zwei Aspekte: die Suche nach Informationen auf der einen und deren Interpretation bzw. Bewertung auf der anderen Seite.170 Nimmt ein Entscheidungsträger Informationen selektiv wahr und „bevor­ zugt“ er bereits bei der Informationssuche diejenigen, die zu den bisherigen Erklärungen, zum eigenen Weltbild, zum bisherigen Ermittlungsstand171 etc. „passen“, steigt die Wahrscheinlichkeit, dass er mögliche alternative Erklä­ rungen für einen bestimmten Sachverhalt dadurch vernachlässigt. Für die Interpretation und Bewertung der vorhandenen Informationen gilt dasselbe. Menschen interpretieren Informationen danach in einem „passenden“ Sinne und gewichten deren Bedeutung danach, ob sie sich in ein bestehendes Vor­ stellungsbild einfügen.172 167  Watzlawick,

Wie wirklich ist die Wirklichkeit?, 1976/1978, S. 84, 90. JZ 2000, 1020 (1027). 169  Sommer, ZRP 2017, 60 (61). 170  Vgl. Singelnstein, StV 2016, 830 (832) m. w. N. Siehe für empirische Nach­ weise der Verzerrung Rassin/Eerland et al., Journal of Investigative Psychology and Offender Profiling 7 (2010), 231 (232 ff.); Nickerson, Review of General Psychology 2 (1998), 175 (176  ff.); Schweizer, Kognitive Täuschungen vor Gericht, 2005, S. 178 ff. Siehe ferner die Beispiele zu bisherigen Studien bei Oswald/Grosejan, Con­ firmation bias, in: Pohl (Hrsg.), Cognitive Illusions, 2004, S. 79 (79 ff.). Unter den empirischen Nachweisen des Bestätigungsfehlers sticht ein 1979 veröffentlichtes Ex­ periment zur Akzeptanz bzw. Ablehnung der Todesstrafe hervor, vgl. Lord/Ross et al., Journal of Personality and Social Psychology 37 (1979), 2098 (2098 ff.). Die Proban­ den – in Befürworter und Gegner der Todesstrafe eingeteilt – erhielten zwei fingierte empirische Studien vorgelegt. Eine „Studie“ hob Argumente und Belege für die To­ desstrafe hervor, die andere dagegen. Die Teilnehmer sollten dann die Qualität der „Studien“ bewerten. Beide Gruppen bewerteten daraufhin jeweils diejenige Studie als überzeugender und qualitativ besser, die ihre jeweilige Position stützte. Weitere Un­ tersuchungen konnten zeigen, dass die Art und Weise der Informationsaufnahme – bspw. „Stück für Stück“ – Auswirkungen auf die Stärke des Bestätigungsfehlers ha­ ben kann, vgl. Jonas/Schulz-Hardt et al., Journal of Personality and Social Psycho­ logy 80 (2001), 557 (560 ff.). 171  Vgl. zu (weiteren) Fehlerquellen im Ermittlungsverfahren auch Neuhaus, StV 2015, 185 (186 ff.). 172  Nickerson, Review of General Psychology 2 (1998), 175 (176 ff., zu den Ursa­ chen insbesondere 197 ff.). In den Worten Aldous Huxleys lässt sich der Confirmation Bias auch so beschreiben: „Facts do not cease to exist because they are ignored.“ Des Confirmation Bias muss sich seinerseits auch gewahr sein, wer bspw. ein Thema dis­ ziplinübergreifend beleuchten und dabei fachfremde Theorien interpretieren will. Es entspricht einem „akademischen Bias“, tendenziell (nur) diejenigen fachfremden Stu­ 168  Strauch,



I. Problemaufriss65

bb) Auswirkungen und Folgen Der Bestätigungsfehler kann juristische Entscheidungen verzerren. Von der Tendenz, sich darauf zu konzentrieren, wie gut etwa die Beweismittel eine Hypothese stützen, sind auch Richter nicht gefeit. Dabei gerät automatisch die Prüfung in den Hintergrund, wie gut die gleichen Beweismittel auch eine alternative Hypothese stützen könnten: „Von der Plausibilität der Erklärung zur Überzeugung, dass die Erklärung richtig ist, ist es nur ein kleiner Schritt.“173 Die Verzerrung durch den Confirmation Bias ist weitgehend un­ abhängig von der generellen Intelligenz und Auffassungsgabe einer Person.174 Nicht exklusiv, aber doch besonders gravierend können die Auswirkungen des Bestätigungsfehlers einmal mehr im Strafprozess zu Tage treten. So kann etwa der Ausgang der strafrichterlichen Beweiswürdigung vom Zeitpunkt der Zeugenvernehmung im Hauptverfahren abhängen;175 normativ sollte aber allein deren Inhalt die gerichtliche Entscheidung beeinflussen. Zudem besteht die Gefahr, dass Staatsanwälte und Richter unbewusst nach Bestätigung der bereits für plausibel befundenen Theorien suchen und Abweichungen davon als „Spezialfall“ nicht adäquat einordnen. So sind Richter möglicherweise aufgrund des ersten optischen Eindrucks oder noch früher, etwa beim ersten Lesen der Akte, bereits unbewusst von der Schuld des Angeschuldigten176 überzeugt. Die empirischen Nachweise zum Bestätigungsfehler lassen ver­ muten, dass der Richter die Informationen in der anschließenden Aktenlek­ türe jedenfalls nicht „vollständig gleichberechtigt“ aufnimmt und verarbeitet, sondern diese filtert. Denn bereits ab dem Eröffnungsbeschluss, in dem der Richter einen hinreichenden Tatverdacht bejaht (§ 203 StPO), ist er grund­

dien und Theorien auszuwählen, die den eigenen normativen Intuitionen am ehesten entsprechen, vgl. Alemanno/Sibony, The Legitimacy and Practicability of EU Behavi­ oural Policy-Making, in: dies. (Hrsg.), Nudge and the Law, 2015, S. 325 (340); Cserne, Making Sense of Nudge-Scepticism: Three Challenges to EU Law’s Learning from Behavioural Sciences, in: Alemanno/Sibony (Hrsg.), Nudge and the Law, 2015, S.  279 (284 f.); Hacker, Verhaltensökonomik und Normativität, 2017, S. 3 f. 173  Kirchhoff, Betrifft Justiz 2015, 185 (186). So fällt es Entscheidungsträgern dann leicht, ex post eine Erklärung für eine (nur) plausible Beobachtung zu finden. 174  Es sind jedenfalls keine empirischen Belege für eine diesbezügliche Abhängig­ keit ersichtlich. 175  Bandilla/Hassemer, StV 1989, 551 (552 ff.) m. w. N.; siehe ferner Schünemann, StV 2000, 159 (159 ff.). 176  Auf die in den einzelnen Verfahrensabschnitten unterschiedlichen Begrifflich­ keiten Beschuldigter/Angeschuldigter/Angeklagter kommt es hier und nachfolgend nicht an. Auch eine Unterscheidung der Amtsbezeichnungen – Strafrichter gem. § 25 GVG, Schöffengericht gem. § 28 GVG, Strafkammern gem. § 59 f. GVG – und der Zuständigkeiten kann hier unterbleiben.

66

Erster Teil: Status quo richterlicher Entscheidungsfindung

sätzlich der Gefahr kognitiver Dissonanz ausgesetzt, derer er sich bewusst sein sollte.177 Menschen streben zudem danach, dass ihr Verhalten und ihre Entscheidun­ gen, vor allem aber ihre Bewusstseinsinhalte konsistent und widerspruchsfrei erscheinen.178 In allen Rechtsgebieten ist daher unumgänglich, dass der Richter zwar den Beteiligten deutlich machen sollte, wie er die Sach- und Rechtslage sieht, dass er es sich aber ausdrücklich und bewusst offenhält, „sich in dem Bild, das er sich bereits gemacht hat, noch irritieren zu lassen.“179 h) Einfluss außergerichtlicher Meinungen, Ansichten und Ereignisse aa) Einfluss der öffentlichen Meinung – Beispiel BVerfG Legt Art. 97 Abs. 1 GG180 fest, dass Richter unabhängig und nur dem Ge­ setz unterworfen sind, will die Verfassung Richter aller Gerichtszweige damit Sommer, Effektive Strafverteidigung, 3. Aufl., 2016, 3. Kapitel, Rn. 114 ff. etwa Singelnstein, StV 2016, 830 (831). Betrachtet man beispielhaft den Eröffnungsbeschluss im Strafverfahren nach § 207 StPO, zeigen sich entsprechende „Risiken“: Im Zwischenverfahren (§§ 199 ff. StPO) prüft das Gericht, ob und gegebe­ nenfalls mit welchen Änderungen es die Anklage zur Hauptverhandlung zulässt. Das Gericht erlässt den Eröffnungsbeschluss, wenn aus seiner Sicht der Angeschuldigte einer Straftat hinreichend verdächtig ist, § 203 StPO. Hinreichender Tatverdacht be­ deutet, dass nach dem gesamten Akteninhalt bei vorläufiger Tatbewertung (vgl. BGHSt 23, 304 (306); OLG Karlsruhe, wistra 2005, 72 (73)) eine Verurteilung mit Wahrscheinlichkeit zu erwarten ist (BGH NJW 2000, 2672 (2673); Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, § 170, Rn. 1). Der Richter er­ öffnet also schon das Hauptverfahren nur dann, wenn er eine spätere Verurteilung für wahrscheinlicher hält als einen Freispruch. 179  Flint, NZS 2016, 81 (82). Ein weiterer Effekt, auf den hier aber nicht näher eingegangen werden soll, ist der Konsensus-Effekt. Aufgrund dieser auch KonsensusÜberschätzung genannten Tendenz halten Menschen eigene Überzeugungen und An­ sichten für verbreiteter, als sie tatsächlich sind. Vgl. die ausführliche Meta-Analyse bei Mullen/Atkins et al., Journal of Experimental Social Psychology 21 (1985), 262 (262 ff.) m. w. N. Die Bedeutung eines systematischen Konsensus-Effekts wird in der Psychologie aber auch bestritten, vgl. etwa Dawes/Mulford, Organizational Behavior and Human Decision Processes 65 (1996), 201 (206 ff.). Mit dem Glauben, die eige­ nen Ansichten seien weit verbreitet, erhöht sich jedenfalls auch das Vertrauen in die eigenen Kenntnisse oder Fähigkeiten, siehe Klöhn/Stephan, Psychologische Aspekte der Urteilsbildung bei juristischen Experten, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Richters, 2009, S. 65 (68 ff.); man spricht insoweit auch vom overconfidence effect. Es liegt nahe, dass die sich hieraus ergebende syste­ matische Überschätzung der Objektivität und Rationalität eigener Entscheidungen auch bei Richtern zu Verzerrungen der Entscheidungsfindung führen kann. 180  Dazu unten S. 102 ff. sowie nn ff. 177  Vgl. 178  Vgl.



I. Problemaufriss67

auch vor externen Einflussnahmen bei ihrer Entscheidungsfindung schützen: Art. 97 Abs. 1 GG verbietet Angriffe auf die richterliche Unabhängigkeit aus der gesellschaftlichen Sphäre.181 Spiegelbildlich dazu benennt § 39 DRiG die richterliche Grundpflicht, sich so zu verhalten, dass an der Befähigung zu neutraler und unparteilicher Rechtsprechungstätigkeit keine Zweifel aufkom­ men.182 Mit dem Richtereid versichert der Richter zudem, „ohne Ansehen der Person zu urteilen und nur der Wahrheit und Gerechtigkeit zu dienen“, § 38 Abs. 1 DRiG. Diese Losgelöstheit – also Unabhängigkeit – ist grund­ sätzlich weit zu verstehen, denn sie betrifft nicht nur die Unabhängigkeit von und gegenüber den Prozessparteien, sondern meint im umfassenden Sinne Neutralität, Unparteilichkeit und Distanz.183 Für das BVerfG als „Hüter der Verfassung“184 gilt das in besonderem Maße. (1) Empirische Nachweise Weil Gerichte aber immer auch mit der (praktischen) Durchsetzbarkeit ih­ rer Entscheidungen sowie mit deren Akzeptanz in der Gesellschaft beschäf­ tigt sind,185 stellt sich die Frage, inwieweit die öffentliche Meinung bzw. politischer oder gesellschaftlicher Druck Richter tatsächlich (doch) beeinflus­ sen und Auswirkungen auf deren Entscheidungen zeitigen. Eine Studie hat diese Frage für die Richter des BVerfG untersucht.186 Sie beleuchtet die Entscheidungen des BVerfG über abstrakte Normenkontrollen (Art. 93 Abs. 1 Nr. 2 GG, § 13 Nr. 6, §§ 76 ff. BVerfGG) der (jeweiligen Parlaments-)Oppo­ sition sowie Bund-Länder-Streitigkeiten (Art. 93 Abs. 1 Nr. 3 GG, § 13 Nr. 7, §§ 68 ff. BVerfGG) von 1974 bis 2010.187 „Opposition“ in diesem Zusam­ menhang meint die entsprechenden Antragsteller, also z. B. oppositionelle 181  Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 97, Rn. 13. 182  Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 97, Rn. 13. 183  BVerwGE 78, 216 (220). 184  Vgl. etwa BVerfG, NJW 2015, 3361 (3363); 2016, 2021 (2022); Bethge, in: Maunz/Schmidt-Bleibtreu/Klein et al. (Hrsg.), BVerfGG, 55. Erg.-Lfg. (Okt. 2018), § 1, Rn. 55: „ausschließlich normfixierter Hüter der Verfassung“. 185  Sternberg/Gschwend et al., PVS 56 (2015), 570 (571): „Spannungsverhältnis zwischen Ideal und Verfassungswirklichkeit“. 186  Zum Folgenden Sternberg/Gschwend et al., PVS 56 (2015), 570 (571 ff.). 187  Organstreitverfahren bleiben in der Untersuchung außer Acht, weil sie meist nicht gegen bestimmte Gesetze gerichtet sind, sondern gegen andere Verfassungsor­ gane und deren Rechte und Pflichten (Art. 93 Abs. 1 Nr. 1 GG, § 13 Nr. 5, §§ 63 ff. BVerfGG). In diesen Verfahren fehlte zudem regelmäßig die „Regierungs-Opposi­ tions-Logik“, die mit der öffentlichen Meinung abgeglichen werden kann, vgl. Sternberg/Gschwend et al., PVS 56 (2015), 570 (572, 579). Der Zeitraum wurde bewusst

68

Erster Teil: Status quo richterlicher Entscheidungsfindung

Landesregierungen bzw. ein Drittel der Mitglieder oppositioneller Parla­ mentsfraktionen. Die öffentliche Meinung wurde jeweils anhand repräsenta­ tiver Umfragen (wie z. B. dem „Politbarometer“) evaluiert bzw. rekonstruiert. So ließ sich die prozentuale Unterstützung der Bevölkerung für das jeweilige spezifische Antragsthema der Opposition im Zeitpunkt der Einreichung des Antrags beim BVerfG erheben.188 Entscheidet das BVerfG unabhängig von der öffentlichen Meinung aus­ schließlich als „Hüter der Verfassung“, dann sollte es keinen systematischen, insbesondere kausalen Zusammenhang geben zwischen der spezifischen öf­ fentlichen Unterstützung für die jeweilige Oppositionsposition und deren Erfolg vor dem BVerfG – die Wahrscheinlichkeit, dass das Gericht ein Ge­ setz beanstandet, müsste unabhängig von der öffentlichen Meinung sein. Die Studiendaten zeigen jedoch: Je populärer die spezifische Unterstüt­ zung des Antragsinhalts der Opposition in der öffentlichen Meinung ist, desto wahrscheinlicher entscheidet das BVerfG im Sinne der Opposition.189 Die Ergebnisse legen damit einen systematischen Zusammenhang zwischen der öffentlichen Meinung und den verfassungsgerichtlichen Entscheidungen nahe. Nämliches gilt für die allgemeine politische Unterstützung: Je beliebter die Opposition im Verhältnis zur Regierung ist, desto wahrscheinlicher ist ein oppositioneller Erfolg vor Gericht.190 (2) Aussagekraft und Erklärungsansätze Die Autoren ziehen daraus den Schluss, dass sich das BVerfG durch die Berücksichtigung der öffentlichen Meinung selbst beschränkt – in einer Weise, die über die gewöhnlichen Rechtsfolgenabschätzungen der gerichtli­ chen Entscheidungsfindung hinausgeht.191 Zwar beeinflusst das Verfassungsrecht insgesamt wie auch eine Entschei­ dung des BVerfG im Besonderen das gesellschaftliche Zusammenleben.192 Das BVerfG darf und sollte also die Stabilität dieses Zusammenlebens in der danach ausgewählt, dass der Datensatz eine möglichst große Varianz an Regierungs­ wechseln sowie an Wechseln der Verfassungsrichter enthalten sollte. 188  Sternberg/Gschwend et al., PVS 56 (2015), 570 (580 ff.). Konkrete Themen waren z. B. das Kommunalwahlrecht für Ausländer (BVerfG, NJW 1989, 3147 f.) oder die Zulässigkeit von Schwangerschaftsabbrüchen (BVerfGE 88, 203 ff.). 189  Sternberg/Gschwend et al., PVS 56 (2015), 570 (572). 190  Sternberg/Gschwend et al., PVS 56 (2015), 570 (572 f., 585). 191  Sternberg/Gschwend et al., a. a. O., 573. 192  Stone Sweet, Governing with Judges, 2000, S. 20. Die Tatsache ergibt sich be­ reits aus den häufig gesellschaftlich, also über den Einzelfall hinausgehend relevanten Themen, die überhaupt erst den Weg nach Karlsruhe ebnen.



I. Problemaufriss69

politischen Gemeinschaft ebenso wie die antizipierten öffentlichen Auswir­ kungen der Entscheidungen berücksichtigen, was etwa bei der Prüfung der Verhältnismäßigkeit staatlicher Eingriffe relevant werden kann.193 Jedoch genießen Richter sachliche Unabhängigkeit und werden nicht vom Volk ge­ wählt – sie sind damit auch nicht der Öffentlichkeit oder den Wählern gegen­ über verantwortlich. In Anbetracht des eigenen Selbstverständnisses wie auch des verfassungsrechtlichen Auftrags, ein unabhängiger Akteur im poli­ tischen System der Bundesrepublik zu sein, sollten die Entscheidungen des BVerfG grundsätzlich unabhängig von der öffentlichen Meinung ergehen. Noch ein weiterer Faktor, der Entscheidungen zu beeinflussen vermag, kommt als Erklärung der Studienergebnisse in Betracht: (Auch) Verfassungs­ richter haben politische Präferenzen – und lassen diese systematisch in ihre Entscheidungen einfließen.194 Auch unter statistischer Kontrolle des ideolo­ gischen Kontextes blieb aber das Ergebnis bestehen, dass sich die öffentliche Meinung systematisch auf die Entscheidungen des BVerfG auswirkt.195 Die Annahme, dass alle von der Opposition angegriffenen Gesetze gleich gut bzw. gleich schlecht konzipiert waren, schränkt indes die Aussagekraft hin­ sichtlich der Kausalität ein; bei einem grob verfassungswidrigen Gesetz ist einleuchtend, dass der Oppositionsantrag hiergegen mit höherer Wahrschein­ lichkeit erfolgreich sein wird. Die Autoren machen deutlich, nicht das Warum des Zusammenhangs von öffentlicher Meinung und Entscheidung geklärt zu haben.196 Sie liefern aber zwei mögliche Erklärungen. Erstens könnte sich – indirekt – ein Zusammenhang dadurch ergeben, dass sich Teile der richterli­ chen Präferenzen aufgrund von Faktoren ändern, die zugleich den Wandel in der öffentlichen Meinung auslösen. Zweitens kann ein – direkter – Zusam­ menhang dann bestehen, wenn das BVerfG die öffentliche Meinung strate­ gisch als Druckmittel nutzt, um seine Entscheidungen potenziell auch gegen den Willen der parlamentarischen Mehrheit bzw. der Regierung durchsetzen 193  Sternberg/Gschwend

et al., PVS 56 (2015), 570 (573 f.). Hönnige, West European Politics 32 (2009), 963 (979 f.). Die Studie von Sternberg et al. untersuchte indes nicht das Entscheidungsverhalten der einzelnen Richter in den Senaten, sodass sie keine weiteren Rückschlüsse auf die Individualebene zulässt. Dieser alternative Beeinflussungsfaktor wird als Kontrollva­ riable genutzt – auch hier findet sich ein Zusammenhang: Je kleiner die Distanz zwi­ schen Regierung und der Gerichtsbesetzung, desto geringer sind die Erfolgschancen eines Oppositionsantrags, vgl. Sternberg/Gschwend et al., PVS 56 (2015), 570 (576 f., 586). 195  Sternberg/Gschwend et al., a. a. O., 586 f.: Dieser Effekt verläuft über die ge­ samten Unterstützungswerte – geringe bis hohe Unterstützung – hinweg relativ stabil: Bei einer gesellschaftlichen Unterstützung für die Oppositionsposition von 15 % liegt auch die Erfolgswahrscheinlichkeit nur bei 41 %, während bei einer Unterstützung von 70 % die Erfolgswahrscheinlichkeit auf 65 % ansteigt. 196  Sternberg/Gschwend et al., PVS 56 (2015), 570 (572, 580). 194  Rechtsvergleichend

70

Erster Teil: Status quo richterlicher Entscheidungsfindung

zu können.197 Der auf diese Weise offengelegte Zusammenhang könnte indes langfristig die Autorität des BVerfG und dessen Ansehen als neutraler Hüter der Verfassung gefährden.198 Festzuhalten bleibt, dass auch das formal höchste deutsche Gericht seine Entscheidungen der empirischen Forschung zufolge nicht ausschließlich an­ hand von Sachverhalt und (Grund-)Gesetz trifft, sondern externe Faktoren die Entscheidungen verzerren können.199 (3) Parteinähe der Bundesverfassungsrichter Die Richter am BVerfG werden von den politischen Parteien nominiert, anschließend von Bundesrat und Bundestag gewählt. Dass sie eine parteipo­ litische Prägung haben und dementsprechend ihr Entscheidungsverhalten je­ denfalls teilweise danach ausrichten, welche Partei sie nominiert hat, harrte bislang eines empirischen Nachweises. Eine Studie, die das Entscheidungs­ verhalten der Richter des Zweiten Senats systematisch auswertete, konnte einen Zusammenhang nunmehr bestätigen.200 Eine entsprechende parteiliche Prägung lässt sich zwar nachweisen, sie wird aber oftmals überschätzt.201 Auch Verfassungsrichter entscheiden nicht in einem „politischen und weltan­ schaulichen Vakuum“,202 dies wäre auch nicht wünschenswert: Das BVerfG 197  Sternberg/Gschwend et al., a. a. O., 589 m. w. N. Auf einen direkten Zusammen­ hang deuten auch die Ergebnisse von Casillas/Enns et al., American Journal of Poli­ tical Science 55 (2011), 74 (76 ff.) hin, allerdings (nur) für Entscheidungen des U.S. Supreme Court. 198  Sternberg/Gschwend et al., a. a. O., 593. 199  Die Ergebnisse der Studie lassen sich nicht ohne weitere empirische Belege auf andere Gerichtsbarkeiten transferieren. Vgl. allgemein zum Problem der strategischen Öffentlichkeitsarbeit von Gerichten Boehme-Neßler, Chancen und Risiken von Litiga­ tion-PR, in: ders. (Hrsg.), Öffentlichkeit als Richter?, 2010, S. 20 (20 ff.). Aktualität er­ langte das Thema „Einfluss der öffentlichen Meinung auf richterliche Entscheidungen“ erneut im August 2018 durch die Aussagen des Innenministers von Nordrhein-Westfalen, die Unabhängigkeit von Gerichten sei zwar ein hohes Gut, aber Richter sollten immer auch im Blick haben, „dass ihre Entscheidungen dem Rechtsempfinden der Bevölke­ rung entsprechen“. Diese Ansicht rief Kritik hervor; vgl. zum Auslöser, der Aussage und den Reaktionen etwa Thurm, „Was Innenminister Reul sagt, ist verfassungswidrig“, ZEIT Online vom 17.8.2018. Hintergrund war, dass der islamistische Gefährder Sami A. nach Tunesien abgeschoben wurde, obwohl ein Gericht dies der Behörde untersagt hatte, weil ihm dort Folter drohte. Das OVG Nordrhein-Westfalen bestätigte anschlie­ ßend, dass die Behörde ihn zurückholen musste. Nachdem die tunesischen Behörden erklärt hatten, dass Sami A. in seinem Heimatland nicht von Folter bedroht sei, hob das VG Gelsenkirchen in der Folge das vorläufige Abschiebeverbot wiederum auf. 200  Engst/Gschwend et al., JZ 2017, 816 (816 ff.). 201  Engst/Gschwend et al., JZ 2017, 816 (822 ff.). 202  Steiner, DVBl 2018, 1097 (1100).



I. Problemaufriss71

entscheidet regelmäßig über gesellschaftlich relevante (Gewissens-)Fragen, für deren Beantwortung es überaus sinnvoll ist, dass verschiedene politische Strömungen unter den Entscheidungsträgern vertreten sind. (4) Exkurs: Vorhersage obergerichtlicher Entscheidungen Wenn, wie gesehen, ein Einfluss der öffentlichen Meinung auf oberge­ richtliche Entscheidungen nachweisbar ist, steigt damit auch die Möglichkeit, die Entscheidungen anhand einer Datenanalyse vorauszusagen. So gelang es bspw. einem Tool zur Vorhersage von Supreme-Court-Entscheidungen, in einem Datenpool aus über 7000 Fällen aus 60 Jahren einzelne Entscheidun­ gen zu 71 Prozent korrekt vorherzusagen.203 bb) Einfluss der Medien Nicht nur die öffentliche Meinung kann Richter bzw. gerichtliche Ent­ scheidungen beeinflussen, sondern auch die mediale Berichterstattung über einzelne Themen schlägt sich bisweilen in Urteilen und Beschlüssen nieder. Es ist mehr als eine Vermutung, dass Richter und Staatsanwälte die mediale Berichterstattung über ihre (eigenen) Fälle sehr aufmerksam verfolgen.204 Die tatsächliche Unabhängigkeit dieser beiden Berufsgruppen von der medi­ alen Berichterstattung scheint daher zumindest angekratzt: Die mediale Be­ richterstattung wirkt sich signifikant auf ihr Entscheidungsverhalten aus,205 wobei der mediale Einfluss auch indirekt erfolgen kann.206 203  Katz/Bommarito et al., PLOS ONE 12 (2017), e0174698. Vgl. zur Rechtspre­ chung des U.S. Supreme Court nur Casillas/Enns et al., American Journal of Political Science 55 (2011), 74 (74 ff.). Siehe auch Ruger/Kim et al., Columbia Law Review 104 (2004), 1150 (1171 ff.). 204  Kepplinger/Zerback, Publizistik 54 (2009), 216 (236); Kepplinger, Der indi­ rekte Einfluss der Medien auf Richter und Staatsanwälte, in: Rademacher/SchmittGeiger (Hrsg.), Litigation-PR: Alles was Recht ist, 2012, S. 219 (223); Sternberg/ Gschwend et al., PVS 56 (2015), 570 (590). 205  Kepplinger/Zerback, Publizistik 54 (2009), 216 (236); Kepplinger, Die Öffent­ lichkeit als Richter? Empirische Erkenntnisse, in: Boehme-Neßler (Hrsg.), Öffentlich­ keit als Richter?, 2010, S. 154 (154 ff.); vgl. auch Gerhardt, Im Namen der Medien, in: Boehme-Neßler (Hrsg.), Öffentlichkeit als Richter?, 2010, S. 171 (172  ff.); Boehme-Neßler, Wie die Medien die Gerichte beeinflussen – und was man dagegen tun kann, Legal Tribune Online vom 9.7.2010; zurückhaltend aber Friedrichsen, Me­ dien und Justiz, in: Boehme-Neßler (Hrsg.), Öffentlichkeit als Richter?, 2010, S. 52 (52 f.). 206  Kepplinger, Der indirekte Einfluss der Medien auf Richter und Staatsanwälte, in: Rademacher/Schmitt-Geiger (Hrsg.), Litigation-PR: Alles was Recht ist, 2012, S.  219 (223 ff.); Koppenhöfer, Als Richterin im Zentrum des Mediensturms, in: Boehme-Neßler (Hrsg.), Öffentlichkeit als Richter?, 2010, S. 60 (60 ff.).

72

Erster Teil: Status quo richterlicher Entscheidungsfindung

Dass die öffentliche Meinung Einfluss auf richterliche Entscheidungen hat, ist insbesondere auch dort anzunehmen, wo diese tendenziell undifferenziert bzw. emotional aufgeladen ist. Typischerweise kann dies Fälle von häuslicher Gewalt oder sexuellem Missbrauch an Kindern betreffen, wobei die statisti­ sche Häufigkeit solcher Fälle nicht Hand in Hand geht mit der medialen Aufmerksamkeit.207 Insbesondere die Strafzumessung ist dann nicht selten ein Stück weit irrational. Die weiten Strafrahmen des Strafrechts ermögli­ chen es, dass „im Einzelfall bei der konkreten Festsetzung einer Sanktion persönliche Überzeugungen, ideologische Ausrichtung und allgemein Vorur­ teile des Richters immer mitspielen“ und darin „zwangsläufig auch Ein­ bruchstellen [liegen], durch die die veröffentlichte Meinung in die richterli­ che Entscheidungsfindung Eingang finden kann.“208 cc) Einfluss von Sportereignissen auf gerichtliche Entscheidungen Die empirische Forschung zum richterlichen Entscheidungsverhalten för­ dert bisweilen kuriose Ergebnisse zu Tage: Bspw. fällen Richter härtere Ur­ teile, wenn zuvor die Sportmannschaft, die sie als Fan unterstützen, überra­ schend verloren hat – schon die Tatsache, dass eine solche Niederlage die Laune des Entscheiders verschlechtert, reicht aus, dass Strafen durchschnitt­ lich härter ausfallen.209 Fast spiegelbildlich hierzu steigt nach Niederlagen des (lokalen) Football-Teams auch die Anzahl der Fälle häuslicher Gewalt in einer Region.210

207  Insoweit nutzen besonders die großen Boulevardzeitschriften einzelne Fälle, um mit reißerischen Überschriften ihre Auflage zu steigern. 208  Chudoba, Richterliche Unabhängigkeit und Medieninteresse am Beispiel des Pascal-Prozesses, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhängigkeit des Richters, 2009, S. 53 (62 f.). Eine neuere, auf Selbsteinschätzung von Richtern und Staatsanwälten beruhende Studie bewertet den tatsächlichen Einfluss der Medien auf das Entscheidungsverhalten der Richter und Staatsanwälte etwas vorsichtiger, vgl. Kepplinger/Wohlrabe, Richter sind auch nur Menschen, 2018, S. 1, 4; die dort ge­ wählte Zwischenüberschrift (Vermischung von Aufmerksamkeit und Einfluss) findet in den empirischen Daten indes keinen Rückhalt. Allerdings gaben dennoch 30 % der Richter und 42 % der Staatsanwälte an, Medienberichte hätten einen Einfluss auf die „Atmosphäre im Gerichtssaal“; ähnlich viele Befragte versicherten, dass Medienbe­ richte auch Einfluss auf die Urteile hätten, indem sie das (Aussage-)Verhalten von Zeugen, aber auch das von Tätern und Opfern veränderten. 209  Eren/Mocan, American Economic Journal: Applied Economics 10 (2018), 171 (186 ff.); Beck, Der menschliche Makel, FAS vom 9.10.2016, S. 24; vgl. auch Shiv/ Loewenstein et al., Cognitive Brain Research 23 (2005), 85 (90 f.). 210  Card/Dahl, The Quarterly Journal of Economics 126 (2011), 103 (124 ff.).



I. Problemaufriss73

dd) Schlafmangel und der Einfluss der Zeitumstellung Die empirische Forschung fördert immer neue Erkenntnisse zur menschli­ chen Entscheidungsfindung zu Tage. So ist mittlerweile z. B. anerkannt, dass Schlafmangel negative Auswirkungen auf die kognitive Leistung haben kann.211 Schlafmangel kann jedoch auch dazu führen, dass das Denken leich­ ter in Stereotype und Vorurteile fällt.212 Bei der Zeitumstellung von Winter- auf Sommerzeit im Frühling kommt es im Durchschnitt am darauffolgenden Montag zu einem Schlafdefizit von 40 Minuten.213 Allein dieser auf den ersten Blick geringe Mangel führt dazu, dass Strafrichter in den USA an dem auf die Zeitumstellung folgenden Montag im Schnitt 5 Prozent längere Freiheitsstrafen verhängen.214 Es sind keine Gründe erkennbar, weshalb dies jedenfalls in der Tendenz in Deutschland grundsätzlich anders sein sollte bzw. könnte. Allerdings lässt zum einen die allgemeine Tendenz (5 Prozent längere Freiheitsstrafen) keinen Rückschluss auf einen Einzelfall zu. Das bedeutet zugleich, dass der Verurteilte in der Re­ gel weder um diese statistische Tendenz zur höheren Strafe weiß noch ein Rechtsmittel auf diesen Umstand stützen könnte. Zum anderen sollte die Höhe einer Freiheitsstrafe normativ betrachtet keinesfalls durch einen Faktor wie die Zeitumstellung oder einen Schlafmangel des Richters beeinflusst sein. ee) Geburtstag des Angeklagten Untersuchungen mit Daten aus Frankreich und den USA konnten des Wei­ teren belegen, dass Angeklagte bei einer richterlichen Entscheidung, die an ihrem eigenen Geburtstag ergeht, mildere Urteile zu erwarten haben als an den übrigen 364 Tagen im Jahr.215 211  Vgl. etwa Alhola/Polo-Kantola, Neuropsychiatric Disease and Treatment 3 (2007), 553 (553 ff.). 212  Ghumman/Barnes, Journal of Applied Social Psychology 43 (2013), 166 (167 ff.). 213  Barnes/Wagner, Journal of Applied Psychology 94 (2009), 1305 (1312); auch die Zahl der Arbeitsunfälle erhöht sich durch die Umstellung von Winter- auf Som­ merzeit deutlich, vgl. a. a. O., 1310. 214  Cho/Barnes et al., Psychological Science 28 (2017), 242 (243 ff.). Cho  et al. untersuchten dazu einen umfassenden Datensatz aus dem Zeitraum 1992 bis 2003 und rechneten potenzielle alternative Ursachen aus den Ergebnissen heraus – insbe­ sondere allgemeine Trends in der Strafzumessung, Spezifika der Gerichte und des Verurteilten, dessen Ethnie, Vorstrafen und behördliche Einträge, Alter, Geschlecht und Bildungsstand. 215  Chen/Philippe, Toulouse School of Economics Working Paper 18-934 (2018), 1 (7 f.).

74

Erster Teil: Status quo richterlicher Entscheidungsfindung

ff) Hungrige Richter, härtere Urteile? Eine Studie über israelische Bewährungsentscheidungen216 erregte auch in Deutschland mediale Aufmerksamkeit.217 Für das Verständnis richterlicher Entscheidungsfindung ist neben ihren Ergebnissen auch die Rezeption in der Fachwelt interessant. (1) Empirischer Nachweis – Bewährungsentscheidungen israelischer Richter Die Studie untersuchte über 1000 reale Entscheidungen über Bewährungs­ anträge inhaftierter Straftäter in einem Zeitraum von zehn Monaten. Die Forscher vermuteten einen Zusammenhang zwischen dem Zeitpunkt der Entscheidung im Tagesablauf und dem Entscheidungsinhalt (Bewährung ja oder nein). Die Ergebnisse verblüffen: Morgens nach der ersten Pause und unmittelbar nach dem Mittagessen entschieden die Richter218 65 Prozent der Anträge zugunsten des Antragstellers und gewährten die Strafaussetzung zur Bewährung.219 Kurz vor einer Pause sank die Quote der positiven Entschei­ dungen nahezu auf Null, die Richter lehnten also fast alle Anträge zum Ende einer Arbeitsphase hin ab. Diese Tendenz bestand bei allen Richtern – ohne Berücksichtigung fallspezifischer Informationen. Die Autoren der Studie schließen daraus, dass die Urteilsfreude mit der Zahl der Entscheidungen abnimmt. Dagegen steige die Neigung, „es sich leicht zu machen“, eher an, sodass Entscheidungen tendenziell auf die Beibehaltung des Status quo ge­ richtet sind (hier: Antrag auf Bewährung wird abgelehnt). Diese erhöhte Tendenz, gemäß dem Status quo zu entscheiden, bestehe insbesondere bei wiederholten bzw. sich wiederholenden Entscheidungen. Pausen könnten diese Tendenz überwinden: Positiv wirke dann neben der Nahrungsaufnahme auch die (mentale) Erholung.

Folgenden Danziger/Levav et al., PNAS 108 (2011), 6889 (6889 ff.). etwa Bojanowski, Müde Richter entscheiden gegen Angeklagte, Spiegel Online vom 12.4.2011; Bengsch, Hungrige Richter fällen härtere Urteile, Die Welt Online vom 12.4.2011; Weber, Hungriger Richter – hartes Urteil, Süddeutsche Zei­ tung (Online) vom 13.4.2011; Englich/Bernhardt, Gehirn & Geist 2012, 14 (16). 218  Weinshall-Margel/Shapard, PNAS 108 (2011), E833 (E833) weisen darauf hin, dass im Regelfall nicht lediglich ein Richter entscheidet, sondern ein Panel, in dem neben einem Richter auch noch ein Kriminologe sowie ein Sozialarbeiter/Bewäh­ rungshelfer stimmberechtigt ist. 219  Danziger/Levav et al., PNAS 108 (2011), 6889 (6890 ff.). 216  Zum 217  Vgl.



I. Problemaufriss75

(2) Kritik: Begrenzte Aussagekraft der Studie Die Interpretation der empirischen Daten ist mit Obacht zu unternehmen. Die Ergebnisse lassen nicht auf lineare Kausalitäten schließen: Es ist nicht zweifelsfrei klar, ob die Pause, die Nahrungsaufnahme (und die Veränderung des Blutzuckerspiegels), eine Kombination aus beidem oder weitere Faktoren für die Veränderungen des Entscheidungsverhaltens kausal waren. Welcher dieser Faktoren die Entscheidungsstatistik letztlich verzerrte, beantwortet die Studie nicht. Darauf weist einer der Autoren auch selbst ausdrücklich hin.220 Ebenso fand die Stimmung bzw. Tageslaune der Richter keine Berücksichti­ gung. In der Fachwelt erfuhr die Studie deutliche Kritik. Neben Kritik an der Me­ thodik bemängelte man auch, dass die Autoren ihre Ergebnisse bzw. die Ef­ fekte überschätzten.221 Insbesondere seien alternative Erklärungen nicht hin­ reichend beachtet und ausgeschlossen worden. Die Studie sei daher statistisch unsauber.222 In der Tat können die empirischen Befunde zum großen Teil (auch) auf der Reihenfolge der Fälle bzw. den Pausenterminierungen beruhen:223 Die Richter im Kontext der Studie arbeiteten regelmäßig alle Fälle eines Gefäng­ nisses ab, bevor sie Pausen machten, und zu Beginn beurteilten sie die anwalt­ lich vertretenen Inhaftierten, am Ende diejenigen ohne Anwaltsbeistand.224 Außerdem ist die Ablehnung eines Antrags auf Bewährung nicht gleichzuset­ zen mit dem Zurückstellen oder Vertagen der Entscheidung.225 (3) Resümee Auf die Kritik hin überprüften Danziger und seine Kollegen ihre Studie: Die vorgetragenen Alternativursachen (Reihenfolge, anwaltliche Vertretung) seien aber auszuschließen bzw. herausgerechnet worden; die Zahlen belegten jedenfalls eindeutig, dass rechtlich irrelevante Faktoren die Entscheidungen beeinflussten.226 Auch sei die Ablehnung eines Antrags auf Bewährung zwar 220  Columbia University – Columbia Business School, How Extraneous Factors Impact Judicial Decisionmaking, Pressemitteilung v. 12.4.2011. 221  Glöckner, Judgment and Decision Making 11 (2016), 601 (602 ff.); Chatziathanasiou, JZ 2019, 455 (457 f.). 222  Daljord/Urminsky et al., im Erscheinen (2019), Typoskript-S. 8 ff. 223  Weinshall-Margel/Shapard, PNAS 108 (2011), E833 (E833). 224  Anwaltlich vertretene Antragsteller haben grundsätzlich höhere Chancen, dass ihr Bewährungsgesuch Erfolg hat. 225  Weinshall-Margel/Shapard, PNAS 108 (2011), E833 (E833). 226  Danziger/Levav et al., PNAS 108 (2011), E834 (E834). Insoweit lässt sich fra­ gen, ob das Vorgehen der Wissenschaftler nicht seinerseits ein Beispiel für einen Bias

76

Erster Teil: Status quo richterlicher Entscheidungsfindung

rechtlich eine andere Kategorie als das Zurückstellen der Entscheidung, psy­ chologisch und tatsächlich seien aber beide Entscheidungen auf Erhalt des Status quo gerichtet und damit als abhängige Variable vergleichbar. Festzuhalten bleibt zwar, dass die Studie eine Kausalität zwischen „Es­ senspause“ und „positiver Bewährungsentscheidung“ nicht belegen konnte – anders, als es das ursprüngliche Fazit suggerierte227. Denn die Grundlage für die publizierte Deutung der Korrelation – dass Richter bei wiederholten bzw. sich wiederholenden Entscheidungen eine Tendenz zur Erhaltung des Status quo aufweisen, die durch Pausen überwunden wird – bleibt eine Prämisse, die ihrerseits nicht hinreichend belegt ist. Die Korrelation bleibt aber auffäl­ lig, auch nach Bereinigen um die (möglichen) alternativen Ursachen228. Als Ergebnis der Studie und ihrer Interpretation lässt sich betonen, dass „das Körperliche“ in seiner Gesamtheit selbstverständlich Einfluss auf die im Gehirn getroffenen und zu treffenden Entscheidungen hat.229 Eine Trennung zwischen „Körper“ und „Geist“, wie sie die Philosophie jahrhundertelang vornahm,230 ist für die Untersuchung und Bewertung von Entscheidungen überholt: Denken und Entscheiden erfolgt im Körper.231 Die Ergebnisse der israelischen Studie stärken jedenfalls die Annahme, dass rechtlich irrelevante Faktoren tatsächlich häufig eine Rolle in juristischen Entscheidungen spie­ len – und dass diese Anfälligkeit für psychologische Denkfehler und Verzer­ rungen auch vor erfahrenen Richtern nicht Halt macht.

II. Rechtsprechung und Diskriminierungspotenzial Richterliches Entscheiden ist nicht nur Normkenntnis, nüchterne Norman­ wendung und fallorientierte, rein rationale Gewichtung von Informationen. Es ist mehr als nur das Ergebnis eines schematischen Subsumtionsaktes, weil darstellt – den Confirmation Bias (Bestätigungsfehler), wonach Menschen dazu nei­ gen, die eigenen Ansichten bestätigenden Fakten eher wahrzunehmen als andere (siehe dazu oben S. 63 f.). 227  Vgl. Danziger/Levav et al., PNAS 108 (2011), 6889 (6890 ff.). 228  Vgl. zu diesen insbesondere Weinshall-Margel/Shapard, PNAS 108 (2011), E833 (E833). 229  Vgl. etwa Kirschfeld, Biologie in unserer Zeit 43 (2013), 292 (292 ff.); Mayer, Das zweite Gehirn, 2016, Teil 1, Kapitel 1; siehe auch Baron-Cohen, Testosterone on My Mind and in My Brain, in: Brockman (Hrsg.), Thinking, 2013, S. 156 (161 ff.) zu den Auswirkungen einer höheren oder niedrigeren Testosteronkonzentration im Ge­ hirn. 230  Vgl. die ausführliche Beschreibung des Leib-Seele-Problems als Kernfrage der Philosophie des Geistes bei Brüntrup, Philosophie des Geistes, 2018, S. 11 ff. Mittler­ weile spricht man auch vom „Körper-Geist-Problem“, wenngleich beide Begriffe nicht kongruent sind. 231  Ayan, Lockerlassen – Warum weniger Denken mehr bringt, 2016, S. 61 ff.



II. Rechtsprechung und Diskriminierungspotenzial77

es zugleich ein sich in dem Entschluss äußerndes voluntatives Verhalten dar­ stellt.232 Als solches ist die einzelne richterliche Entscheidung potenziell an­ fällig für Ungleichbehandlungen, deren Sensibilität und Ausmaß ihr Charak­ ter als Hoheitsakt noch verstärken kann. 1. Normative Anknüpfungspunkte möglicher Diskriminierungen Eine Entscheidung, die einen Rechtsunterworfenen aufgrund von Rationa­ litätsschwächen benachteiligt, kann diskriminierend wirken. Das Diskrimi­ nierungspotenzial ist vielfältig – wie auch das Recht verschiedenste AntiDiskriminierungsnormen kennt: Normativer Anknüpfungspunkt eines effekti­ ven Diskriminierungsschutzes ist zuvorderst Art. 3 GG, insbesondere dessen Abs. 3. Daneben halten auch Art. 18 f. AEUV, Art. 20 ff. GRCh sowie § 19 i. V. m. § 2 AGG (in Beschäftigtenverhältnissen auch § 7 AGG) Regelungen vor, die den Einzelnen vor ungerechtfertigten Schlechterbehandlungen schüt­ zen sollen. Diskriminierungsschutz verbrieft zudem Art. 14 EMRK, der auch die soziale Herkunft und das Vermögen in sein Schutzrepertoire aufnimmt.233 2. (Selbst-)Verständnis der richterlichen Tätigkeit Um das Wesen richterlicher Tätigkeit in der Praxis ergründen zu können, kann ein Blick darauf hilfreich sein, wie die Rechtsprechung selbst ihre Funktion einordnet – der Richter als „Diener“, der „nicht nur ‚Subsumtions­ automat‘, aber auch nicht ‚Richterkönig‘ ist.“234 Er solle „nicht zu viel wol­ len, sondern Demut vor dem Gesetz haben“, er sei „Knecht des Rechts“, der „als nüchterner Positivist das geltende Recht anwenden und durchsetzen, nicht aber sein eigenes Recht sprechen, seine Vorstellungen vom Recht ver­ folgen und für andere zum Maßstab machen“ solle. Zugleich sei in praxi keine Rechtsanwendung möglich, ohne dass in die Auslegung und Konkreti­ sierung der anzuwendenden Rechtstexte sowie in die Einzelfallentscheidung 232  Berkemann,

JZ 1971, 537 (537). völkerrechtlicher Ebene finden sich noch weitere Schutzvorrichtungen, z. B. Art. 2 Abs. 2 und Art. 3 des Internationalen Paktes über wirtschaftliche, soziale und kulturelle Rechte (UN-Sozialpakt), das Internationale Übereinkommen zur Besei­ tigung jeder Form von Rassendiskriminierung von 1966, das Übereinkommen zur Beseitigung jeder Form von Diskriminierung der Frau von 1979 und die Erklärung über die Beseitigung aller Formen von Intoleranz und Diskriminierung der Religion oder der Überzeugung von 1981. Auch mittelbare Diskriminierungen sind unzulässig (vgl. etwa Art. 2 Abs. 2 lit. b) RL 2000/43/EG und dazu BVerfGE 104, 373 (393); die Richtlinie ist auf gerichtliche Entscheidungen allerdings nicht anwendbar, vgl. Art. 3 Abs. 1 der RL). 234  So der Richter am Bundessozialgericht Flint, NZS 2016, 81 (82). 233  Auf

78

Erster Teil: Status quo richterlicher Entscheidungsfindung

auch die eigenen Vorstellungen des Richters einflössen; der Richter müsse sich nicht nur dessen bewusst sein, sondern sich und anderen auch eingeste­ hen, „an welchem Punkt der Rechtsanwendung seine Vorverständnisse zum Austrag kommen“ – und diese offenlegen und ausformulieren.235 Dabei ver­ deutliche eine gute Begründung, dass sich die getroffene Entscheidung juris­ tisch nachvollziehen lasse und dem Blick der Berufskollegen standhalten könne. Sie solle aber nicht suggerieren, dass erst die Rationalität der Begrün­ dung zur Entscheidung geführt habe, denn die richterliche Entscheidung speise sich aus mehr als nur ihrer Begründbarkeit – namentlich aus Eigenwil­ len und Judiz, Routinen, Vorverständnissen und Wertungen sowie auch Prä­ judizien und integrierbaren Auffassungen der Rechtswissenschaft.236 Ganz ähnlich hat auch der Erste Senat des BVerfG die richterliche Rechts­ findung als einen „Akt des bewertenden Erkennens, dem auch willenhafte Elemente nicht fehlen“ bezeichnet; festgestellte Lücken seien „nach den Maßstäben der praktischen Vernunft und den ‚fundierten allgemeinen Ge­ rechtigkeitsvorstellungen der Gemeinschaft‘ zu schließen“.237 Dass die Ge­ rechtigkeitsvorstellungen der Gemeinschaft ihrerseits (subjektiver) Interpre­ tation bedürfen, macht eine Forderung nach vollständiger Abwesenheit vo­ luntativer Elemente jedenfalls zu einem Extrem, das weder Realität noch anzustrebendes Idealbild sein kann. Einigkeit scheint in der Auffassung zu bestehen, dass die Rechtsanwen­ dung keine reine Deduktion ist, die man bedenkenlos Computern überlassen könnte. Auf das „Judiz“ – definiert als der „vernünftige Gebrauch von Re­ geln, den man nicht in Regeln fassen kann“238 – könne die Rechtsprechung nicht verzichten.239 Vor jedem Urteil stehe ein „Vorurteil“: Nicht nur das Gesetz, das Gewohnheitsrecht und das Richterrecht seien Rechtsquellen, sondern auch die Person des Richters mitsamt seinen persönlichen Prägun­ gen.240 Der Begriff „Vorurteil“ sei negativ besetzt, ein „Vorverständnis“ aber unabdingbar: Zum Vorverständnis und zur Subjektivität des Richters gebe es keine Alternative. Es müsse freilich Absicherungen geben, um zu verhindern, dass das Vorverständnis als Vorurteil heimlich, intransparent und unkontrol­ 235  Flint, NZS 2016, 81 (82). Zu diesen Begriffen in einer historischen Perspektive (insbesondere mit Blick auf das 19. Jahrhundert) Ogorek, Richterkönig oder Subsum­ tionsautomat?, 2. Aufl., 2008, S. 4 ff., sowie Günzl, JZ 2019, 180 (180 ff.). 236  Flint, NZS 2016, 81 (82). 237  BVerfGE 34, 269 (286 f.). 238  So etwa der ehemalige Vizepräsident des BGH Wenzel, NJW 2008, 345 (347); zuvor auch schon Strauch, Rechtsprechungstheorie, in: Lerch (Hrsg.), Die Sprache des Rechts, 2005, S. 479 (506). 239  Strauch, Rechtsprechungstheorie, in: Lerch (Hrsg.), Die Sprache des Rechts, 2005, S. 479 (506). Vgl. dazu auch unten S. 231 ff., insbesondere S. 238 f. 240  So der frühere Präsident des BGH Hirsch, ZRP 2009, 61 (61 f.).



II. Rechtsprechung und Diskriminierungspotenzial79

liert die richterliche Entscheidung beeinflusst. Die Fortbildung des Rechts durch die Gerichte spiele dabei eine immer größere Rolle.241 3. Schwächen in der „Quantität der Sachverhaltsanalyse“? Ein wesentlicher Teil der richterlichen Arbeit ist es, Fakten zu sammeln, zu ordnen und zu analysieren. Das Gericht hat zunächst den Sachverhalt zu ermitteln, bevor es auf eine Rechtsfolge erkennen kann. Der Umfang der richterlichen Sachverhaltsermittlung differiert wegen der unterschiedlichen Verfahrensgrundsätze in den einzelnen Gerichtszweigen deutlich. Aber selbst im Zivilprozess, in dem die Dispositionsmaxime gilt,242 hat das Gericht im Rahmen des § 139 ZPO auf die Klärung des Sachverhalts hinzuwirken. Fak­ ten aufzufinden und die Unsicherheit der Faktenlage in die Sicherheit einer gerichtlichen Entscheidung zu transformieren, ist also eine der Kernaufgaben richterlicher Tätigkeit.243 Weil der Sachverhalt eines Verfahrensgegenstands im gerichtlichen Pro­ zess in der Regel nicht vollständig und objektiv feststeht, ist die richterliche Entscheidungsfindung aus Sicht der Entscheidungstheorie ein Fall von „Ent­ scheiden unter Unsicherheit“ – und kann als solcher auch in Studien model­ liert werden.244 Obwohl Entscheidungen unter Unsicherheit immer auch ein auf die jeweilige Wahrscheinlichkeit bezogenes quantitatives Element zu­ kommt, stellt sich die richterliche Herangehensweise in der Praxis doch überwiegend als qualitativ ausgerichtet dar. Statistisches Denken und der Umgang mit Wahrscheinlichkeiten gehören nicht zum methodischen Werk­ zeugkasten des Richters. Als Jurist ist er sich der (quantitativen) Unsicherheit regelmäßig nicht bewusst oder macht seinen Umgang damit jedenfalls nicht transparent: Der Richter muss „lediglich“ „nach seiner freien, aus dem Inbe­ griff der Verhandlung geschöpften Überzeugung“ (§ 261 StPO, ähnlich auch § 286 Abs. 1 S. 1 ZPO) über das Ergebnis der Beweisaufnahme entscheiden. Er selbst muss persönlich von der Schuld eines Angeklagten, von der Glaub­ 241  Hirsch,

ZRP 2009, 61 (61 f.). Dispositionsmaxime ist der wichtigste Verfahrensgrundsatz im Zivilpro­ zess und besagt, dass grundsätzlich nicht das Gericht, sondern die Parteien das Ver­ fahren beherrschen, nach dem ein zivilrechtlicher Rechtsstreit vor Gericht ausgetra­ gen wird; vgl. etwa §§ 253 (nullo actore nullus iudex), 269 und 308 ZPO. Zur Dispo­ sitionsmaxime ergänzend Musielak, in: Krüger/Rauscher (Hrsg.), MüKo-ZPO, Bd. 1, 5. Aufl., 2016, § 308, Rn. 1; zur weitgehend gleichen Geltung im Verwaltungsprozess (vgl. § 173 VwGO) Meissner/Steinbeiß-Winkelmann, in: Schoch/Schneider/Bier (Hrsg.), VwGO, 27. Erg.-Lfg. (Okt. 2014), § 173, Rn. 92. 243  Sonnemans/van Dijk, The Journal of Law, Economics & Organization 28 (2012), 687 (687). 244  Siehe bspw. Lando, Review of Law & Economics 2 (2006), 371 (372 ff.). 242  Die

80

Erster Teil: Status quo richterlicher Entscheidungsfindung

haftigkeit einer Zeugenaussage usw. überzeugt sein; er muss diese seine Überzeugung in der Entscheidungsbegründung aber lediglich qualitativ, nicht quantitativ darlegen.245 Durch dieses Ausblenden einer quantitativen Heran­ gehensweise bei der Bestimmung etwa der Schuldwahrscheinlichkeit eines Angeklagten kann es zu Ungenauigkeiten und letztlich zu Falscheinschätzun­ gen kommen – bspw. fehlerhaften Verurteilungen oder Freisprüchen.246 4. Rationalität in der Beweiswürdigung a) Allgemeine Problemstellung Neben der Sachverhaltsaufklärung macht auch die Beweiswürdigung einen gewichtigen Teil gerichtlicher Verfahren aus (vgl. etwa § 286 ZPO, § 261 StPO) aus. Sie ist grundsätzlich ausschließlich Sache des entscheidenden (Tat-)Richters;247 weder die Rechtsmittelinstanz(en) noch Politik, Medien oder Öffentlichkeit dürfen hier einwirken. Die Beweiswürdigung nimmt in Studium und Referendariat allerdings kaum Platz ein.248 Wissenschaftliche Kriterien zur Beweiswürdigung und damit ein Mehr an Rationalität ermögli­ chende klare Handlungsanweisungen lassen auch die Verfahrensordnungen vermissen. Die juristische Ausbildung und das Gesetz geben dem Richter keine konkrete Anleitung vor, wie er bspw. die Glaubhaftigkeit einer Zeugen­ aussage zu bewerten hat.249 245  Vgl. Sonnemans/van Dijk, The Journal of Law, Economics & Organization 28 (2012), 687 (688). 246  Sonnemans/van Dijk, The Journal of Law, Economics & Organization 28 (2012), 687 (699 ff.). In Konstellationen, in denen die Möglichkeit besteht, die Wahr­ scheinlichkeit (etwa der Schuld) durch die Suche nach Beweisen zugunsten einer bestimmten Faktenlage zu erhöhen, scheinen auch erfahrene Juristen nicht ausrei­ chend lange zu suchen, vgl. a. a. O., 713. Für die Rechtsprechung kann sich hieraus der Schluss ergeben, richterliche Arbeit und die Karrierechancen für Richter nicht (auch) an (durchschnittlichen) Erledigungszahlen auszurichten: Bei erhöhter Komple­ xität der einzelnen Fälle – man denke etwa an den Anstieg der Kommentarliteratur zu einem beliebigen Rechtsgebiet oder der Anzahl möglicher Fachanwaltstitel in den letzten 30 Jahren – scheint ein verringerter Zeitdruck als ein Weg, in sachlicher wie rechtlicher Hinsicht fundierte(re) Entscheidungen zu ermöglichen. Vgl. auch (aus Sicht eines Nichtjuristen) Wagner, Ende der Wahrheitssuche, 2017, S. 67 ff. 247  Vgl. für den Zivilprozess etwa Prütting, in: Krüger/Rauscher (Hrsg.), MüKoZPO, Bd. 1, 5. Aufl., 2016, § 286, Rn. 10, 13; für den Strafprozess etwa Ott, in: Han­ nich (Hrsg.), KK-StPO, 8. Aufl., 2019, § 261, Rn. 2. 248  Dies bereits beklagend Bender, StV 1982, 484 (484). Das Wort „Beweiswürdi­ gung“ findet sich bspw. in den rheinland-pfälzischen Juristen-Ausbildungsvorschriften nicht – weder im JAG noch in der JAPO. 249  Eingehend zur Glaubhaftigkeitsbegutachtung Dettenborn, NZFam (2016), 593 (595 ff.); siehe auch den Sammelband Deckers/Köhnken (Hrsg.), Die Erhebung und



II. Rechtsprechung und Diskriminierungspotenzial81

Gemäß der Nullhypothese, die der BGH anlegt,250 ist eine zu prüfende Aussage zunächst als unwahr anzusehen. Diese Hypothese ist anhand eines Katalogs von Gegenhypothesen zu testen. Erst dann, wenn sie nicht mehr aufrecht zu erhalten ist, gilt ihr Gegenteil; erst dann ist von der „ErlebnisGestütztheit“ der Aussage und damit ihrer Glaubhaftigkeit auszugehen. Die­ ser Vorgang eröffnet potenzielle Fehlerquellen: Gerade im Strafprozess stützt die Lehre von der freien Beweiswürdigung in ihrer konsequenten Ausfor­ mung entsprechend dem Wortlaut des § 261 StPO die Richtigkeit von (straf­ prozessualen) Tatsachenfeststellungen zuvorderst auf die persönliche – und damit jedenfalls potenziell auch von Gefühl und Intuition geprägte – Überzeugung des Richters.251 Diese darf zwar nicht willkürlich sein und bedarf zudem rationaler Erläuterung.252 Letztere muss jedoch die Feststellungen nicht tragen:253 Es genügt ein „nach der Lebenserfahrung ausreichendes Maß an Sicherheit“, demgegenüber vernünftige Zweifel nicht mehr bestehen.254 Der Tatrichter ist darüber hinaus nicht an Beweisregeln oder Beweisvermu­ tungen gebunden – die Beweiswürdigung ist insoweit frei.255 Die Beweiswürdigung bleibt somit ein toter Winkel im Spiegel der Ratio­ nalität richterlicher Entscheidungsfindung. Das Internum des entscheidenden Richters wird nicht (etwa durch Nachfragen) erhellt, und so verbleibt immer ein Risiko für die (bewusst oder unbewusst) tendenziöse oder emotional ge­ leitete Auswertung einer Zeugenaussage.256

Bewertung von Zeugenaussagen im Strafprozess, 2. Aufl., 2014; zu konkreten Metho­ den der Glaubhaftigkeitsanalyse Köhnken, in: Müller/Schlothauer (Hrsg.), MAH Strafverteidigung, 2. Aufl., 2014, § 61 Psychologische Begutachtung von Aussagen, Rn. 35 ff. Ein Indikator für die Wahrhaftigkeit einer Zeugenaussage sind insbesondere die sog. Real-Kennzeichen, etwa Merkmale, die für oder gegen eine persönliche „Er­ lebnisbezogenheit“ sprechen. 250  Vgl. etwa BGHSt 45, 164 (167 f.); BGH, NStZ 2016, 367 (368 ff). 251  Keller, GA 1999, 255 (255); vgl. auch BGHSt 10, 208 (209), sowie Herdegen, StV 1992, 527 (530). 252  Herdegen, StV 1992, 527 (527). 253  Keller, GA 1999, 255 (255). Siehe auch BGHSt 41, 206 (216), der betont, es sei unproblematisch, dass auch nicht wissenschaftlich gesicherte Erfahrungssätze ei­ ner Beweiswürdigung zugrundegelegt werden können. 254  St. Rspr., z. B. BGH, NStZ 1988, 236 (237) m. w. N. 255  BGHSt 39, 291 (295); Meyer-Goßner, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, § 261, Rn. 2a. 256  Keller, GA 1999, 255 (260), der zu dem Schluss gelangt, dass aller Bedürfnisse nach Rationalität und Schematisierung „Erfahrung und Ethos des Richters […] bei der Beweiswürdigung nicht obsolet [werden]“ (a. a. O., 271). Vgl. auch Herdegen, StV 1992, 527 (530).

82

Erster Teil: Status quo richterlicher Entscheidungsfindung

b) Problem inkorrekter Zeugenaussagen Die Beweiswürdigung steht vor einer weiteren Herausforderung: Auch der geschulte Richter, der die Zeugenaussage methodisch korrekt würdigt und anhand des anerkannten Instrumentariums ihre Glaubhaftigkeit bewertet, kann sich nicht vollends darauf verlassen, dass eine glaubhafte Aussage auch der objektiven Wahrheit entspricht. Jüngere Untersuchungen deuten darauf hin, dass Zeugenaussagen insgesamt unsicher und manipulierbar sind – sub­ jektive Wahrheiten und Irrtümer schränken den Beweiswert stark ein. Wahr­ nehmungs-, Erinnerungs- und Wiedergabefehler können eine Aussage verfäl­ schen oder gänzlich von der objektiven Wahrheit entrücken.257 So halten bspw. viele Menschen Schlussfolgerungen für echte Erlebnisse.258 Sog. Scheinerinnerungen führen dazu, dass der Zeuge den Inhalt seiner (objektiv unwahren) Aussage als subjektiv wahr empfindet.259 Für die Wahr­ heitsfindung (vgl. § 244 Abs. 2 StPO) sind solche Aussagen „gefährlicher“ als Lügen – letztere lassen sich mit den Methoden der richterlichen Aussa­ geanalyse sowie evtl. zusätzlicher Glaubhaftigkeits- und Glaubwürdigkeits­ gutachten vergleichsweise sicher beurteilen. Die Gefahr trügerischer „Erin­ nerungen“ besteht nicht nur bei Zeugen, sondern auch bei Angeklagten. Sie eröffnet auch Möglichkeiten der Manipulation: Erinnerungen können – neu­ erer Forschung zufolge – geradezu „eingepflanzt“ werden.260 Vor dem Hintergrund dieser Forschungsergebnisse ist davon auszugehen, dass vor allem wiederholte und intensive sowie suggestive Befragungen ei­ nes Zeugen Scheinerinnerungen erzeugen können – also Gedächtnisinhalte, die nicht das Resultat eigener Wahrnehmungen des Zeugen sind, sondern 257  Vgl. Bender, StV 1982, 484 (484); Köhnken, Fehlerquellen in aussagepsycholo­ gischen Gutachten, in: Deckers/Köhnken (Hrsg.), Die Erhebung und Bewertung von Zeugenaussagen im Strafprozess, 2. Aufl., 2014, S. 1 (1 ff.); Oppermann, Aussagetüch­ tigkeit – die unterschätzte Fragestellung, in: Deckers/Köhnken (Hrsg.), Die Erhebung und Bewertung von Zeugenaussagen im Strafprozess, 2. Aufl., 2014, S. 295 (295 ff.). 258  Bender, StV 1982, 484 (485 f.); Jansen, in: Müller/Schlothauer (Hrsg.), MAH Strafverteidigung, 2. Aufl., 2014, § 35 Technik der Zeugenvernehmung, Rn. 18; Bender, StV 1982, 484 (484). 259  Köhnken, in: Müller/Schlothauer (Hrsg.), MAH Strafverteidigung, 2.  Aufl., 2014, § 61 Psychologische Begutachtung von Aussagen, Rn. 20 ff. 260  Siehe dazu die Forschungsergebnisse der Rechtspsychologin Shaw, insbeson­ dere Chaplin/Shaw, Journal of Police and Criminal Psychology 31 (2016), 208 (211 ff.); Shaw/Wafler, Psychiatry, Psychology and Law 23 (2016), 676 (680 f.); Shaw/Porter, Psychological Science 26 (2015), 291 (292 ff.); lesenswert auch die (populärwissenschaftliche) Aufbereitung des Themas „falsche Erinnerungen“ in Shaw, Das trügerische Gedächtnis, 2016, S. 105 ff. Zum Problem der Suggestion und deren potenziell verheerenden Auswirkungen Blum, Suggestive Prozesse bei der Zeu­ genbetreuung und -befragung, in: Deckers/Köhnken (Hrsg.), Die Erhebung und Be­ wertung von Zeugenaussagen im Strafprozess, 2. Aufl., 2014, S. 353 (353 ff.).



II. Rechtsprechung und Diskriminierungspotenzial83

direkte Folge suggestiver Beeinflussungen.261 Zeugenaussagen zu beurteilen, sollte sich daher nicht darauf beschränken, etwaige Lügen zu entdecken.262 Die Möglichkeit eines Irrtums oder einer Scheinerinnerung beim Aussagen­ den ist in der Beweiswürdigung immer mitzudenken. Ermittlungstaktisch kann es zudem sinnvoll sein, dass der Zeuge bereits bei der ersten Identifi­ zierung bzw. Befragung angeben sollte, wie sicher er sich seiner Aussage ist: Diese Selbsteinschätzung zu einem möglichst frühen Zeitpunkt ist u. U. deut­ lich zuverlässiger als Monate oder Jahre später vor Gericht.263 5. „Verborgene“ Strafzumessung als Diskriminierungsrisiko? a) Einführung Weil staatliches Strafen einen der gravierendsten Eingriffe in das Leben eines Betroffenen darstellt, zählt die Frage nach der konkret verhängten Strafe zu den relevantesten im Strafverfahren.264 Ausgangspunkt der Strafzu­ messung – die nicht zum Pflichtfachstoff des rechtswissenschaftlichen Studi­ ums zählt – sind in praxi § 46 StGB und die „Spielraumtheorie“ des BGH:265 Innerhalb des anzuwendenden Strafrahmens bestimmt der Richter die Strafe gemäß der individuellen Schuld des Täters, wobei er auch die Strafzwecke sowie den Schutzzweck des Strafrechtstatbestands berücksichtigt. Sog. Punktstrafen lehnen Rechtsprechung und herrschende Lehre ab.266 Vielmehr folgt aus dem Schuldmaß keine feste Strafgröße, sondern ein gegenüber dem (weiten) gesetzlichen Strafrahmen konkretisierter Schuldrahmen, aus dem erst der Richter die schuldangemessene Strafe zumessen muss.267 Jedoch lässt sich innerhalb des dergestalt verbleibenden Spielraums vieles begründen und nachträglich „rationalisieren“: Warum etwa statt einer Frei­ 261  Köhnken, in: Müller/Schlothauer (Hrsg.), MAH Strafverteidigung, 2.  Aufl., 2014, § 61 Psychologische Begutachtung von Aussagen, Rn. 68. 262  Köhnken, in: Müller/Schlothauer (Hrsg.), MAH Strafverteidigung, 2.  Aufl., 2014, § 61 Psychologische Begutachtung von Aussagen, Rn. 34; ähnlich Bender, StV 1982, 484 (484). 263  So auch Wixted/Mickes et al., PNAS 113 (2016), 304 (309). 264  Siehe zu den Voraussetzungen und Grenzen staatlichen Strafens Frisch, NStZ 2016, 16 (17 ff.); zum Schuldgrundsatz und dem Streben nach Gerechtigkeit Frisch, NStZ 2013, 249 (252 ff.). 265  St. Rspr., siehe etwa BGHSt 7, 28 (89); 20, 264 (266); 29, 319 (320 f.). Siehe dazu auch unten S. 402 f. 266  St. Rspr., etwa BGHSt 27, 2 (3); Streng, in: Kindhäuser/Neumann/Paeffgen (Hrsg.), NK StGB, 5. Aufl., 2017, § 46, Rn. 96 ff. m. w. N., auch zu Vertretern der „Punktstrafentheorie“. 267  Vgl. nur Fischer, StGB, 66. Aufl., 2019, § 46, Rn. 20.

84

Erster Teil: Status quo richterlicher Entscheidungsfindung

heitsstrafe von 18 Monaten nicht 17 oder 19 Monate „tat- und schuldange­ messen“ sind, wird sich in aller Regel nicht aus der Begründung ergeben; für den Betroffenen macht es aber einen großen Unterschied. Die Entschei­ dungsfindung über das Strafmaß bleibt für Betroffene und Dritte intranspa­ rent und letztlich nur schwer angreifbar. b) Unterschiedliche Strafzumessungspraxis je nach Region bzw. Gerichtsbezirk Welche Strafe ein Angeklagter in Deutschland erhält, hängt auch von der Region bzw. dem Gerichtsbezirk ab, in dem der Strafprozess stattfindet. Ein entsprechender Zusammenhang gilt als empirisch belegt.268 Die regionalen Abweichungen sind in den letzten Jahrzehnten zwar geringer geworden; es zeigen sich aber weiterhin erhebliche Unterschiede zwischen den Bundeslän­ dern sowie auch auf den darunter liegenden Ebenen. In Norddeutschland und Baden-Württemberg urteilen die Strafrichter tendenziell eher mild, in (Ober-) Bayern und Südhessen sanktionieren sie tendenziell etwas härter. Dass die Höhe einer Strafe also zumindest auch davon abhängt, in welcher Region die Straftat vor Gericht landet, hat jüngst erneut eine Studie des Max-Planck-Instituts für ausländisches und internationales Strafrecht in Frei­ burg bekräftigt;269 die Untersuchung analysierte 1,5 Millionen Entscheidun­ gen aller rund 800 deutschen Amts- und Landgerichte aus den Jahren 2004, 2007 und 2010 anhand von Einzelfalldaten aus dem Bundeszentralregister. „Harte“ Faktoren wie die Schwere der Tat, Vorstrafen oder mildernde Um­ stände fanden ebenso Berücksichtigung wie Alter, Nationalität und Ge­ schlecht des Verurteilten; die Unterschiede nach Region blieben aber signifikant:270 In etwa einem Fünftel der Gerichtsbezirke sprechen die Rich­ 268  Albrecht, Zeitschrift für die gesamte Strafrechtswissenschaft 102 (1990), 596 (597 ff.); Grundies, Regionale Unterschiede in der gerichtlichen Sanktionspraxis in der Bundesrepublik Deutschland, in: Hermann/Pöge (Hrsg.), Kriminalsoziologie, 2018, S. 295 (298 ff.), vgl. dort auch die Skizze des Forschungsstands (S. 295 ff.); die Analyse von Grundies fußt auf den Daten der im Auftrag des BMJV erstellten Studie Jehle/Albrecht et al., Legalbewährung nach strafrechtlichen Sanktionen, 2016, dort S. 25 ff. Siehe auch bereits die empirischen Befunde bei Schiel, Unterschiede in der deutschen Strafrechtsprechung, 1969, S. 23 ff. 269  Grundies, Regionale Unterschiede in der gerichtlichen Sanktionspraxis in der Bundesrepublik Deutschland, in: Hermann/Pöge (Hrsg.), Kriminalsoziologie, 2018, S.  295 (297 ff.); Grundies, Gleiches Recht für alle? – Eine empirische Analyse lokaler Unterschiede in der Sanktionspraxis inder Bundesrepublik Deutschland, in: Neu­ bacher/Bögelein (Hrsg.), Krise – Kriminalität – Kriminologie, 2016, S. 511 (514 ff.); vgl. auch Kaspar, Gutachten C zum 72. Deutschen Juristentag, 2018, S. C 19 ff. 270  Grundies, Regionale Unterschiede in der gerichtlichen Sanktionspraxis in der Bundesrepublik Deutschland, in: Hermann/Pöge (Hrsg.), Kriminalsoziologie, 2018,



II. Rechtsprechung und Diskriminierungspotenzial85

ter Strafen aus, die mindestens zehn Prozent über dem Bundesdurchschnitt liegen, in einem weiteren Fünftel liegen sie zehn Prozent unter diesem Schnitt.271 Die Studienergebnisse zeigen, dass Richter sich am unmittelbaren Um­ feld – Kollegen, Gerichtsbezirk, aber auch Revisionspraxis der übergeordne­ ten Gerichte – orientieren. Aus Sicht des Gleichheitsgrundsatzes ist es prob­ lematisch, dass diese Orientierung lokal bzw. regional bleibt und es trotz vergleichbarer Taten zu deutlichen regionalen Unterschieden in Deutschland kommt – eben einer Vererbung regionaler Sanktionstraditionen durch Orien­ tierung an Urteilen aus der Umgebung.272 Ein strafrechtliches Gutachten zum Deutschen Juristentag 2018  führt dazu aus, dass die in praxi „offenbar [sic] übliche Orientierung an lokalen Strafzumessungstraditionen, die z. T. in in­ formellen, nicht öffentlich zugänglichen Strafmaßtabellen niedergelegt sind, […] mangels Transparenz und bundesweiter Einheitlichkeit keine befriedi­ gende Lösung [seien].“273 „Lokale Üblichkeit“ sei kein sachlicher Differen­ zierungsgrund im Sinne von Art. 3 Abs. 1 GG. Diesen Bedenken ist zuzustimmen. Durch regionale Strafzumessungstradi­ tionen erhalten die Variablen „wo/welches Gericht (Bundesland, Bezirk)“, nachgelagert auch „wer“, eine Bedeutung, die ihnen von Gesetzes wegen nicht zusteht. Diese Variablen sind intransparent, sie wirken rechtsverzerrend. Regionale Unterschiede sind – sofern sie, wie nachgewiesen, systematisch und nicht vereinzelt auftreten – mit dem Streben nach Individualgerechtig­ keit nicht in Einklang zu bringen, sondern stellen einen abstrakten Verstoß gegen Art. 3 Abs. 1 GG dar. Mit guten Gründen lässt sich einwenden, dass es bei der Strafzumessung u. a. auch darauf ankommt, welchen Strafzweck der Richter in den Vorder­ S.  295 (298 ff.); Grundies, Gleiches Recht für alle? – Eine empirische Analyse lokaler Unterschiede in der Sanktionspraxis inder Bundesrepublik Deutschland, in: Neuba­ cher/Bögelein (Hrsg.), Krise – Kriminalität – Kriminologie, 2016, S. 511 (514 ff.). Die statistische Signifikanz ist jedoch mit einer kleinen Einschränkung zu bewerten: Ob ein Verurteilter ein oder mehrere Delikte begangen hat, geht aus den Bundeszen­ tralregisterdaten nicht immer eindeutig hervor. 271  Als Vergleichsgrundlage diente die abstrakte Strafhöhe – also ohne Unterschei­ dung nach Strafart und Aussetzung zur Bewährung. Die Aussetzung zur Bewährung wurde separat erfasst und auch insoweit ein Nord-Süd-Gefälle festgestellt. 272  So die Erklärungsansätze bei Grundies, Gleiches Recht für alle? – Eine empi­ rische Analyse lokaler Unterschiede in der Sanktionspraxis inder Bundesrepublik Deutschland, in: Neubacher/Bögelein (Hrsg.), Krise – Kriminalität – Kriminologie, 2016, S. 511 (521 ff.). 273  Vgl. die Thesen des Gutachters Johannes Kaspar in Deutscher Juristentag e. V., Thesen der Gutachter und Referenten zum 72. Deutschen Juristentag, 2018, S. 20; fast wortgleich (aus Sicht der Strafverteidigung) die Referentin Ines Kilian, siehe a. a. O., S.  26.

86

Erster Teil: Status quo richterlicher Entscheidungsfindung

grund stellt:274 Stellt er etwa bevorzugt auf den Strafgrund der Vergeltung oder Sühne ab, ist zu erwarten, dass die Strafe höher ausfällt als bei der primären Orientierung am Gedanken der positiven Spezialprävention.275 Auch die unterschiedliche Herangehensweise an die Strafzwecke kann also (regionale) Unterschiede in der Strafzumessungspraxis hervorrufen, indem sich die Gewichtungen der Strafzwecke regional fortschreiben. Der Gesetz­ geber hat sich seit Einführung des StGB (1871) in dieser Frage nicht klar positioniert und überlässt sie den Richtern selbst. Objektiv ist die Orientie­ rung an (regionalen) Sanktionstraditionen verfassungsrechtlich jedenfalls bedenklich. Immer wieder ertönt die Forderung nach einer Strafzumessungskommis­ sion: Eine Gruppe von Experten aus Wissenschaft und Praxis solle in empi­ rischen Studien prüfen, welche Urteile für typische Konstellationen üblich sind, zudem die Meinung der Bevölkerung erheben, und hieraus dann Emp­ fehlungen für das Strafmaß ableiten.276 Die Empfehlungen der Kommission wären anders als regionale, intransparente Sanktionstraditionen klar und bundesweit einheitlich. Der Deutsche Richterbund sieht diesen Vorschlag kritisch: Strafen durch Richtlinien einer Kommission zu schematisieren, werde der notwendigen Einzelfallbetrachtung von Tat und Täter nicht ge­ recht; besser sei eine zentrale Datenbank mit Entscheidungen, die Richtern und Staatsanwälten einen bundesweiten Überblick ermöglicht – dieser Vor­ schlag fand auch eine Mehrheit beim Deutschen Juristentag.277 Dass jedoch die regionalen Unterschiede in der Strafzumessungspraxis einen Änderungsbzw. Reformbedarf auslösen, qualitercumque konkret ausgestaltet, darüber scheint Einigkeit zu bestehen. c) Beispiel Ungleichbehandlung aufgrund der Ethnie Eine Vielzahl empirischer Untersuchungen konnte bereits nachweisen, dass (US-amerikanische) Richter Angeklagte in Strafverfahren je nach deren 274  So bereits Schiel, Unterschiede in der deutschen Strafrechtsprechung, 1969, S.  60 ff. 275  Zu den verschiedenen Strafzwecken und Strafzwecktheorien Radtke, in: Joecks/ Miebach (Hrsg.), MüKo-StGB, Bd. 2, 3. Aufl., 2016, Vorb zu § 38, Rn. 28 ff. Aner­ kannt sind absolute (von der Wirkung der Strafe unabhängig zu begründende) und relative Strafzwecktheorien. Das BVerfG erkennt in einer „Vereinigungstheorie“ (vgl. BVerfGE 45, 187 (253 ff.)) eine Kombination aus absoluten (Vergeltung der Schuld) und relativen (auf Spezial- und Generalprävention ausgerichtete) Strafzwecken an. 276  Kaspar, Gutachten C zum 72. Deutschen Juristentag, 2018, S. C 113 f.; siehe auch den Vergleich zu den Sentencing Guidelines im US-amerikanischen Strafverfah­ ren a. a. O., S.  C  77 ff. 277  Siehe dazu auch unten S. 441 ff.



II. Rechtsprechung und Diskriminierungspotenzial87

Hautfarbe unterschiedlich behandeln.278 Auch nach der statistischen Bereini­ gung um tat- und täterspezifische Gesichtspunkte (insbesondere Straftat und Schwere der Tat sowie kriminelle Vorgeschichte279) verbleibt ein signifikan­ ter Unterschied: Afroamerikanische Angeklagte erhalten für gleiche Straf­ taten um 10 Prozent längere Freiheitsstrafen als hellhäutige Angeklagte,280 andere Untersuchungen gehen gar von bis zu 20 Prozent aus.281 Jenseits der exakten Bezifferung besteht für afroamerikanische und hispanische Ange­ klagte jedenfalls eine höhere Wahrscheinlichkeit für eine Haftstrafe an sich, sowie auch für eine relativ längere Haftstrafe.282 Das Ausmaß der Ungleich­ behandlung ist deutlicher bei der Entscheidung, ob ein Angeklagter eine Haftstrafe erhält, als bei der Entscheidung über die Strafhöhe  – letztere ist durch die den Ermessensspielraum des Richters eingrenzenden Sentencing Guidelines stärker vorgezeichnet.283 Das Ausmaß der Ungleichbehandlung ist zudem abhängig von der Ethnie des Entscheiders – bei afroamerikanischen geringer als bei weißen Richtern.284 278  Vgl. nur Abrams/Bertrand et al., The Journal of Legal Studies 41 (2012), 347 (348 ff.) m. w. N., auch zu Gegen-studien, die keinen Einfluss der Ethnie des Ange­ klagten auf die Strafe feststellen konnten – die Ergebnisse früherer empirischer Stu­ dien sind insoweit ambivalent; siehe auch die Übersicht bei Turner/Dakwar, Racial Disparities in Sentencing, 2014, S. 1 ff. m. w. N., sowie bereits Albonetti, Social Prob­ lems 38 (1991), 247 (259). 279  In den US-amerikanischen Studien heißt es zumeist criminal history – das um­ fasst neben Vorstrafen (die in Deutschland nach einer bestimmten Dauer im Bundes­ zentralregister zu löschen sind, § 45 Abs. 1 BZRG) zumeist auch vorherige polizeili­ che Ingewahrsamnahmen und andere Einträge. 280  Starr/Rehavi, Journal of Political Economy 122 (2014), 1320 (1334 ff.). 281  Vgl. U.S. Sentencing Commission, Report on the Continuing Impact of United States v. Booker on Federal Sentencing, 30.1.2013, S. 8 f. sowie 108 ff. 282  Spohn, Policies, Processes, and Decisions of the Criminal Justice System 3 (2000), 427 (443 ff.). 283  Vgl. Abrams/Bertrand et al., The Journal of Legal Studies 41 (2012), 347 (369). 284  Abrams/Bertrand et al., The Journal of Legal Studies 41 (2012), 347 (350 und 374). Auch die soziale Herkunft der Richter war bereits Gegenstand empirischer Un­ tersuchungen, vgl. die Nachweise bei Schmid, Vom Pendeln des Blickes – Wie kommt der Richter zum Fall?, in: Holzwarth/Lambrecht/Schalk et al. (Hrsg.), Die Unabhän­ gigkeit des Richters, 2009, S. 95 (97). Unabhängig von der Ethnie bzw. Hautfarbe, also sowohl bei weißen wie auch bei dunkelhäutigen Angeklagten, kommt es zudem zu durchschnittlich härteren Urteilen, je stärker der Angeklagte sog. afrocentric facial features aufweist, vgl. Blair/Judd et al., Psychological Science 15 (2004), 674 (674 und 676 f.); afrocentric facial features meint einen Phänotypen, ein Erscheinungsbild mit physischen Merkmalen, die als „typisch für Afroamerikaner“ angesehen werden, vgl. a. a. O., 674, dort Fn. 1. Die Studie analysierte Entscheidungen aus der staatlichen (State of Florida Department of Corrections) Datenbank anhand einer zufälligen Aus­ wahl weißer und afroamerikanischer Inhaftierter, einschließlich Fotos, statistisch be­ reinigt um die Schwere der Straftaten sowie um die kriminelle Vorgeschichte.

88

Erster Teil: Status quo richterlicher Entscheidungsfindung

Die empirisch nachgewiesene (durchschnittliche) Ungleichbehandlung ist indes allein kein Beweis für eine Diskriminierung.285 Dass auch alternative Ursachen für eine Ungleichbehandlung in Frage kommen – bspw. korreliert die Tatsache „dunkelhäutiger Angeklagter“ in den empirischen Untersuchun­ gen vielfach mit einer schlechteren Qualität der anwaltlichen Beratung – blenden viele Studien aus.286 Aus Deutschland liegen ähnliche Ergebnisse vor. Empirische Untersuchun­ gen konnten z. B. zeigen, dass deutsche Richter ausländische (insbesondere türkische und möglicherweise auch ex-jugoslawische) Jugendliche ceteris paribus strenger sanktionieren als deutsche.287 Ein Einfluss der Ethnie des Angeschuldigten auf die hoheitliche Entschei­ dung ist in den USA auch im pretrial release process nachweisbar; im deutschen Recht entspricht dies etwa der Aussetzung des Vollzugs eines Haftbefehls im strafprozessualen Vorverfahren bzw. der Untersuchungshaft gegen Sicherheitsleistung („Kaution“), § 116 Abs. 1 S. 2 Nr. 4 StPO: Bei Hispanics und People of Color setzen Richter den Vollzug des Haftbefehls – statistisch bereinigt um rechtliche Aspekte wie Schwere der Straftat, Vor­ strafen usw. – seltener aus als bei Weißen.288 Ein großer Anteil dieses Ef­ fekts gründet sich darin, dass die (finanzielle) Unfähigkeit, die Sicherheits­ leistung zu erbringen, in den gesellschaftlichen, ethnischen Gruppen hetero­ gen ist. Diese frühere Entscheidung wirkt auch in späteren Stadien des Strafverfahrens nach.289 Dass sich ein Richter an der Einschätzung seines Kollegen, der dem Angeklagten zuvor den pretrial release (etwa: die Aus­ setzung des Haftbefehlvollzugs) verwehrt hat, zumindest orientiert, liegt nahe. So kann eine indirekte, sich verfestigende Diskriminierung entstehen. Und selbst wenn es keine Ungleichbehandlung wegen der ethnischen Zu­ gehörigkeit gäbe, bestünde im Ergebnis dennoch ein Ungleichgewicht, weil Weiße statistisch im Durchschnitt eher in der Lage sind, die (durchschnitt­ lich niedrigere) geforderte Sicherheitsleistung zu erbringen, sodass gerade 285  Abrams/Bertrand et al., The Journal of Legal Studies 41 (2012), 347 (350 und 377); Spohn, Policies, Processes, and Decisions of the Criminal Justice System 3 (2000), 427 (474). Siehe ergänzend zum statistischen Phänomen des „Simpson-Para­ doxons“ im Zusammenhang mit einer Diskriminierungsklage gegen die Universität Berkeley etwa Bickel/Hammel et al., Science 187 (1975), 398 (398 ff.). 286  Abrams/Bertrand et al., The Journal of Legal Studies 41 (2012), 347 (348 und 351 f.); auch die Auswahl der Daten führt oftmals zu methodologischen Problemen. 287  Ludwig-Mayerhofer/Niemann, Zeitschrift für Soziologie 26 (1997), 35 (44 ff.). 288  Demuth/Steffensmeier, Social Problems 51 (2004), 222 (230 ff.). 289  So auch die Vermutung bei Demuth/Steffensmeier, Social Problems 51 (2004), 222 (239); ähnlich Starr/Rehavi, Journal of Political Economy 122 (2014), 1320 (1350).



II. Rechtsprechung und Diskriminierungspotenzial89

im pretrial process die Wahrscheinlichkeit auf Freiheit eng mit dem Konto­ stand verwebt ist.290 Die durchschnittliche richterliche Ungleichbehandlung verschiedener Eth­ nien aufgrund eines Racial Bias basiert oftmals nicht auf bewussten und ge­ wollten Prozessen. Richter unterliegen denselben Rationalitätsschwächen, insbesondere Denkfehlern und Vorurteilen, wie andere Menschen, und diese können auch die richterliche Entscheidung beeinflussen.291 Im experimentel­ len Setting lässt sich mit expliziter Motivation und einem Bewusstsein für die potenzielle Verzerrung der Effekt eines Racial Bias verringern.292 Weil sich die Entscheidungsträger der Stereotypisierung und unterschiedlichen Behandlung nicht bewusst sind, entzieht sich die Verzerrung aber einer un­ mittelbaren Kontrolle;293 ein aktives Gegensteuern in der tatsächlichen Ent­ scheidungspraxis ist schwierig.294 Wenngleich die empirischen Ergebnisse also keinen Rückschluss auf bewusste Diskriminierungen erlauben, beschrei­ ben sie doch diskriminierende Tendenzen, die zudem fortwirken und sich verfestigen können. d) Beispiel Ungleichbehandlung aufgrund des Geschlechts Bei vergleichbarem Anteil an der Gesamtbevölkerung sitzen deutlich mehr Männer als Frauen eine Freiheitsstrafe in deutschen Strafvollzugsanstalten ab. Da Männer auch den größten Teil der Straftaten begehen,295 ist dies per se weder ein Anzeichen für eine Ungleichbehandlung noch für eine Diskri­ minierung. Allerdings kann es insbesondere für die justizielle Praxis in den USA296 und in Frankreich297 als empirisch hinreichend belegt gelten, dass Richter in Strafverfahren gegenüber Männern deutlich härtere Entscheidun­ gen treffen als gegenüber Frauen. Männer erhalten im Durchschnitt erheblich 290  Demuth/Steffensmeier, 291  Rachlinski/Johnson

Social Problems 51 (2004), 222 (240). et al., Notre Dame Law Review 84 (2009), 1195 (1210 f.,

1214 f., 1221). 292  Rachlinski/Johnson et al., Notre Dame Law Review 84 (2009), 1195 (1221, 1223). 293  Blair/Judd et al., Psychological Science 15 (2004), 674 (677) m. w. N. 294  Siehe zu den Möglichkeiten neuer Technologien in der Rechtsprechung unten S. 359 ff. 295  Frauen machen bspw. unter den Tatverdächtigen nur etwa ein Viertel aus, vgl. Bundesministerium des Innern, für Bau und Heimat, Bericht zur Polizeilichen Krimi­ nalstatistik 2017, 2018, S. 55. 296  Vgl. die Literaturübersicht über die empirischen Ergebnisse bei Starr, Ameri­ can Law and Economics Review 17 (2015), 127 (130 f.). 297  Vgl. Philippe, Toulouse School of Economics Working Paper 17-762 (2017), 1 (2 ff., 9 ff.).

90

Erster Teil: Status quo richterlicher Entscheidungsfindung

längere Freiheitsstrafen als Frauen; jene haben zudem bessere Chancen, be­ reits einer Anklage oder zumindest der Verurteilung zu entgehen, und eine doppelt so hohe Wahrscheinlichkeit, die Inhaftierung nach einer Verurteilung zu vermeiden, d. h. also Strafaussetzung zur Bewährung gewährt zu bekom­ men.298 Empirische Nachweise liegen auch für das strafprozessuale Vorver­ fahren (den pretrial release process) vor: Frauen haben eine höhere Chance auf Entlassung aus der Untersuchungshaft und erhalten zudem günstigere Begleitumstände, etwa bei der Höhe der Sicherheitsleistung (Kaution).299 Wenngleich nicht repräsentativ, deuten auch in Deutschland einzelne Aus­ sagen darauf hin, dass es zu Ungleichbehandlungen im Strafverfahren auf­ grund des Geschlechts kommt.300 In der Tat offenbaren die Zahlen auch hierzulande eine Geschlechterdiskrepanz: Bei 25,1 Prozent weiblichen Tat­ verdächtigen beträgt der Anteil weiblicher Verurteilter noch 20,4 Prozent, der Anteil an den Inhaftierten nur noch 6 Prozent.301 Die Zahlen in Deutschland lassen jedoch bei genauerem Hinsehen – insbesondere unter Berücksichti­ gung der Deliktsstruktur und der Voreintragungen – keinen sauberen Rück­ schluss auf einen „Frauenbonus“ in der Strafgerichtsbarkeit zu.302 Sie erlau­ ben auch keinen Rückschluss auf den Einzelfall und führen nicht den Beweis für eine unmittelbare (und bewusste) Benachteiligung.303 Die strafprozessuale Entscheidung hängt von vielfältigen Aspekten ab: Auf einen Gewalttäter 298  Starr, American Law and Economics Review 17 (2015), 127 (135 ff., insbeson­ dere 138, 154). Vgl. aber auch den umgekehrten Fall: Die Ergebnisse einer australi­ schen Studie deuten darauf hin, dass im speziellen Fall häuslicher Tötungsdelikte weibliche Täter härtere Urteile erhalten als männliche, vgl. Hall/Whittle et al., Psychi­ atry, Psychology and Law 23 (2016), 395 (397 ff.). 299  Demuth/Steffensmeier, Social Problems 51 (2004), 222 (235  ff.); nach dem „Ranking“ der Studienergebnisse erhalten weiße Frauen die günstigsten, männliche Hispanics die schlechtesten Entscheidungen im pretrial release process, a. a. O., 238. 300  Vultejus, ZRP 2008, 101 (101): „Theoretisch müssen Männer und Frauen bei gleichen Taten auch gleich bestraft werden. […] Ich bin in Strafverfahren gegen Frauen immer wieder in Schwierigkeiten geraten und habe mich deshalb jeweils ge­ fragt, welche Strafe würde ich gegen einen Mann bei derselben Anklage verhängen und auf diese Strafe alsdann abzüglich eines ‚Frauenrabatts‘ erkannt. Ähnlich schei­ nen es auch meine Kollegen zu handhaben.“ Ein solcher „Frauenrabatt“ sei gerecht­ fertigt, „weil es Frauen im Leben schwerer haben und Strafen deshalb bei ihnen härter wirken“. 301  Vgl. die Nachweise bei Hoven, Werden Männer strenger bestraft als Frauen? – Ein Experiment zur „Ritterlichkeitsthese“, in: Barton/Eschelbach/Hettinger et al. (Hrsg.), Festschrift für Thomas Fischer, 2018, S. 885 (886). 302  Köhler, Straffällige Frauen, S. 142 ff., 207 f.; Hoven, Werden Männer strenger bestraft als Frauen? – Ein Experiment zur „Ritterlichkeitsthese“, in: Barton/Eschel­ bach/Hettinger et al. (Hrsg.), Festschrift für Thomas Fischer, 2018, S. 885 (892 f., 895 ff.). 303  So auch Starr, American Law and Economics Review 17 (2015), 127 (154).



II. Rechtsprechung und Diskriminierungspotenzial91

muss das Strafrecht im Durchschnitt anders einwirken als auf eine Betrüge­ rin, die Sozialprognose ist – aus der Statistik heraus begründet – durchschnittlich schlechter und spezialpräventive Überlegungen (vgl. § 46 Abs. 1 S. 2 StGB) legen im Durchschnitt eher den Vollzug einer Freiheitsstrafe na­ he.304 6. Empirie strafrechtlicher Fehlurteile in Deutschland? Nicht zuletzt deshalb, weil eine einheitliche Definition des „Fehlurteils“ bislang nicht vorliegt, sind auch statistische Belege hierzu in Deutschland rar.305 Das strafprozessuale Wiederaufnahmeverfahren (§§ 359 ff. StPO) kann als Anknüpfungspunkt dienen, um die in irgendeiner Weise fehlerhaften oder objektiv unrichtigen Strafurteile zu erfassen; diese Kontrollinstanz sehen auch die übrigen Prozessordnungen vor (vgl. etwa § 578 ZPO, § 134 FGO, § 153 VwGO, § 179 f. SGG). Das Wiederaufnahmeverfahren ist in Deutsch­ land der einzige Weg, ein potenzielles Fehlurteil nach dessen Rechtskraft zu korrigieren bzw. zu beseitigen.306 Die Vorschriften zum Wideraufnahmever­ fahren verdeutlichen aber auch: Sofern nach der Entscheidung bspw. neue Beweismittel (§ 359 Nr. 5 StPO) oder ein nachträgliches Geständnis (§ 362 Nr. 4 StPO) vorliegen, erweist sich die ursprüngliche Entscheidung lediglich gemessen an der objektiven Wahrheit als unrichtig; dennoch wird sie in An­ betracht der Informationslage zum Entscheidungszeitpunkt rechtlich fehler­ frei gewesen sein.307 Statistisch scheint das Wiederaufnahmeverfahren aller­ dings kein wirksames Fehlerkontrollinstrument zu sein.308 Bei der Analyse gerichtlicher Entscheidungen ist nicht zu verkennen, dass der Prozess der Rechtsanwendung nicht primär auf der „objektiven Wahr­ 304  Vor dem Hintergrund des § 46 Abs. 1 S. 2 SGB kann für weibliche Angeklagte die geringere Wahrscheinlichkeit, erneut straffällig zu werden, die Unsicherheit i. S. d. Entscheidungstheorie reduzieren – und daher im Durchschnitt geringere Strafen so­ wie höhere Chancen auf Strafaussetzung zur Bewährung rechtfertigen, vgl. auch Albonetti, Social Problems 38 (1991), 247 (254). 305  Dazu und zum Folgenden Dunkel, Fehlentscheidungen in der Justiz, 2018, S.  27 ff.; Dunkel/Kemme, NK 28 (2016), 138 (140 f.). 306  Roxin/Schünemann, Strafverfahrensrecht, 29. Aufl., 2017, § 57, Rn. 1. Siehe ergänzend Neuhaus, StV 2015, 185 (186 ff.). 307  Vgl. Kotsoglou, JZ 2017, 123 (127 und 131), der daher zwischen der grund­ sätzlichen Gefahr von Fehlurteilen (Plural) und einem im konkreten Fall nicht zu identifizierenden Fehlurteil (Singular) unterscheidet. 308  Nach Eschelbach, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 261, Rn. 67.2 f., sind die Kontrollmechanismen hinsichtlich Fehlerquellen im Straf­ verfahren daher insgesamt nicht ausreichend.

92

Erster Teil: Status quo richterlicher Entscheidungsfindung

heit“ aufbaut, sondern auf die persönliche Überzeugung des Richters ab­ stellt309 und somit auch von den tatbestandlichen Feststellungen abhängt. Diese Überzeugungsbildung muss selbstverständlich Recht und Gesetz ent­ sprechen und darf insbesondere keine Logikfehler aufweisen. Ein „Fehl­ urteil“ ist also nicht schon dann anzunehmen, wenn die Entscheidung auf einer Fehlvorstellung des Richters über die (objektive) Wirklichkeit beruht. Der Richter hat Macht und Verpflichtung, prozessualen Wahrheitswert fest­ zulegen.310 Er kann nicht wissen, ob er die Wahrheit – also das, was tatsäch­ lich geschehen ist – auch herausgefunden hat. Allerdings enthält gerade das Strafverfahren das Gebot bestmöglicher Sachaufklärung, das sich in § 244 Abs. 2 StPO manifestiert.311 Die Denkfehler und Rationalitätsschwächen312 führen nicht zwangsläufig zu solchen „Fehlurteilen“, wie sie die Vorschriften zum Wiederaufnahmever­ fahren oder die Rechtsmittelmöglichkeiten adressieren: Eine Entscheidung kann auch dann (materiell- und verfahrens-)rechtlich korrekt sein, wenn eine Rationalitätsschwäche sie verzerrt hat.313 Entscheidend ist vielmehr, dass mit dem Auftreten der verschiedenen (kognitiven) Verzerrungen in bestimmten Fällen eine zwar nicht offensichtliche, aber systematische Benachteiligung einhergehen kann, deren Vereinbarkeit mit dem Gebot der Gleichbehandlung (Art. 3 GG) am seidenen Faden zu hängen scheint.314 Fehlurteile können zu einem gravierenden Eingriff in die grundrechtlich verbürgten Rechtspositio­ nen – insbesondere Freiheitsrechte – des fehlerhaft Verurteilten führen. Ihre Anzahl so niedrig wie möglich zu halten, liegt aber nicht ausschließlich im Interesse der (potenziell) Betroffenen. Denn Fehlurteile können außerdem – jedenfalls in großer Zahl – auch die Autorität der Gerichte schädigen315 und dadurch den Rechtsfrieden beeinträchtigen.

309  Vgl. die Nachweise bei Kotsoglou, JZ 2017, 123 (125); für das Strafverfah­ rensrecht, aber beispielhaft auf alle Rechtsgebiete übertragbar BGH, NJW 1957, 1039 (1039, Ls. 1). 310  Kotsoglou, JZ 2017, 123 (127). 311  BVerfGE 57, 250 (276 ff.); BVerfG, NJW 2003, 2444 (2445). 312  Siehe oben S. 45 ff. 313  Kontroll- oder Rechtsschutzmöglichkeiten sieht die Rechtsordnung insoweit nicht vor, sofern kein Verstoß gegen Denkgesetze oder Erfahrungssätze vorliegt, der Beweisstoff ausgeschöpft wurde und die Entscheidung widerspruchsfrei ist. Vgl. auch Sommer, Denn sie wissen nicht, was sie tun, Legal Tribune Online vom 24.1.2017, der den Begriff des Fehlurteils etwas überdehnt, sodass der Beitrag insgesamt überzo­ gen wirkt, wenn er z. B. konstatiert: „Richter haben – was sie gerne vergessen – trotz ihrer Robe und ihrer herausgehobenen Stellung nur einen durchschnittlichen mensch­ lichen Körper und ein normales menschliches Gehirn“. 314  Siehe ergänzend auch Landau, NStZ 2015, 665 (669). 315  Vgl. Kaspar/Arnemann, Recht und Psychiatrie 34 (2016), 58 (58 f.).



II. Rechtsprechung und Diskriminierungspotenzial93

Wenngleich einzelne „Fehlurteile“ eine hohe mediale Aufmerksamkeit er­ zeugen316 und vereinzelte Schätzungen von einer vergleichsweise hohen Fehlurteilsquote ausgehen,317 liegen nur wenige empirische Untersuchungen dazu vor.318 So waren bspw. in den Jahren 2000 bis 2014 in Deutschland jährlich durchschnittlich insgesamt 2283 Anträge auf Wiederaufnahme des Verfahrens in Strafsachen aktenkundig.319 In den letzten Jahrzehnten fand jedoch keinerlei (offizielle) quantitative Erhebung der Erfolgsquoten dieser Anträge statt.320 Die Aussagekraft empirischer Untersuchungen ist dadurch begrenzt, dass sie nur relativ geringe Fallzahlen umfassen. Insbesondere las­ sen die bisher ausgewerteten Zahlen keine Schlussfolgerung hinsichtlich der Wahrscheinlichkeit der Eröffnung einer neuen Hauptverhandlung, also der Erfolgswahrscheinlich der Wiederaufnahmeanträge, zu. Die empirische Forschung zu „Fehlurteilen“ im Strafprozess steht in Deutschland also erst am Anfang: Es liegen nur wenige Untersuchungen vor, auch deshalb, weil das Aktenmaterial so schwer zu beschaffen ist; andere Länder können insoweit deutlich bessere Ergebnisse vorweisen.321 Empiri­ sche Untersuchungen dazu sind ebenso rar gesät wie umfassende Datenban­ ken zu gerichtlichen Entscheidungen überhaupt, sodass sich eine „quantita­ tive Rechtswissenschaft“ noch nicht etabliert hat.322 Der Forschungsbedarf ist bereits daraus begründet, dass die weitere Reduzierung von strafrechtli­ chen „Fehlurteilen“ erwünscht und geboten ist – und sich anhand empirisch

316  Fehlurteile und Justizirrtümer erregen oft mediale Aufmerksamkeit, vgl. etwa Janisch, Ohne jeden Zweifel, Süddeutsche Zeitung (Online) vom 17.5.2015, sowie die fortlaufende Reihe „Justizirrtümer“ im Spiegel, einsehbar unter http://www.spie gel.de/thema/justizirrtuemer/. 317  Eschelbach, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 261, Rn.  63.5 f., 67.3 f.; Janisch, Ohne jeden Zweifel, Süddeutsche Zeitung (Online) vom 17.5.2015. 318  Vgl. insbesondere Dunkel, Fehlentscheidungen in der Justiz, 2018, S. 105 ff. Dunkel/Kemme, NK 28 (2016), 138 (145 und 147 ff.), konstatieren ein Forschungs­ defizit auf diesem Gebiet. 319  Dunkel/Kemme, NK 28 (2016), 138 (142 f.). 320  Kaspar/Arnemann, Recht und Psychiatrie 34 (2016), 58 (62); Dunkel, Fehlent­ scheidungen in der Justiz, 2018, S. 105 ff. 321  Dunkel/Kemme, NK 28 (2016), 138 (147 ff.). Vgl. aber die aktuelle empirische Aktenanalyse mit Wiederaufnahmeverfahren an Hamburger Gerichten bei Dunkel, Fehlentscheidungen in der Justiz, 2018, S. 169 ff. 322  Vgl. Coupette/Fleckner, JZ 2018, 379 (380 ff.), die insbesondere dafür werben, mehr juristische Daten derart zu veröffentlichen, dass nicht-kommerziellen Nutzern die Möglichkeit der (automatisierten) Auswertung offensteht. Bedarf für empirische Forschung und flächendeckende statistische Erfassung von Strafrechtsurteilen sieht auch Kaspar, Gutachten C zum 72. Deutschen Juristentag, 2018, S. C 112.

94

Erster Teil: Status quo richterlicher Entscheidungsfindung

belegter Fakten leichter Rückschlüsse auf die Ursachen ziehen lassen.323 Um aber stichhaltig fehlerhafte von fehlerfreien richterlichen Entscheidungen unterscheiden zu können, bedarf es auch einer Vergewisserung dessen, wel­ che konkreten Entscheidungsvorgaben die Rechtsordnung dem Richter ab­ verlangt.

III. Vorgaben an die richterliche Rechtsfindung Das Allgemeine Landrecht für die Preußischen Staaten (PrALR) von 1794 gilt als Versuch, jeden Lebensbereich und möglichst jeden denkbaren Einzel­ fall gesetzlich zu regeln.324 Durch einen eindeutigen und exakten Gesetzes­ wortlaut sollten Richter enger als zuvor an Recht und Gesetz gebunden sein.325 Rechtsmissbrauch und die übermäßige Verwendung von Analogien sollten auf diese Weise reduziert,326 die Macht der Richter insgesamt einge­ dämmt werden. Der Versuch scheiterte: Das Gesetz war permanent überholt, immer wieder gab es Sachverhalte, auf die kein geschriebenes Gesetz pass­ genau anwendbar war. Im Gegensatz zum PrALR basieren unsere heutigen Gesetze überwiegend auf abstrakten und daher deutlich flexibleren Regelungen. Weil diese auf Auslegung und Interpretation angewiesen sind, lässt der Gesetzgeber den Richtern große Bewertungsspielräume. Um ein mögliches Verbesserungspo­ tenzial richterlicher Entscheidungsfindung zu eruieren, bedürfen zunächst die tatsächlichen Vorgaben an den Richter einer Untersuchung: Welche konkre­ ten Anforderungen stellt die Rechtsordnung an den richterlichen Entschei­ dungsprozess?

323  An dieser Stelle sei erneut betont, dass die hiesigen Überlegungen in keiner Weise die Kompetenz der Richterschaft insgesamt in Zweifel ziehen sollen. Wo Men­ schen arbeiten, machen Menschen Fehler. Im Falle richterlicher Entscheidungen kön­ nen Fehler naturgemäß einschneidende Auswirkungen auf die Betroffenen zeitigen. Daher ist eine kritische Auseinandersetzung mit (möglichen) Fehler- und Diskriminie­ rungsquellen sinnvoll und geboten. 324  Vgl. Eisenhardt, Deutsche Rechtsgeschichte, 6. Aufl., 2013, S. 151 ff. 325  Vgl. etwa Albrecht, Die Methode der preußischen Richter, 2005, S. 13 ff. In dem Bestreben, durch eine umfassende und detaillierte Kodifikation möglichst jeden denkbaren Fall normativ zu regeln, enthielt das Preußische Allgemeine Landrecht rund 19.000 Vorschriften, vgl. Zaufal, Was kann ein strafrechtlicher Tatbestand leis­ ten?, 2018, S. 109. 326  Vgl. Albrecht, Die Methode der preußischen Richter, 2005, S. 40 ff.



III. Vorgaben an die richterliche Rechtsfindung95

1. Rechtstheoretischer Unterbau a) Rechtspositivismus und Prinzipientheorie Der Blick soll zunächst auf dem theoretischen Fundament unseres Ver­ ständnisses von Recht und Rechtsfindung verweilen. Gerichtsentscheidungen folgen grundsätzlich nicht einer zwingenden Abfolge von logischen, mecha­ nischen Rechenoperationen, welche die Gesetze und deren Anwendung als eindeutiges Produkt auswerfen.327 Bewegt sich der Richter innerhalb des durch die offene, abstrakte Formulierung vieler Gesetze eingeräumten Spiel­ raums, steht er vor der Frage, welchen rechtstheoretischen Maßstab er anle­ gen und welches grundsätzliche Ziel er verfolgen soll. Der „Theorienstreit“ zweier prominenter (rechtsphilosophischer) Denkansätze – dem Rechtspositi­ vismus (bzw. dem Open Texture) einerseits und der „Idee der einzig richtigen Entscheidung“ (Prinzipientheorie) andererseits – soll als Grundlage für eine Skizze der (fiktiven) „idealen“ richterlichen Tätigkeit dienen. Das Ringen zwischen dem Rechtspositivismus i. S. v. Hart und Kelsen ei­ nerseits328 und der Prinzipientheorie nach Dworkin und Alexy andererseits329 hat Auswirkungen auf unser Verständnis vom Recht insgesamt und von der richterlichen Entscheidungsfindung im Besonderen: Während im rechtsposi­ tivistischen Verständnis der Rechtsfindung auch „relativ richtige“ Entschei­ dungen existieren,330 geht die Prinzipientheorie von der Existenz der jeweils einzig richtigen Entscheidung aus bzw. statuiert diese als regulative Idee des Diskurses331. Nach Dworkin gibt es von den Regeln zu unterscheidende Prinzipien, deren Anwendung sich nur moralisch bestimmen lässt, die aber Teil der Rechtsordnung sind. „Recht“ ist dann mehr als die durch den Rechtspositi­ 327  Ein derartiges Verständnis der richterlichen Rechtsfindung wird, soweit ersicht­ lich, nicht vertreten. Vgl. zum Richterbild im 19. Jahrhundert Ogorek, Richterkönig oder Subsumtionsautomat?, 2. Aufl., 2008, S. 4 ff. 328  Vgl. dazu Jabloner, Der Rechtsbegriff bei Hans Kelsen, in: Griller/Rill (Hrsg.), Rechtstheorie: Rechtsbegriff – Dynamik – Auslegung, 2011, S. 21 ff., sowie Pawlik, Der Rechtsbegriff bei H.L.A. Hart, in: Griller/Rill (Hrsg.), Rechtstheorie: Rechtsbe­ griff – Dynamik – Auslegung, 2011, S. 41 ff. 329  Vgl. etwa Heinold, Die Prinzipientheorie bei Ronald Dworkin und Robert Alexy, 2011, S. 70 ff. zur „Dworkin-Hart-Debatte“. 330  Der Rechtspositivismus ist hier jedoch nicht zu vertiefen. Einen guten Über­ blick bietet etwa Ott, Die Vielfalt des Rechtspositivismus, 2016, S. 5 ff. 331  Alexy griff Dworkins Theorien auf, vgl. etwa Alexy, Theorie der Grundrechte, 1986, S. 71 ff., insbesondere 77 ff., und konkretisierte sie, vgl. Alexy, Ideales Sollen, in: Clérico/Sieckmann (Hrsg.), Grundrechte, Prinzipien und Argumentation, 2009, S. 21 (21 ff.); siehe auch Kallmeyer, Ideales Sollen, 2016, S. 23 ff.

96

Erster Teil: Status quo richterlicher Entscheidungsfindung

vismus beschreibbaren (und: geschriebenen) Regeln.332 In diesem Verständ­ nis gibt es in jedem Rechtsfall genau eine richtige Entscheidung – und dies nicht nur in der subjektiven Perspektive des Entscheiders, sondern objektiv: die Idee der einzig richtigen Entscheidung („one right answer“). Der Richter muss nichts „erschaffen“, sondern die richtige Entscheidung lediglich fin­ den. Dworkin entwickelte diese Theorie als Gegenentwurf zum Rechtsposi­ tivismus, da dieser den Eigenheiten des Rechts und des richterlichen Ent­ scheidens wenig gerecht werde.333 Im Zentrum seiner Kritik steht die von Hart begründete Spielart des Rechtspositivismus, nach der, so Dworkin, ein Richter „schwierige Fälle“, deren Lösung sich nicht durch klare Rechtsre­ geln unmittelbar ergibt, dadurch entscheidet, dass er sein Ermessen frei ausübt und dabei über das Recht hinausgehe, also auch andere, außerrechtli­ che Maßstäbe seiner Wahl anwende. Diese Beschreibung richterlichen Ent­ scheidens widerspreche den Formulierungen, mit denen Richter üblicher­ weise ihre Urteile abfassen. Richterliches Entscheiden sei vielmehr als Auf­ finden bereits existierender Rechte zu beschreiben: Die Rechte und Rechts­ positionen der Parteien muss der Richter nicht „schaffen“, sondern nur finden – wobei freilich kein „mechanisches Verfahren“ dafür existiert.334 Die Rechte sind einfach existent; ihre Existenz ist nicht daran gebunden, dass das Gericht sie bestätigt. In „schwierigen Fällen“ sollte der Rechtsanwender nach einer Kombina­ tion von Prinzipien suchen, die auf bestmögliche Weise eine kohärente Rechtfertigung sämtlicher zweifelsfrei geregelter Fälle ergeben, und durch die Anwendung eben dieser Prinzipien – als Bestandteil des Rechts – die „richtige“ Entscheidung im konkreten Fall finden.335 Recht in diesem Sinne sind nicht nur geschriebene und zweifelsfreie Regelungen, sondern auch die Prinzipien, die im konkreten Fall anwendbar sind und die geschriebenen, zweifelsfreien Regelungen rechtfertigen.336 Die one right answer ist danach 332  Näher zum Rechtsbegriff Dworkins etwa Griller, Der Rechtsbegriff bei Ronald Dworkin, in: Griller/Rill (Hrsg.), Rechtstheorie: Rechtsbegriff – Dynamik – Ausle­ gung, 2011, S. 57 ff. 333  Dworkin, Taking Rights Seriously, 1977, S. ix sowie S. 16  ff., insbesondere S. 22 und 81 (siehe auch die deutsche Übersetzung: Dworkin, Bürgerrechte ernstge­ nommen, 1984); Dworkin, Law’s Empire, 1986, S. 80 ff. Dazu und zum Folgenden Herbst, JZ 2012, 891 (892 ff.). 334  Insoweit relativiert Dworkin selbst die Aussagekraft seines Ansatzes, vgl. Dworkin, Taking Rights Seriously, 1977, S. 81. 335  Vgl. Dworkin, Taking Rights Seriously, 1977, S. 115  ff. Zur (umfassenden) Kritik an Dworkins Ansatz, insbesondere an der Unterscheidung zwischen Regeln und Prinzipien, Griller, Der Rechtsbegriff bei Ronald Dworkin, in: Griller/Rill (Hrsg.), Rechtstheorie: Rechtsbegriff – Dynamik – Auslegung, 2011, S. 57 (61 ff.) m. w. N. 336  Vgl. Herbst, JZ 2012, 891 (893).



III. Vorgaben an die richterliche Rechtsfindung97

diejenige, die ein ohnehin existierendes Recht entdeckt und durchsetzt337 – was voraussetzt, dass die Rechtsordnung „vollständig“ ist. Anhand zweier fiktiver Richterfiguren macht Dworkin selbst deutlich, dass die Idee der einzig richtigen Entscheidung allenfalls das Ziel, nicht aber eine adäquate Beschreibung der realen richterlichen Tätigkeit sein kann – und diese für die Praxis auch oftmals nicht auffindbar ist: In dem Gedankenspiel ist die Aufgabe der Rechtsfindung einem erdachten Superrichter („Herku­ les“) übertragen. Der Superrichter, der alles weiß und alles kann, käme auf­ grund seiner Allwissenheit immer zur einzig richtigen Entscheidung im konkreten Rechtsfall. Der reale Durchschnittsrichter („Herbert“) verfügt da­ gegen nur über begrenztes Wissen – er kann und sollte sich also im Rahmen seiner eigenen Möglichkeiten an dem Ideal des Herkules orientieren.338 Dagegen lässt sich mit Adrian339 fragend einwenden, ob hierbei der Super­ richter nach seinem individuellen Erkenntnishorizont (also seinem eigenen „holistischen Netz“) oder aber nach den Weltbildern und Rechtsverständnis­ sen aller beteiligten Individuen als Datenbasis entscheiden sollte.340 Im ers­ ten Fall müsste sich der Rechtsunterworfene (und auch der beobachtende) Rechtswissenschaftler fragen, warum eigentlich die Entscheidung richtig sein soll, wenn diese nicht zugleich auch seinem Weltbild und Rechtsverständnis entspricht. Im letzten Fall wäre hingegen nicht geklärt, welche Individuen einbezogen sein sollen – alle derzeit lebenden, auch bereits verstorbene oder auch künftige Generationen? Das Bild der jeweils einzig richtigen Entschei­ dung ist nach dieser Lesart damit bereits in der Theorie kein Ideal, weil ihm das Manko der praktischen Unerreichbarkeit immanent ist. Es entspricht auch im Übrigen nicht dem kontinentaleuropäischen Verständnis von Rechts­ findung, dass für jeden „schwierigen Fall“ objektiv (!) nur eine einzige rich­ tige Entscheidung existiert und jeder Richter, der nur genügend Ressourcen zur Verfügung hätte, diese entdecken könnte.341 Dworkins Gedankenspiel ist dennoch kein reines Glasperlenspiel im theo­ retischen Elfenbeinturm. Der Theorie der one right answer kann vor allem eine Funktion als regulative Idee zukommen, die den Richter bei seiner Ent­ 337  Herbst,

JZ 2012, 891 (894). Taking Rights Seriously, 1977, S. 105 ff. (zu „Herkules“) und 125 ff. (zu „Herbert“). 339  Unter dem „holistischen Netz“ versteht Adrian die Gesamtheit aller persönli­ chen Erfahrungen eines Individuums, die dieses im Lauf seines Lebens aus seiner individuellen Perspektive gemacht hat und die im Wesentlichen assoziativ verknüpft gespeichert werden – also dessen Weltbild, Rechtsverständnis, Kommunikation, Wis­ sen, Wahrnehmung und Gedächtnis, vgl. Adrian, Rechtstheorie 48 (2017), 77 (88 f.). 340  Adrian, Rechtstheorie 48 (2017), 77 (103, dort Fn. 70). 341  So Alexy, Recht, Vernunft, Diskurs, 1995, S. 121 ff. 338  Dworkin,

98

Erster Teil: Status quo richterlicher Entscheidungsfindung

scheidungsfindung anleitet und ihn etwa zu größtmöglicher Objektivität ermahnt:342 Sie ist dann der Appell an den Richter, so zu entscheiden, als ob es die einzig richtige Entscheidung gäbe.343 b) Eingeschränkte praktische Bedeutung Die Relevanz des Theorienstreits für die praktische Arbeit des Richters gilt es nicht überzubewerten. Praktische Bedeutung erlangt er vor allem bei un­ bestimmten Rechtsbegriffen und für die Kontrolldichte behördlicher Ent­ scheidungen sowie den Prüfungsumfang der Verwaltungsgerichte,344 aber wohl weniger für die rechtsmethodischen Grundlagen der richterlichen Rechtsfindung im Allgemeinen. Praktiker werden die „Idee der einzig richti­ gen, sich aus dem Gesetz ergebenden Entscheidung“ regelmäßig ungeachtet der rechtstheoretischen Diskussion in das Selbstverständnis ihrer Tätigkeit aufnehmen.345 Die Rechtsordnung verlangt jedenfalls nicht, dass Richter ihre Ansichten, ihre Wertevorstellungen, ihr Weltbild komplett ausblenden – Rechtsnormen auszulegen, ist „notwendig subjektgebunden und subjektbedingt“.346 Erfah­ rung, Persönlichkeit und letztlich das individuelle Judiz des Richters sind Teil der Rechtsprechung. Art. 92 Hs. 1 GG legt fest, dass die Rechtsprechung den Richtern anvertraut ist.347 Das meint nicht lediglich eine Verpflichtung der Richter zur neutralen und unabhängigen Rechtsprechung. Vielmehr hat sich der Verfassungsgeber bewusst für eine (aktive) Übergabe von Verant­ wortung und Kompetenz entschieden. Viele Rechtsvorschriften sind mehrdeutig und bedürfen der Auslegung. Eine Auslegung, die durch stringente, rechtliche Argumentation abgesichert ist, lässt sich kaum nachträglich als „richtig“ oder „falsch“ klassifizieren. Die Grenze liegt – beispielhaft zu sehen an der Bewertung juristischer Prüfungs­ 342  So Neumann, Wahrheit im Recht, 2004, S. 39 f.; ebenso Herbst, JZ 2012, 891 (893, 896); McCaffery, California Law Review 85 (1997), 1043–1086 (1061); Stelkens, Die Idee der einzig richtigen Entscheidung, in: van Oostrom/Weth (Hrsg.), FS Herberger, 2016, S. 895 (898 f.). 343  Vgl. dazu auch Alexy, Theorie der juristischen Argumentation, 8. Aufl., 2012, S. 414. 344  In diesem Sinne wohl auch Stelkens, Die Idee der einzig richtigen Entschei­ dung, in: van Oostrom/Weth (Hrsg.), FS Herberger, 2016, S. 895 (900 ff.). 345  So Stelkens, Die Idee der einzig richtigen Entscheidung, in: van Oostrom/Weth (Hrsg.), FS Herberger, 2016, S. 895 (897 f.). 346  Vgl. Hillgruber, in: Maunz/Dürig (Begr.), GG, 52. Erg.-Lfg. (Mai 2008), Art. 97, Rn. 41. 347  Vgl. dazu unten S. 261 ff.; siehe auch Fischer, Recht und Richter, ZEIT On­ line vom 23.8.2016.



III. Vorgaben an die richterliche Rechtsfindung99

leistungen – in der „Vertretbarkeit“ einer Lösung:348 Was nicht mehr „vertret­ bar“ ist, kann auch keine richtige Entscheidung sein; das heißt umgekehrt, dass der Rechtsanwender bewusst die abstrakten Rechtsvorschriften vertret­ bar – also gemäß den Freiräumen der Norm und unter Bezugnahme aus­ schließlich rechtlicher Gründe – konkretisierend auf den Fall zuschneidet und methodisch korrekt begründet.349 Es ist nicht „falsch“, wenn zwei Rich­ ter in zwei auf den ersten Blick identischen Fällen unterschiedliche Urteile fällen. Denn es gibt weder den „identischen Fall“ noch „den Richter“: Nor­ mativität ist immer kontextabhängig.350 Die Rechtsordnung kann also in praktischer Hinsicht nicht verlangen, dass der Richter die „einzig richtige Entscheidung“ zu treffen hat. Eine solche gibt es in der Regel auch zumindest dann nicht, wenn der Richter noch Ent­ scheidungsspielraum hat und die Entscheidung nicht „gebunden“ ist.351 Trotz der fehlenden strikten Präjudizienbindung gibt es zwar auch in Deutschland eine ständige Rechtsprechung, auf deren Bestand der Bürger grundsätzlich vertrauen kann; er hat aber wegen der richterlichen Unabhängigkeit keinen Anspruch auf vollständige Gleichbehandlung im Sinne der ähnlich gelager­ ten Sachverhalte.352

dazu Schuhr, JZ 2008, 603 (603 ff.). Stelkens, Die Idee der einzig richtigen Entscheidung, in: van Oostrom/ Weth (Hrsg.), FS Herberger, 2016, S. 895 (899), der konkrete juristische Entscheidun­ gen in drei Kategorien einteilt: unvertretbare (willkürliche) Antworten, vertretbare (lege artis begründete) Antworten und – innerhalb der vertretbaren – die einzig rich­ tige Antwort. 350  Ausführlich Hoffmann-Riem, Innovation und Recht, 2016, S. 111  ff., sowie Müller/Christensen, Juristische Methodik I, 2013, S. 181 ff. 351  Wohl a. A. (für das Strafrecht) Maurach/Schroeder et al., Strafrecht Besonderer Teil, 10. Aufl., 2005, § 77, Rn. 10 (S. 329), die ihre Auffassung damit begründen, dass das abstrakte Gesetz zwar durchaus mehrdeutig sein könne, aber dass die An­ wendung des Gesetzes auf den konkreten Fall immer eine Konkretisierung des Geset­ zes i. S. eines „Zu-Ende-Denken auf den konkreten Fall hin“ bedeute, sodass es auch nur eine richtige Entscheidung geben könne. Den „fundamentalen Beitrag“ der Idee der einzig richtigen Entscheidung für die „Leistungsfähigkeit des deutschen ‚Rechts­ betriebs‘ “ sowie die rechtswissenschaftliche Dogmatik betont auch Stelkens, Die Idee der einzig richtigen Entscheidung, in: van Oostrom/Weth (Hrsg.), FS Herberger, 2016, S. 895 (902 ff.). Vgl. ergänzend Beck, Die Suggestion einzig richtiger Entschei­ dungen im Recht – notwendig oder vermeidbar?, in: Schuhr (Hrsg.), Rechtssicherheit durch Rechtswissenschaft, 2014, S. 11 (11 ff.). 352  BVerfGE 78, 123 (126); 87, 273 (278). 348  Siehe 349  Vgl.

100

Erster Teil: Status quo richterlicher Entscheidungsfindung

c) Konsenstheoretische Ansätze Die Idee, es existiere immer genau eine (objektiv) richtige Entscheidung, ist erkenntnistheoretisch zweifelhaft;353 sie sollte daher auch nicht als Leitfa­ den der (praktischen) richterlichen Tätigkeit dienen. Die Entscheidung eines Menschen kann keine vollkommene Objektivität garantieren. Daher ist teil­ weise nicht mehr die Entscheidung selbst, sondern die Kommunikation über die Entscheidung Gegenstand der Suche nach einem Ideal („Objektivität als Intersubjektivität“):354 Die Objektivität der Entscheidung ergibt sich durch einen im Wege der Kommunikation herzustellenden Konsens. Dann ist dieje­ nige Entscheidung die „richtige“, über die ein Konsens hergestellt wird bzw. hergestellt werden kann.355 Habermas schlägt daher vor, ideale Anforderungen an einen juristischen Diskurs zu formulieren, der sowohl dem (regulativen) Ideal der einzig richti­ gen Entscheidung als auch der Fallibilität der tatsächlichen Entscheidungs­ praxis Rechnung trägt.356 Ein argumentatives Verfahren der kooperativen Wahrheitssuche ist offen für Veränderungen und neue bzw. unbekannte Gründe;357 im Ringen um das beste Argument findet sich auch die richtige Entscheidung. Dem Charme konsenstheoretischer Ansätze ist für den Bereich der Recht­ sprechung entgegenzuhalten, dass auch eine moralisch unrichtige (und nicht konsensfähige) Lösung eines Falles juristisch korrekt sein kann.358 Sie bauen auf eine größtmögliche Offenheit für Argumente, aber in der richterlichen Rechtsfindung ist die Menge der zulässigen begrenzt auf rechtliche Argu­ mente. In Fällen mit Grundrechtsrelevanz besteht zudem immer das „Prob­ lem“ des Minderheitenschutzes: Ein Konsens der Mehrheit kann eine Min­ derheit grundrechtswidrig belasten. Mit der demokratischen Verfassungen immanenten Pflicht zum Schutz von Minderheiten sind Konsensmodelle mangels eines übergeordneten, materiellen Richtigkeitsmaßstabs nicht in Einklang zu bringen.359

353  Dazu und zum Folgenden Habermas, Faktizität und Geltung, 1997, S. 248 ff.; Herbst, JZ 2012, 891 (896 ff.). 354  Herbst, JZ 2012, 891 (896). 355  Einen Überblick über konsenstheoretische Ansätze bietet Poscher, ARSP 89 (2003), 200 (204 f.). 356  Habermas, Faktizität und Geltung, 1997, S. 277. 357  Habermas, Faktizität und Geltung, 1997, S. 279. 358  So Herbst, JZ 2012, 891 (898). 359  Herbst, JZ 2012, 891 (898). Vgl. ergänzend die übersichtliche Zusammenfas­ sung der Positionen bei Möllers, Methodenlehre, 2017, S. 7 ff.



III. Vorgaben an die richterliche Rechtsfindung101

d) Subjektiv richtige Entscheidungen Vorzugswürdig erscheint es daher, als Zielvorgabe richterlicher Tätigkeit die jeweils „einzig richtige Entscheidung im subjektiven Sinne“ anzuneh­ men.360 Die gerichtliche Entscheidung muss (nur) aus der Sicht der entschei­ denden Richter die einzig richtige sein. Denn ohnehin ist eine aleatorische – (auch) auf Zufall beruhende – Rechtsfindung a priori ausgeschlossen: Wenn der Richter denkt, dass neben der getroffenen Entscheidung auch eine andere möglich gewesen wäre, für die ebenso gute Gründe wie für die getroffene sprechen, dann ist die tatsächliche Auswahl zwischen beiden möglichen Ent­ scheidungen nicht rational begründbar, sondern zufällig.361 Eine auf diese Weise zufällige Rechtsfindung widerspräche indes den Rationalitätsansprü­ chen der Rechtsordnung insgesamt. Den Richter trifft daher die Pflicht, grundsätzlich362 so lange nach rechtli­ chen Gründen für die eine oder die andere der möglich erscheinenden Ent­ scheidungen zu suchen, bis aus seiner Sicht ein Entscheidungsergebnis die besseren Gründe auf sich vereinen kann.363 Damit ist keine Aussage über das Wie getroffen. Bei der Auswahl darf der Richter ausschließlich rechtliche Gründe heranziehen und insbesondere (nur) die anerkannten Auslegungsme­ thoden anwenden. Die rechtstheoretischen Überlegungen verdeutlichen die überragende Be­ deutung der Begründung einer richterlichen Entscheidung364 gleichermaßen als Voraussetzung für Akzeptanz, Legitimation und Rechtsstaatlichkeit wie auch als konkrete, praktische Handlungsanweisung: Nur anhand einer metho­ disch korrekten, also den Entscheidungsprozess dokumentierenden Begrün­ dung kann die Entscheidung einer nachträglichen Richtigkeits- bzw. Vertret­ barkeitsprüfung standhalten.365 360  Ebenso Herbst, JZ 2012, 891 (899 f.); ähnlich Müller-Franken, Maßvolles Ver­ walten, 2004, S. 58. 361  Herbst, JZ 2012, 891 (899); vgl. auch Arnauld, Zufall in Recht und Spiel, in: ders. (Hrsg.), Recht und Spielregeln, 2003, S. 171 (179 ff.). 362  Insoweit missverständlich Herbst, JZ 2012, 891 (899), wonach dies (nur?) „in einem schwierigen Fall“ gilt. 363  Bereits wegen des aus dem allgemeinen Justizgewährungsanspruch folgenden Rechtsverweigerungsverbot darf der Richter den Rechtsunterworfenen eine Auswahl samt Begründung nicht verweigern. 364  Dazu sogleich unten S. 122 ff. 365  Vgl. Stelkens, Die Idee der einzig richtigen Entscheidung, in: van Oostrom/ Weth (Hrsg.), FS Herberger, 2016, S. 895 (899). Der rechtstheoretische Grabenkampf zwischen Vertretbarkeit und einzig richtiger Entscheidung verläuft daher insbeson­ dere auch entlang der gerichtlichen Instanzen: Jedenfalls das Revisionsgericht im Strafprozess muss bspw. lediglich die Vertretbarkeit einer Strafe innerhalb eines

102

Erster Teil: Status quo richterlicher Entscheidungsfindung

2. Die richterliche Unabhängigkeit als Basis (Überblick) Basis der richterlichen Entscheidungsfindung ist dessen Unabhängigkeit (Art. 97 GG).366 Die verfassungsrechtliche Wertentscheidung ist von überra­ gender Bedeutung für die Rechtsprechung, betont sie doch ausdrücklich die hohe Stellung des Richters im Staatsgefüge. Als konkretisierende Elemente kennt die Rechtsordnung die sachliche, die persönliche sowie die sog. innere Unabhängigkeit. a) Sachliche Unabhängigkeit Die sachliche, institutionelle Unabhängigkeit gewährt den Richtern insbe­ sondere Weisungsfreiheit (Art. 97 Abs. 1 GG). Die Exekutive darf in den Prozess der konkreten richterlichen Entscheidungsfindung nicht eingreifen; die Unabhängigkeit schützt vor der Einflussnahme in einzelne Prozesse. Zwar arbeiten auch Richter nicht „autark“, sie bedürfen sachlicher und orga­ nisatorischer Unterstützung.367 Grundsätzlich unzulässig ist dabei indes jede inhaltliche Einflussnahme von außen.368 Art. 97 GG schützt insoweit vor je­ der vermeidbaren – auch psychologischen, sogar subtilen – Einflussnahme der Exekutive auf die Rechtsstellung des Richters369 und auf die richterliche Entscheidungsfindung. Maßnahmen der Dienstaufsicht unterliegt der Richter nur insoweit, als sie seine Unabhängigkeit nicht beeinträchtigen (§ 26 Abs. 1 DRiG).370 Die Richter sind auch gegenüber der Judikative sachlich unabhängig.371 Sie dürfen somit grundsätzlich von den Rechtsauffassungen übergeordneter Spielraums prüfen, vgl. das Fazit bei Giannoulis, Studien zur Strafzumessung, 2014, S.  409 f. 366  Vgl. zur Unabhängigkeit mit Blick auf Fragen der Automatisierung unten S. 288 ff. sowie speziell für den Einsatz entscheidungsunterstützender Systeme unten S. 422 ff. 367  Krüger/Möllers et al., Richterliche Unabhängigkeit und Bring Your Own De­ vice, in: Schweighofer/Kummer/Hötzendorfer et al. (Hrsg.), IRIS 2017 Tagungsband, 2017, S. 295 (296). 368  Vgl. auch Berlit, JurPC Web-Dok. 77/2012, Abs. 14 ff. 369  BVerfG, Nichtannahmebeschl. v. 22.6.2006 – 2 BvR 957/05 –, juris, Rn. 7; BVerfGE 12, 81 (88); 26, 79 (93); 55, 372 (389; Radke, jM 2016, 8 (9); Krüger/ Möllers et al., Richterliche Unabhängigkeit und Bring Your Own Device, in: Schweig­ hofer/Kummer/Hötzendorfer et al. (Hrsg.), IRIS 2017 Tagungsband, 2017, S. 295, 296. 370  Siehe ergänzend die kritische Darstellung und Beispiele bei Ahrens, DVBl 2014, 1096 (1097 f.). 371  Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 97, Rn. 11.



III. Vorgaben an die richterliche Rechtsfindung103

Gerichte abweichen, eine eigene Rechtsauffassung vertreten und ihre bishe­ rige Rechtsprechung ändern oder aufgeben.372 Art. 97 Abs. 1 GG steht im Zusammenhang mit der Rechtsweggarantie nach Art. 19 Abs. 4 GG: Den in allen Gerichtszweigen gebotenen effektiven Rechtsschutz sind nur unabhän­ gige Richter zu leisten im Stande.373 b) Persönliche Unabhängigkeit Neben der sachlichen etabliert die Verfassung auch die persönliche Unab­ hängigkeit der Richter (Art. 97 Abs. 2 GG). Als Unabsetzbarkeit und Unver­ setzbarkeit, dem sog. Grundsatz der Inamovibilität, soll die persönliche vor allem die sachliche Unabhängigkeit untermauern: Sie schützt mittelbar davor, dass die Exekutive bspw. durch Absetzung und Neubesetzung letztlich doch Einfluss auf die Entscheidungspraxis nimmt.374 Die Freiheit in der Sachent­ scheidung bedingt die Freiheit von der Furcht vor persönlichen Konsequen­ zen.375 Die Zielrichtung bleibt gleich: Jede vermeidbare Einflussnahme der Exekutive auf die Rechtsstellung des Richters gilt es auszuschließen.376 c) Innere Unabhängigkeit? Spiegelbildlich zur Gewährleistung der sachlichen und persönlichen Unab­ hängigkeit mahnt die Verfassung den Richter implizit auch zu einer inneren Unabhängigkeit: Er soll und muss in der Lage sein, sein Amt innerhalb des durch die sachliche und persönliche Unabhängigkeit garantierten Mindest­ freiraums tatsächlich unparteiisch auszuüben. Die durch die verfassungs­ rechtlich garantierte Unabhängigkeit verbürgte innere Entscheidungsfreiheit ermöglicht nicht nur, sie verlangt, dass der Richter den ihm in den einzelnen Gesetzen zustehenden Spielraum auch tatsächlich für seine Entscheidungsbil­ dung ausnutzt.377 Er muss sich im Vorgang der Entscheidungsfindung so weit wie (psychologisch) möglich von höchstpersönlichen Erfahrungen und Vor­ lieben loslösen können, mindestens notwendig ist aber eine transparente 372  BVerfGE

87, 273 (278); 98, 17 (48). Papier, NJW 1990, 8 (9). 374  BVerfGE 14, 56 (69); 87, 68 (85); Heusch, in: Schmidt-Bleibtreu/Hofmann/ Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 97, Rn. 41; vgl. auch Hillgruber, in: Maunz/Dürig (Begr.), GG, 52. Erg.-Lfg. (Mai 2008), Art. 97, Rn. 84: Die persönliche Unabhängigkeit verleiht keinen Schutz vor jeglichen äußeren Zwängen, sondern soll eine inhaltliche Einflussnahme verhindern. 375  Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 97, Rn. 27. 376  Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 97, Rn. 52 f. 377  Tschentscher, Demokratische Legitimation der dritten Gewalt, 2006, S. 164 ff. 373  Vgl.

104

Erster Teil: Status quo richterlicher Entscheidungsfindung

Entscheidungsbegründung als sichtbare Distanzierung bzw. Offenbarung der tatsächlichen wie rechtlichen Annahmen.378 aa) Herleitung Die „innere Unabhängigkeit“ ist kein explizit genannter Verfassungsgrund­ satz;379 die innere Haltung des Richters ist nicht durch Gesetz steuerbar und daher auch nicht justiziabel.380 Jedenfalls sieht die Rechtsordnung aber das Gebot richterlicher Neutralität vor, das sachfremde Einflüsse aus der Person des Richters selbst auf seine Entscheidung verhindern soll.381 Diese Neutra­ litätsverpflichtung ist nicht ausdrücklich im Grundgesetz verankert, findet sich insbesondere nicht in Art. 97 GG, der sich nicht an die Person des Rich­ ters wendet. Vielmehr besteht Einigkeit darin, dass das Gebot des gesetzli­ chen Richters (Art. 101 Abs. 1 S. 2 GG) die staatliche Verpflichtung beinhal­ tet, die Neutralität der Richter (durch (Ausschluss- und Ablehnungsregeln sowie über materielle Qualifikationsmerkmale) zu sichern.382 Nicht gem. Art. 97 GG, sondern nach Art. 101 Abs. 1 S. 2 GG erwächst somit aus der institutionellen Garantie mittelbar auch in ein Recht des Bürgers „auf einen neutralen als den gesetzlichen Richter“383. Neutralität in diesem Sinne meint, dass Rechtsstreitigkeiten von einem im Verhältnis zu den Verfahrensbeteilig­ ten „nichtbeteiligten Dritten“ in Unparteilichkeit und Unbefangenheit, also sachlicher Distanz, ausgeübt wird;384 das Recht verlangt dem Richter dabei auch ab, kein eigenes Interesse am Verfahrensausgang sowie keine (religiö­ sen, politischen, persönlichen) Vorurteile zu hegen.385 Diese Unbefangenheit und Neutralität werden über Möglichkeiten des Ausschlusses (von Amts 378  Zweigert, Innere Unabhängigkeit, in: Esser/Thieme (Hrsg.), FS Hippel, 1967, S.  711 (717 f.); Tschentscher, Demokratische Legitimation der dritten Gewalt, 2006, S. 165. 379  Wolf, Gerichtsverfassungsrecht aller Verfahrenszweige, 6. Aufl., 1987, S. 220. 380  Mahrenholz, DRiZ 1991, 432 (433); Tschentscher, Demokratische Legitimation der dritten Gewalt, 2006, S. 166. 381  Schilken, Gerichtsverfassungsrecht, 4.  Aufl., 2007, S.  328  ff. (Rn.  486  ff.); Heusch, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14.  Aufl., 2017, Art. 97, Rn. 32. 382  BVerfGE 21, 139 (145  f.); 63, 77 (79 f.); BVerfG, NJW 1998, 369 (370); Maunz, in: Maunz/Dürig (Begr.), GG, 83. Erg.-Lfg. (Apr. 2018), Art. 101 (Altaufl.), Rn. 12 sowie 37; Müller-Terpitz, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 101, Rn. 16. Kritisch zu dieser materiellen Gewährleis­ tungsdimension aber Bettermann, AöR 94 (1969), 263 (271). 383  Schilken, Gerichtsverfassungsrecht, 4. Aufl., 2007, S. 329 (Rn. 487). 384  BVerfGE 3, 377 (381); 4, 331 (346); 21, 139 (145 f.); 30, 149 (153). 385  Wolf, Gerichtsverfassungsrecht aller Verfahrenszweige, 6. Aufl., 1987, S. 219 f.; Schilken, Gerichtsverfassungsrecht, 4. Aufl., 2007, S. 330.



III. Vorgaben an die richterliche Rechtsfindung105

wegen, vgl. bspw. §§ 41, 48 ZPO, § 22 StPO) und der Ablehnung (vgl. bspw. § 42 ZPO, § 24 StPO) abgesichert. bb) Gerechtigkeit und richterliche Ethik? Das Grundgesetz enthält keine Hinweise darauf, dass es neben der Geset­ zesbindung (Art. 20 Abs. 3 GG)386 einer (eigenen, zusätzlichen) richterlichen Berufsethik bedarf387 bzw. ob und an welchem Gerechtigkeitsbegriff sich der Richter orientieren muss. So taucht der Begriff der Gerechtigkeit in den Ent­ scheidungen der (höchsten) deutschen Gerichte auch nur marginal auf.388 Wenngleich ein Richter subjektiv davon ausgeht, im Rahmen der Bindung an Gesetz und Recht ein gerechtes Urteil gefällt zu haben – objektiv nachprüfen lässt sich dies in der Regel nicht. Gerechtigkeit und Recht sind nicht de­ ckungsgleich. Gerechtigkeitserwägungen und Wertungen beruhen nicht auf exakter Erkenntnis, sondern differieren von Person zu Person. Sie sind nur schwer objektiv greifbar, allenfalls über Konsens oder äußere Eckpfeiler. Es existieren vielfältige Ansätze und Definitionen dessen, was gerecht  ist.389 Fest steht terminologisch allenfalls, dass Richter (auch) dafür zuständig sind, Gerechtigkeit in den an sie herangetragenen Konflikten herzustellen: die Einzelfallgerechtigkeit.390

386  Eine anerkannte Ausnahme von der strikten Gesetzesbindung bildet die Radbruch’sche Formel, wonach der Richter sich im Konflikt zwischen dem positiven Recht und der Gerechtigkeit nur dann gegen das Gesetz und stattdessen für die ma­ terielle Gerechtigkeit entscheiden darf (aber dann auch muss), wenn das entspre­ chende Gesetz als „unerträglich ungerecht“ anzusehen ist oder das Gesetz die im Begriff des Rechts grundsätzlich angelegte Gleichheit aller Menschen aus Sicht des Interpreten „bewusst verleugnet“, vgl. Radbruch, Süddeutsche Juristen-Zeitung 1 (1946), 105 (106 f.). In der Rechtsprechung fand die Formel u. a. in den BVerfGEntscheidungen zum DDR-Unrechtsregime Erwähnung, z. B. in BVerfGE 95, 96 (134 f.). Die Unwirksamkeit des positiven Rechts muss danach auf extreme Ausnah­ mefälle beschränkt bleiben. Vgl. auch die Kritik an der „Mauerschützen“-Rechtspre­ chung bei Alexy, Mauerschützen, 1993, S. 30 ff. 387  Dazu und zum Folgenden Schneider, Richterliche Ethik, 2017, S. 32 ff.; vgl. auch die Diskussion um eine richterliche Berufsethik aus dem Blickwinkel der An­ waltschaft bei Heussen, NJW 2015, 1927 (1928 ff.). 388  Rottleuthner, Gerechtigkeit in der Rechtsprechung, in: Präsidium des Deut­ schen Richterbundes (Hrsg.), Justiz und Recht im Wandel der Zeit, 2009, S. 113 (121); siehe auch Schmidt, RdA 2015, 260 (260). 389  Siehe bspw. die Zusammenstellung einiger der wichtigsten Denker bei Horn/ Scarano (Hrsg.), Philosophie der Gerechtigkeit, 2013, S. 17 ff. 390  Schmidt, RdA 2015, 260 (261).

106

Erster Teil: Status quo richterlicher Entscheidungsfindung

(1) Hintergrund Aufgrund der Freiheiten, welche die sachliche Unabhängigkeit dem Richter gewährleistet, hat die Rechtswissenschaft Bedarf für normative Leitplanken in Form einer Richterethik erkannt: Diese sei eine berufsspezifische Tugend­ lehre, die Gewissenhaftigkeit, Entscheidungsbereitschaft, Arbeitsdisziplin (auch bei abgeschlossener Aufstiegsperspektive), die Gewährung „inneren“ Gehörs sowie „kontrollierte Empathie“ bezwecke.391 Die Zunahme an Verfah­ ren, der Sparzwang und die Schuldenbremse in den Bundesländern sowie ein höherer Erledigungsdruck hat jedenfalls den Wandel richterlicher Tätigkeit von einer „Entscheidungs- hin zur Vermittlungskultur“392 begünstigt. Die Suche nach der materiellen Wahrheit in einem Rechtsfall gerät zuneh­ mend in den Hintergrund: Richterliche Unabhängigkeit und die Qualität der Entscheidungen sind kaum messbare Faktoren – sie können gar als Hindernis effektiver Abläufe in einer Ökonomisierung der Justiz erscheinen. Das Bild der richterlichen Tätigkeit enthält aber traditionell die Idee von Gerechtigkeit und Wahrheit.393 Einzelne Entwicklungen wie die Absprachen im Strafpro­ zess („Deals“, vgl. § 257c StPO), die Mediation (vgl. § 278a ZPO), die Kompetenzen des Güterichters und ähnliche Entwicklungen werfen die Frage des Verständnisses richterlicher Tätigkeit neu auf. Erledigungsdruck und Überlastung der Richter sind jedenfalls der Entscheidungsqualität und dem Streben nach (Einzelfall-)Gerechtigkeit grundsätzlich nicht zuträglich.394 (2) Konkretisierung im DRiG Gerechte Urteile können den Rechtsfrieden stärken und die Akzeptanz gerichtlicher Entscheidungen erhöhen.395 Weder der Verfassung noch dem einfachen Recht ist indessen eine Verpflichtung des Richters auf „die Ge­ rechtigkeit“ zu entnehmen. Normative Grundlage einer Richterethik i. S. ei­ nes abstrakten Handlungsleitfadens ist allen voran das DRiG, insbesondere dessen §§ 25, 38, 39, sowie die Vorschriften über die Richterablehnung in den Prozessordnungen. 391  Steiner, DVBl 2018, 1097 (1100); Bedarf bejahen auch Kreth, DRiZ 2009, 198 (200 f.); Luik, Schleswig-Holsteinische Anzeigen 2009, 97 (97 ff.); Luik, Mitteilungs­ blatt des Schleswig-Holsteinischen Richterverbandes 2012, 35 (35 ff.); siehe zur welt­ weiten Situation auch Krix, DRiZ 2003, 149 (149 ff.). 392  Wipfelder, DRiZ 1991, 309 (312). 393  Zur Problematik dieser Begriffe Kissel, DRiZ 1991, 269 (271); Schneider, Richterliche Ethik, 2017, S. 34. 394  Insofern erscheint es rechtspolitisch als wünschenswertes Ziel, dass Richter sich (wieder) verstärkt dem Finden materieller Wahrheit zuwenden können. Vgl. zu den Gefährdungen Schmidt, RdA 2015, 260 (261 f.). 395  So heißt es etwa bei Lü Buwei: „Der Friede entspringt aus der Gerechtigkeit“.



III. Vorgaben an die richterliche Rechtsfindung107

§ 39 DRiG ist der Wahrung der Unabhängigkeit verschrieben: Der Richter hat sich innerhalb und außerhalb seines Amtes so zu verhalten, dass das Ver­ trauen in seine Unabhängigkeit nicht gefährdet wird; er muss alles vermei­ den, was ihn innerlich festlegen oder auch nur den Anschein einer Festlegung verursachen könnte.396 Diese innere Unabhängigkeit basiert auf Eigenverant­ wortlichkeit: Als Inhalt der Richterpflicht erfasst das Grundgesetz sie nicht direkt, sie ist jedoch in Art. 97 wie auch in Art. 92 GG als selbstverständlich vorausgesetzt.397 Als Teil der nichtjustiziablen, auf Gewohnheit oder Anstand beruhenden „Richterethik“ ist die innere Unabhängigkeit also einfachrecht­ lich geregelt und konkretisiert.398 Ihr Ziel ist die Unabhängigkeit sowohl von anderen Staatsgewalten wie auch von Gruppen und Einrichtungen des Wirt­ schafts- und sozialen Lebens und ebenso von den Beteiligten des anhängigen Verfahrens.399 Das Pflichtenregime einer „Richterethik“ darf aber nicht über die gesetzli­ chen Grenzen (insbesondere des DRiG) hinaus erweitert werden – ansonsten wäre die sachliche Unabhängigkeit (qua mittelbarer Einwirkung auf eine Rechtssache) durch die Dienstaufsicht gefährdet: Eine Richterethik darf nicht Vorwand sein, die persönliche Freiheit des Richters (einschließlich seiner religiösen oder politischen Überzeugungen) zu ersticken.400 §§ 38 f. DRiG lassen die grundgesetzlich gewährleisteten Persönlichkeits- und Bürgerrechte unangetastet. Über den Verweis in § 46 DRiG gelten für die Bundesrichter zusätzlich die Vorschriften des BBG, insbesondere § 60 Abs. 1 S. 2 BBG: Richter im Bun­ desdienst haben ihre Aufgaben demnach „unparteiisch und gerecht zu erfül­ len“ und bei ihrer Amtsführung „auf das Wohl der Allgemeinheit Bedacht zu nehmen“. Dass der Richter unparteilich, unparteiisch und gerecht sein muss (§ 60 Abs. 1 S. 1 und 2 BBG), legt allerdings bereits Art. 97 GG fest, indem er unabhängige Richter voraussetzt401; auch der Richtereid (§ 38) bekräftigt dies. Die Formulierung im BBG ist insoweit nur eine Bestätigung – aller­ dings muss sich auch die Forderung nach „Gerechtigkeit“ selbst an der rich­ terlichen Unabhängigkeit messen lassen, sodass über ihre Einhaltung auch nur der Richter selbst entscheiden kann.402 396  Staats,

DRiG, 2012, § 25, Rn. 8. 78, 216 (219). 398  Staats, DRiG, 2012, § 25, Rn. 8. 399  BVerwGE 78, 216 (220); Schmidt-Räntsch, DRiG, 6. Aufl., 2009 § 39, Rn. 7. 400  Staats, DRiG, 2012, § 25, Rn. 8. 401  Siehe BVerwGE 78, 216 (220): „Neutralität, Unparteilichkeit und Distanz“. 402  Staats, DRiG, 2012, § 46, Rn. 30. Die Verpflichtung, „bei ihrer Amtsführung auf das Wohl der Allgemeinheit Bedacht zu nehmen“ (§ 60 Abs. 1 S. 2 BBG), ist hingegen eine zusätzliche (auch den Richter treffende) Pflicht. 397  BVerwGE

108

Erster Teil: Status quo richterlicher Entscheidungsfindung

Es bleibt damit die richterliche Kardinaltugend, unabhängig zu sein und zu erscheinen – und zwar in einem weiten Verständnis, namentlich als Neutrali­ tät, Unparteilichkeit und Distanz. Der Richter muss diese eigenverantwortli­ che, innere Unabhängigkeit unzweideutig und für jeden fairen Betrachter unmissverständlich bekunden.403 Bei jedem nach außen erkennbaren Verhal­ ten muss der Richter alles unterlassen, was ein objektiver Beobachter als voreingenommene, nicht mehr überprüfte Haltung deuten könnte.404 Ein weiterer Baustein der richterlichen Berufsausübung ist der Richtereid in § 38 DRiG: „Ich schwöre, das Richteramt getreu dem Grundgesetz für die Bundesrepublik Deutschland und getreu dem Gesetz auszuüben, nach bestem Wissen und Gewissen ohne Ansehen der Person zu urteilen und nur der Wahrheit und Gerechtigkeit zu dienen […]“ (Hervorhebung nur hier). Die Vorschrift verdeutlicht die Hauptpflichten des Richters, insbesondere die Pflicht zur inneren Unabhängigkeit i. S. einer Unparteilichkeit und Neutrali­ tät. Dem Richtereid ist damit durchaus ein ethischer Handlungsauftrag zu entnehmen: Wahrheit und Gerechtigkeit zu dienen, bedeutet im Einzelnen, das Fairnessgebot, das Willkürverbot und die Verpflichtung, die „fundierten allgemeinen Gerechtigkeitsvorstellungen der Gemeinschaft“ (insbesondere die Werteordnung des Grundgesetzes) zu beachten.405 Der Eid im Speziellen und die „Richterethik“ im Allgemeinen begründen jedoch keine durchsetzbaren Pflichten.406 Nur soweit einzelne Aspekte ge­ nauer konkretisiert sind, kann die Nichtbeachtung dieser Pflichten zu Maß­ nahmen der Dienstaufsicht oder zu Disziplinarmaßnahmen führen. Im Übri­ gen handelt es sich um moralische Pflichten,407 für die der Richter nur gegen sich selbst einzustehen hat. Eine andere Interpretation wäre mit der richterli­ chen Unabhängigkeit nicht vereinbar – wenn der Richter bspw. allein wegen einer Entscheidung, die der Dienstaufsicht als „ungerecht“ erscheint, dienst­ rechtliche Maßnahmen fürchten müsste.408 Weder die Verfassung noch das Gesetz kann die „innere Unabhängigkeit“ letztlich garantieren. Es ist eine dem Richter persönlich gestellte Aufgabe und das ihm abverlangte Amtsethos, immer wieder erneut ungeachtet der 403  Staats,

DRiG, 2012, § 39, Rn. 2. DRiG, 2012, § 39, Rn. 4. 405  Kreth, DRiZ 2009, 198 (201). 406  Vgl. Mahrenholz, DRiZ 1991, 432 (433); Tschentscher, Demokratische Legiti­ mation der dritten Gewalt, 2006, S. 166. 407  Vgl. Staats, DRiG, 2012, § 26, Rn. 2: Der Richter ist insoweit nur sich selbst gegenüber verantwortlich; ohne weiteres gesetzgeberisches Tätigwerden handelt es sich nicht um Berufspflichten im dienstrechtlichen Sinne. 408  Staats, DRiG, 2012, § 38, Rn. 2; etwas weiter gehend wohl Kreth, DRiZ 2009, 198 (201). 404  Staats,



III. Vorgaben an die richterliche Rechtsfindung109

Wünsche und Erwartungen Dritter nur anhand von Gesetz und Recht zu ent­ scheiden und sich stets selbstkritisch zu hinterfragen.409 3. Was das Recht vom Richter fordert Die Rechtsordnung stellt den Rechtsfindungsprozess nicht in das Gutdün­ ken der Richter. Unter Wahrung der richterlichen Unabhängigkeit (Art. 97 Abs. 1 GG) verlangt sie dem Richter die unbedingte Gesetzesbindung als Ausdruck des Rechtsstaatsprinzips (nachfolgend a)) sowie ein juristisch-me­ thodisch sauberes Vorgehen (nachfolgend b)) ab. a) Die Gesetzesbindung als Legitimierung und „Disziplinierung“ aa) Grundsätze Die strikte Bindung der richterlichen Tätigkeit an das Gesetz (Art. 97 Abs. 1 GG) bzw. an Gesetz und Recht (Art. 20 Abs. 3 GG) hat Verfassungs­ rang. Sie umfasst sowohl den Inhalt eines Richterspruchs als auch dessen Zustandekommen: Die Entscheidung eines Richters ist in diesem Sinne legi­ tim, wenn sie von einer „außer und vor ihm bestehenden objektiven Norm bestimmt“410 ist. Sie muss dem Gesetz entsprechen und ihm gerecht werden. Das Gesetz ist im demokratischen Verfassungsstaat der Regelungswille des Parlaments, welches das Volk demokratisch gewählt hat – dem Richterspruch, dessen Inhalt das Gesetz vorzeichnet, vermittelt es deshalb demokratische Legitimität.411 Erst die Bindung an Gesetz und Recht ermöglicht die richter­ liche Unabhängigkeit (Art. 97 Abs. 1 GG) und rechtfertigt, dass an die demo­ kratische Legitimation (Art. 20 Abs. 1, Abs. 2 S. 2 GG) der Judikative im Vergleich der drei Gewalten andere Anforderungen zu stellen sind.412 Die 409  Kreth,

DRiZ 2009, 198 (201). Funktion und Legitimation des Richters, 2015, S. 5. Siehe zum Be­ griff der Gesetzesbindung des Richters und zu Spannungen mit der Rechtsweggaran­ tie auch Schröder, Gesetzesbindung des Richters und Rechtsweggarantie im Mehre­ benensystem, 2010, S. 6 f.: Insbesondere die zu beobachtende Internationalisierung des Rechts und die Vielfalt an Normen stellt die richterliche Tätigkeit vor besondere Herausforderungen, etwa in der Frage nach dem Entscheidungsmaßstab. 411  Rennert, Funktion und Legitimation des Richters, 2015, S. 5 f. 412  Siehe zur demokratischen Legitimation ausführlich unten S. 317 ff. Weil aus dem Erfordernis der demokratischen Legitimation neben der Bindung an Gesetz und Recht keine weiteren konkreten Anforderungen an die richterliche Entscheidungsfin­ dung folgen (vgl. etwa Grzeszick, in: Maunz/Dürig (Begr.), GG, 57. Erg.Lfg. (Jan. 2010), Art. 20, Abschn. II, Rn. 236 ff., sowie unten S. 318 ff.), findet der Aspekt an dieser Stelle keine vertiefte Erörterung. 410  Rennert,

110

Erster Teil: Status quo richterlicher Entscheidungsfindung

unbedingte Gesetzesbindung ist also gleichsam Kehrseite und zentrale Säule der richterlichen Unabhängigkeit. Ihre doppelte – rechtsstaatliche und demo­ kratische – Funktion schützt die Rechtsunterworfenen vor willkürlicher Rechtsprechung und zielt auf Rechtsanwendungsgleichheit.413 bb) Sonderfall „Richterrecht“ (1) Verfassungsrechtliche Zulässigkeit Der Grundsatz der Gesetzesbindung gibt den Rahmen für die richterliche Entscheidungsfindung vor. Dieser Rahmen führt den Richter aber nicht im­ mer zu einer gerechten, rationalen, guten Einzelfallentscheidung – auch dann nicht, wenn ihm alle relevanten Informationen eines Sachverhalts zur Verfü­ gung stehen und er den juristischen Auslegungskanon heranzieht. Wo die Auslegung an ihre Grenzen stößt oder zu keinem eindeutigen Ergebnis kommt, beginnt der Bereich der Rechtsfortbildung414 und des Richter­ rechts.415 Das positiv normierte Recht ist nicht lückenlos. Daher ist der Rich­ ter zwar an Gesetz und Recht gebunden (Art. 20 Abs. 3 GG), er muss und darf sich in der Rechtsfindung aber nicht ausnahmslos auf die geschriebenen Gesetze und Vorschriften beschränken.416 Richterrecht entsteht durch die Rechtsprechung der Gerichte zu dem Zweck, bestehende und für den jeweiligen Einzelfall entscheidungsrelevante Gesetzeslücken zu schließen.417 Es ist faktisches, geltendes Recht, stellt aber keine verbindliche Rechtsquelle dar und entfaltet daher auch keine Bindung für (untergeordnete) Gerichte: Art. 20 Abs. 3, Art. 97 Abs. 1 GG machen deutlich, dass das Richterrecht – mit Ausnahme der besonderen Bindungs­ 413  Heusch, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 97, Rn. 35. 414  Vgl. etwa Jachmann, in: Maunz/Dürig (Begr.), GG, 63. Erg-Lfg. (Okt 2011), Art. 95, Rn. 14. 415  Beide Begriffe sind eng miteinander verwandt und in der Sache ähnlich. „Rechtsfortbildung“ als über die Gesetzesauslegung hinausgehendes Instrument ist indes nicht auf die Rechtsprechung beschränkt, sondern wird auch durch die ange­ wandte Rechtswissenschaft betrieben. An dieser Stelle genügt eine synonyme Ver­ wendung der beiden Begriffe. 416  BVerfGE 34, 269 (287  f.). Vgl. zu Inhalt, Zulässigkeit und Grenzen des Richterrechts (mit einem Fokus auf das Privatrecht) Wiedemann, NJW 2014, 2407 (2408 ff.). Siehe auch die Diskussion zwischen Rüthers, NJW 2005, 2759 (2759 ff.); Rüthers, NJW 2011, 1856 (1856 ff.); Rüthers, Die heimliche Revolution vom Rechts­ staat zum Richterstaat, 2. Aufl., 2016, S. 77 ff., einerseits und Hirsch, ZRP 2004, 29 (29 f.); Hirsch, ZRP 2006, 161 (161); Hirsch, ZRP 2009, 61 (61 f.), andererseits. 417  Insoweit besteht eine Parallele zum Gewohnheitsrecht; Richterrecht wird je­ doch im Gegensatz zu diesem allein durch die Judikative begründet.



III. Vorgaben an die richterliche Rechtsfindung111

wirkung der verfassungsgerichtlichen Rechtsprechung (vgl. § 31 BVerfGG; Art. 93, 100 GG) – keine eigenständige Rechtsquelle ist.418 In der Sache handelt es sich um eine Weiterbildung des Rechts durch die Rechtsprechung: Rechtsfortbildung als Reaktion auf sich verändernde Ver­ hältnisse und als Mittel gegen den Alterungsprozess der Gesetze.419 Aus dem Gewaltenteilungsgrundsatz (Art. 20 Abs. 2 S. 2 GG) folgt indes, dass der Richter nicht befugt ist, seine eigenen Vorstellungen von (materiell-rechtli­ cher) Gerechtigkeit an die Stelle des Gesetzgebers zu setzen;420 insoweit wäre eine Rechtsfortbildung durch die Judikative nicht mehr zulässig. Die Grenze bilden die Grundsätze der Gesetzesbindung und der Gewaltenteilung (Art. 20 Abs. 2 S. 2 GG): Der Richter darf sich durch richterliche Rechtsfort­ bildung nicht über den klaren Gesetzeswortlaut hinwegsetzen421 – auch nicht, um einem vermuteten Ziel des Gesetzgebers Wirkung zu verschaffen. Richterrecht und Rechtsfortbildung sind immer das Ergebnis einer Ausle­ gung, welche noch dem Ziel der Gesetzgebung entspricht; der Richter darf den gesetzgeberischen Willen nicht ändern oder korrigieren. (2) Erscheinungsformen Richterrecht ist denkbar in vier Arten: gesetzeskonkretisierendes, gesetzes­ vertretendes, lückenfüllendes und – immer unzulässig – gesetzeskorrigieren­ des Richterrecht.422 Als Element der Rechtsfortbildung erlangt insbesondere die Analogie Relevanz – hierbei ist der zu entscheidende Fall zwar nicht vom Wortlaut einer Norm gedeckt, wohl aber von deren Normzweck; der Norm­ tatbestand wird also erweitert. Weitere Erscheinungsformen423 sind die teleo­ logische Reduktion (ein Fall ist zwar vom Wortlaut umfasst, jedoch nicht vom Normzweck; der Tatbestand einer Norm wird also verkleinert bzw. un­ 418  Jarass, in: Jarass/Pieroth (Hrsg.), 15. Aufl., 2018, Art. 20, Rn. 42; Sobota, Das Prinzip Rechtsstaat, 1997, S. 101 ff.; Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 20, Rn. 286 m. w. N., auch zur Gegenansicht. Sommermann betont, dass „nicht einem antiquierten Konzept des Richters als Subsumtionsautomat […] das Wort geredet“ werden soll, sondern dass Rechtsetzung und Rechtsfindung grundsätzlich zu unterscheiden sind. 419  Hirsch, ZRP 2004, 29 (29). Zu den (weiteren) Gründen für eine Rechtsfortbil­ dung durch die Dritte Gewalt anstelle des Parlaments – etwa sprachlichen Schwierig­ keiten durch notwendig starre Regelungen – ausführlich Wank, Grenzen richterlicher Rechtsfortbildung, 1978, S. 119 ff. 420  BVerfGE 128, 193 (210 ff.); ähnlich bereits BVerfGE 82, 6 (11 ff.). 421  BVerfGE 118, 212 (243). Eine Rechtsfortbildung contra legem ist somit stets verfassungswidrig, vgl. BVerfGE 35, 263 (280); Jachmann, in: Maunz/Dürig (Begr.), GG, 63. Erg-Lfg. (Okt 2011), Art. 95, Rn. 16. 422  Vgl. etwa Möllers, Methodenlehre, 2017, S. 416. 423  Vgl. zu Einordnung und Abgrenzung Wiedemann, NJW 2014, 2407 (2408 f.).

112

Erster Teil: Status quo richterlicher Entscheidungsfindung

terschritten) und dessen Gegenstück, die teleologische Erweiterung (Exten­ sion). In den letzten Jahrzehnten haben Bedeutung und Ausmaß der richterli­ chen Rechtsfortbildung zugenommen.424 (3) Pflicht zur Rechtsfortbildung? Nach Art. 20 Abs. 3 GG ist die Rechtsprechung an Gesetz und Recht ge­ bunden. Daraus folgt ein verfassungsrechtlicher Auftrag an die Richter, das Recht weiterzuentwickeln, Lücken zu schließen, Widersprüche im geschrie­ benen Recht aufzulösen und im Einzelfall den Intentionen des Gesetzgebers Geltung zu verschaffen. Denn „Recht“ ist mehr als die Buchstaben des Ge­ setzes; auch sind Gesetz und Recht nicht immer identisch.425 Das BVerfG hat die grundsätzliche Zulässigkeit des Richterrechts mehr­ fach betont und damit begründet, dass wegen des beschleunigten Wandels der gesellschaftlichen Verhältnisse, begrenzter Reaktionsmöglichkeiten des Gesetzgebers und der offenen Formulierung zahlreicher Normen die Anpas­ sung des geltenden Rechts an veränderte Verhältnisse zu den Tätigkeiten der Judikative zählt.426 Den Richtern kommt also die Befugnis, aber auch die Aufgabe zu „schöpferischer“ Rechtsfindung und Rechtsfortbildung zu.427 Auch dort, wo es an eindeutigen normativen Vorgaben fehlt, muss der Rich­ ter dem Bürger Rechtsschutz gewähren.428 Ergänzend dazu folgt aus Art. 19 Abs. 4 GG ein „Rechtsverweigerungsverbot“ als Kehrseite der allgemeinen Justizgewährungspflicht: Ergibt die Auslegung eines Gesetzes im Einzelfall nicht hinreichend die normative Grundlage zur Subsumtion, ist der Richter zur entsprechenden Konkretisierung verpflichtet.429 Die Rechtsfortbildung als solche kann sich im Einzelfall auch aus Art. 3 Abs. 1 GG ergeben: Der allgemeine Gleichheitssatz fungiert dann als Triebfeder der Rechtsfortbildung und verlangt dem Richter ein fallvergleichendes Vorgehen bzw. einen Analo­ gieschluss ab. 424  Vgl. Hirsch, ZRP 2009, 61 (62), der diese Entwicklung auf den raschen gesell­ schaftlichen Wandel und den „Normenhunger“ moderner Industriegesellschaften zu­ rückführt, denen der Gesetzgeber nicht immer unmittelbar Rechnung tragen kann. 425  Vgl. Hirsch, ZRP 2004, 29 (29 f.). 426  Eingehend BVerfGE 128, 193 (210); zuvor bereits BVerfGE 49, 304 (318); 96, 375 (394); 122, 248 (267). 427  Vgl. etwa BVerfGE 3, 225 (243 f.); 13, 153 (164); 18, 224 (237 ff.); 25, 167 (183); 34, 269 (287 f.). 428  Jachmann, in: Maunz/Dürig (Begr.), GG, 63. Erg-Lfg. (Okt 2011), Art. 95, Rn.  13 f. 429  Vgl. Möllers, JZ 2009, 668 (669); Schmidt-Aßmann, in: Maunz/Dürig (Begr.), GG, 72. Erg.-Lfg. (Juli 2014), Art. 19 Abs. 4, Rn. 16 f.; Jachmann, in: Maunz/Dürig (Begr.), GG, 63. Erg-Lfg. (Okt 2011), Art. 95, Rn. 14.



III. Vorgaben an die richterliche Rechtsfindung113

Auch das Gesetz selbst sieht – ausdrücklich jedenfalls für die oberen Bun­ desgerichte – die richterliche Rechtsfortbildung vor: § 543 Abs. 2 Satz 1 Nr. 2 ZPO, § 115 Abs. 2 Nr. 2 FGO (Rechtsfortbildungsrevision) sowie § 132 Abs. 4 GVG, § 11 Abs. 4 VwGO, § 11 Abs. 4 FGO, § 45 Abs. 4 ArbGG und § 41 Abs. 4 SGG. Das Gros der Fälle richterlicher Rechtsfortbildung voll­ zieht sich zwar bei den Obergerichten, insbesondere den Gerichten letzter Instanz bzw. den Bundesgerichten;430 dort entfaltet das Richterrecht auch seine größte Relevanz und Sichtbarkeit. Ausgeschlossen ist eine „unterge­ richtliche Rechtsfortbildung“ aber nicht: Auch der Amtsrichter kann und muss bspw. eine Analogie ziehen, wenn das im Einzelfall notwendig ist, um eine einzelfallgerechte Entscheidung zu treffen. b) Konkrete Vorgaben Zwischen richterlicher Unabhängigkeit und Gesetzesbindung als abstrakte Leitplanken hegt die Rechtsordnung auch konkrete Erwartungen an den Pro­ zess der richterlichen Entscheidungsfindung. So verlangt insbesondere die Anwendung der anerkannten Methodenlehre und der juristischen Ausle­ gungsmethodik den Richtern – im Sinne des Rechtsstaatsprinzips – ein Be­ kenntnis zu Rationalität, Selbstreflexion und Diskurs ab.431 aa) Kein Verstoß gegen Prozessrecht Über die Gesetzesbindung in Art. 97 Abs. 1 GG und das Rechtsstaatsprin­ zip (Art. 20 Abs. 3 GG) zwar bereits erfasst, nimmt die Einhaltung der pro­ zessrechtlichen Regeln indes einen prominenten Platz in den Anforderungen an die richterliche Tätigkeit ein. Aufgrund der teils gravierenden Unterschiede prozessualer Vorschriften in den einzelnen Verfahren (Verwaltungsgerichts-, Straf-, Zivil-, Arbeitsgerichts-, Sozialgerichts- und Finanzgerichtsprozesse) sowie auch innerhalb der einzelnen Verfahren (z. B. JGG versus StPO oder Familienrechtstreitigkeiten versus allgemeines Zivilprozessrecht), lässt sich die Handlungsanweisung leichter negativ formulieren: Der Prozess der rich­ terlichen Entscheidungsfindung darf nicht gegen das jeweilige Prozessrecht verstoßen. 430  Vgl. Rüthers, NJW 2005, 2759 (2759): Die Gerichte letzter Instanz seien „dort, wo die Gesetzgebung schweigt, zu ‚Ersatzgesetzgebern‘ geworden“. 431  Rennert, Funktion und Legitimation des Richters, 2015, S. 8. Der allgemeine Justizgewähranspruch verbietet dem Richter zudem, sich einer Entscheidung zwi­ schen mehreren Auswahlmöglichkeiten und einer die Entscheidung stützenden Be­ gründung zu enthalten (Rechtsverweigerungsverbot); vgl. dazu mit Blick auf Automa­ tisierungspotenziale ergänzend unten S. 310.

114

Erster Teil: Status quo richterlicher Entscheidungsfindung

Das Prozessrecht verhilft insbesondere dem Gleichheitsgrundsatz (Art. 3 GG), dem Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) und der Rechtsweggarantie (Art. 19 Abs. 4 GG) zur Geltung. Die Rechtsordnung nutzt das Verfahrensrecht als formelles Recht, um materielles Recht durchzu­ setzen. Es umfasst Kompetenzregelungen (insbesondere zur Zuständigkeit), Vorgaben für die Art und Weise der Verfahrensdurchführung und Regeln für die Form der Entscheidung (Urteil, Beschluss) sowie deren Bekanntgabe und Wirksamkeit. Das verfassungsrechtlich verbürgte (grundrechtsgleiche) Recht auf rechtliches Gehör (Art. 103 Abs. 1 GG) überlässt seine Ausgestaltung den einzelnen Verfahrensordnungen.432 Auch die jeweiligen Verfahrensgrund­ sätze, etwa die Grundsätze der Mündlichkeit (vgl. nur § 128 Abs. 1 ZPO; § 33 Abs. 1 StPO; § 101 Abs. 1 VwGO) und der Unmittelbarkeit (vgl. nur §§ 128, 309 ZPO; §§ 244, 250, 261 StPO; §§ 96, 101 VwGO), sind im Pro­ zessrecht verankert. bb) Im Rahmen des Prozessrechts: Entscheidung, die materiell-rechtlich der objektiven Rechtslage entspricht Der innerhalb des Verfahrensrechts erfolgende Entscheidungsfindungspro­ zess hat zum Ziel, eine inhaltlich der materiellen Rechtslage entsprechende Entscheidung zu treffen. Er umfasst die Subsumtion, also die Unterordnung des konkreten Lebenssachverhalts unter die (abstrakte) Tatbestandsformulie­ rung einer Rechtsnorm, das Anwenden der Rechtsnorm sowie das Auffinden der richtigen Rechtsfolge. Den Richtigkeitsmaßstab kann ein Beispiel illustrieren: Angenommen, ein Angeklagter ist tatsächlich (materiell-rechtlich) schuldig, das einzige ihn be­ lastende Beweismittel unterliegt aber einem absoluten Beweisverwertungs­ verbot. Der Richter muss diesen Angeklagten freisprechen: Die materiellrechtlich für sich genommen unrichtige Entscheidung entspricht der objekti­ ven Rechtslage. Für den Richter folgt daraus als Handlungsanweisung, die Optionenwahl stets anhand der spezifischen Normvorgaben vorzunehmen.433 432  BVerfGE 67, 208 (211); 74, 228 (233). Zu nennen sind insbesondere § 108 Abs. 2, § 152a VwGO; §§ 139, 156 Abs. 1, Abs. 2 Nr. 1 ZPO; §§ 33, 33a, 311a, 356a sowie speziell auch § 258 Abs. 1, Abs. 2 Hs. 2 und § 265 StPO. In der Regel führt ein Verstoß gegen die entsprechenden Vorschriften der Prozessordnung noch nicht unmit­ telbar zu einer Verletzung des Art. 103 Abs. 1 GG, sondern nur dann, wenn das Ge­ richt bei der Auslegung die Bedeutung und Tragweite des grundrechtsgleichen Recht verkannt hat, vgl. BVerfGE 60, 305 (310); 74, 228 (233). 433  Vgl. ergänzend Hoffmann-Riem, Innovation und Recht, 2016, S. 120. In tat­ sächlicher Hinsicht drängt die juristische Methodenlehre den Richter insbesondere zur formallogischen Subsumtionstechnik sowie der Nutzung des (Gutachten- bzw.) Urteilsstils.



III. Vorgaben an die richterliche Rechtsfindung115

cc) Auslegung Dort, wo Rechtsnormen nicht unmittelbar und logisch zwingend die vom Normgeber gewünschte Rechtsfolge und Optionenwahl klar erkennen lassen, muss der Richter durch Auslegung (auch: Exegese, Interpretation) des Norm­ textes zu einer begründbaren Rechtsfolgenentscheidung gelangen. Denn die normativen Grundlagen des Rechtssystems in Form geschriebener Rechts­ sätze sind auslegungsfähig und -bedürftig.434 Besonders augenscheinlich ist das bei unbestimmten Rechtsbegriffen und Generalklauseln. Daneben bedür­ fen auch Verträge, Willenserklärungen sowie Aussagen von Beteiligten eines Rechtsstreits und Zeugen der Interpretation;435 hier im Vordergrund steht in­ des die Normauslegung. Die Auslegung des einschlägigen Normtextes ist eine „ureigene Aufgabe jeder Rechtsprechung“436. Sogar vermeintlich „klare Wortlaute“ sind immer auslegungsfähig und -bedürftig – denn die Feststellung, dass der Wortlaut einer Norm „klar“ oder „eindeutig“ ist, entbehrt nicht der Auslegung, son­ dern ist deren Ergebnis.437 (1) Auslegungsmethoden Ziel der Auslegung ist es, die Norm selbst438 sowie den Willen des Nor­ menautors zu verstehen.439 Rechtssätze sind allgemeine Implikationen mit Sollensgehalt, aus denen der Rechtsanwender schlussfolgernd die konkreten Sollenssätze gewinnt.440 Besonders in Rechtsfällen mit Bewertungsspielräu­ men steht der Rechtsanwender vor der Herausforderung, allgemeine Gesetze auf den Einzelfall „herunterzubrechen“. Die Auslegung der Rechtssätze ist eine Methode der rationalen Konsensgewinnung im Recht.441 In der Ausle­ gung ist der Rechtsanwender nicht vollständig frei. Er ist vielmehr an die in Rüthers/Fischer et al., Rechtstheorie, 10. Aufl., 2018, S. 411 ff. bei Tarifverträgen kann dadurch ein Konflikt zwischen Normaus­ legung und Vertragsauslegung entstehen, weil bspw. tarifliche Rechtsnormen nicht wie Schuldverträge gem. §§ 133, 157 BGB auszulegen sind, vgl. Löwisch/Rieble, Tarifvertragsgesetz, 4. Aufl., 2017 1675 ff., siehe dort auch die Ausführungen zum Auslegungskanon in Rn. 1685 ff. 436  Wiedemann, NJW 2014, 2407 (2408). 437  Rüthers, NJW 2011, 1856 (1857). 438  Vgl. Reimer, Methodenlehre, 2016, S. 122 (Rn. 246). 439  Vgl. etwa Säcker, in: Säcker/Rixecker/Oetker et al. (Hrsg.), MüKo-BGB, Bd. 1, 7. Aufl., 2015, Einl, Rn. 124 ff. 440  Engisch, Einführung in das juristische Denken, 12. Aufl., 2018, S. 76 f. 441  Zippelius, Das Wesen des Rechts, 6. Aufl., 2012, S. 78 f. Siehe zum Streitstand, ob die Auslegung eine objektive oder subjektive Perspektive einnehmen sowie ob sie 434  Vgl.

435  Insbesondere

116

Erster Teil: Status quo richterlicher Entscheidungsfindung

der Rechtswissenschaft anerkannten Auslegungsmethoden (auch: Ausle­ gungskanon, canones442) gebunden. Diese sind zuvorderst: die „grammati­ sche“, die „systematische“, die „historische“ sowie die „teleologische“ Aus­ legung.443 Die grammatische (auch: grammatikalische) Auslegung setzt unmittelbar am Wortlaut der Rechtsnorm an und soll deren Wortsinn ergründen.444 Die „systematische Auslegung“ (auch: „Auslegung aus dem Zusammenhang“, in dem eine Gesetzesbestimmung steht) gründet die Interpretation auf die äu­ ßere Systematik des Gesetzes, also dessen Aufbau, Gliederung, Überschriften und Struktur. Die „historische Auslegung“ (auch: „Auslegung aus der Entste­ hungsgeschichte“) versucht, kontextsensibel die Regelungsabsicht des histo­ rischen Normgebers zu ergründen. Der Ansatz der „teleologischen Ausle­ gung“ (auch: „Auslegung nach dem Sinn und Zweck einer Gesetzesbestim­ mung“) ist hingegen, den Sinn des Gesetzes (ratio legis) danach festsetzen, welches Ziel (griech. telos: Ziel, Zweck) der Normgeber erreichen will. Im Rahmen der teleologischen Auslegung besonders zu betonen ist, dass ein mit dem Gesetzeszweck unvereinbares Entscheidungsergebnis diesen auch nicht erreichen kann. Die Entscheidungsfolgen in der Lebenswirklichkeit muss der Rechtsanwender daher besonders berücksichtigen.445 Entscheidungen, die ein auf den aktuellen oder den entstehungsgeschichtlichen Kontext abstellen sollte, die Zusammenfassung bei Reimer, Methodenlehre, 2016, S. 123 f. (Rn. 247 f.). 442  Prominent wohl erstmals beschrieben von Savigny, System des heutigen Römi­ schen Rechts, 1840, § 33, A. (S. 213 f.). Savigny unterschied wie folgt: „das gramma­ tische Element der Auslegung“ (Wortlaut), „das logische Element der Auslegung“ (innere Gliederung der Teile eines Gesetzes), „das historische Element der Ausle­ gung“ (Entstehungsgeschichte) und „das systematische Element der Auslegung“ (oder auch „Auslegung aus dem Zusammenhang“, in dem eine Gesetzesbestimmung steht). Nach Savigny sind dies jedoch „nicht vier Arten der Auslegung, unter denen man nach Geschmack und Belieben wählen könnte, sondern es sind verschiedene Thätig­ keiten, die vereinigt wirken müssen, wenn die Auslegung gelingen soll“ (vgl. Sa­ vigny, a. a. O., § 33, A. (S. 214)). Das Originalwerk findet sich (open access) abrufbar unter www.deutschestextarchiv.de. 443  Statt vieler Möllers, Methodenlehre, 2017, S. 107 ff. Zu den weiteren, in der richterlichen Entscheidungspraxis aber insgesamt weniger relevanten Auslegungsan­ sätzen (etwa der „rechtsvergleichenden Auslegung“ oder der „praxisorientierten Aus­ legung“) siehe etwa Reimer, Methodenlehre, 2016, S. 136 ff. (Rn. 269 ff.), insbeson­ dere S.  183 ff. (Rn.  381 ff.) m. w. N. 444  Insbesondere im Strafrecht ist die grammatische Auslegung mit Blick auf Art. 103 Abs. 2 GG von besonderem Gewicht: So ist es verfassungsrechtlich unzuläs­ sig, den Anwendungsbereich einer Norm des materiellen Strafrechts über ihren ei­ gentlichen Wortsinn zu Lasten des Täters auszudehnen – Verbot strafbegründender und strafverschärfender Analogie (nulla poena sine lege, Art. 103 Abs. 2 GG, § 1 StGB). 445  Säcker, in: Säcker/Rixecker/Oetker et al. (Hrsg.), MüKo-BGB, Bd. 1, 7. Aufl., 2015, Einl, Rn. 143 m. w. N.; ferner Neupert, JuS 2016, 489 (491 f.).



III. Vorgaben an die richterliche Rechtsfindung117

Richter in positivrechtlich uneindeutigen Fällen methodisch korrekt trifft, lassen sich nicht als richtig oder falsch klassifizieren, sondern lediglich an­ hand des Ergebniswertes „als befriedigend oder unbefriedigend, als sachge­ recht oder nicht sachgerecht, als vernünftig oder unvernünftig“ kritisieren;446 sie müssen vertretbar sein.447 Im Einzelnen ist vieles strittig.448 Festzuhalten ist jedenfalls, dass die Rechtsordnung dem Richter auferlegt, unter Zuhilfenahme anerkannter rechtswissenschaftlicher Werkzeuge Rechtsnormen auszulegen, also zu kon­ kretisieren und interpretierend auf den Einzelfall anzuwenden. Dabei können unterschiedliche Auslegungsergebnisse vertretbar sein:449 Die in die Gesetzesauslegung integrierten Gerechtigkeitserwägungen und Wertungen beruhen nicht auf exakter Erkenntnis. Gerechtigkeits- und Rich­ tigkeitsvorstellungen sind keine eindeutigen mathematischen Formeln; sie können lückenhaft sein und sich von Mensch zu Mensch, also auch von Richter zu Richter unterscheiden.450 Im Sinne der Rechtssicherheit sowie einer definitiven Streitentscheidung (Rechtsfrieden) muss das Gericht als Ausfluss seiner Letztentscheidungskompetenz im Einzelfall eine vertretbare Auslegung (evtl. eine von mehreren) seiner Entscheidung als rechtsverbind­ lich zugrunde legen.451 Art. 20 Abs. 3 GG gibt dem Richter hierbei auf, dass er seine Entscheidung durch die unbedingte Orientierung am Gesetz objekti­ viert und den Anteil seiner rein subjektiven Wertungen möglichst gering hält.

446  Säcker, in: Säcker/Rixecker/Oetker et al. (Hrsg.), MüKo-BGB, Bd. 1, 7. Aufl., 2015, Einl, Rn. 102. 447  Zu Begriff und Anforderungen vgl. Neupert, JuS 2016, 489 (492 ff.), wonach sich die Vertretbarkeit auf drei Merkmale stützt: erstens Gesetzesbindung und Ausle­ gungskanon, zweitens „herrschende Meinung“ i. S. d. Verlässlichkeit der Rechtsord­ nung sowie drittens die professionelle inhaltliche Distanz des Rechtsanwenders zum Sachverhalt. 448  Vgl. statt aller die ausführliche Darstellung der verschiedenen Ansichten zur Zielperspektive der Auslegung insgesamt wie auch zu den einzelnen Auslegungsan­ sätzen bei Reimer, Methodenlehre, 2016, S. 122 ff. (Rn. 246 ff.). Vgl. auch die Nega­ tivbeispiele unlauteren Argumentierens bei Groeben/Christmann, Argumentationsinte­ grität, in: Lerch (Hrsg.), Die Sprache des Rechts Bd. 2, 2005, S. 155 (165 ff.). 449  A. A. Dworkin, Taking Rights Seriously, 1977, S. 105  ff. (Theorie der „one right answer“). 450  Vgl. Engisch, Einführung in das juristische Denken, 12. Aufl., 2018, S. 168 f.; Zippelius, Methodenlehre, 2012, S. 81 f. 451  Zippelius, Methodenlehre, 2012, S. 38 ff., 81 f.

118

Erster Teil: Status quo richterlicher Entscheidungsfindung

(2) Diskriminierungsverbot und Gleichheitsgrundsatz (a) S  pezielles Diskriminierungsverbot – keine Anknüpfung an irrelevante Merkmale Die Verfassung etabliert in Art. 3 Abs. 3 GG ein spezielles Diskriminie­ rungsverbot, das Richter daran hindert, eine Person wegen eines der aufgelis­ teten Merkmale zu benachteiligen oder zu bevorzugen: Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden (Art. 3 Abs. 3 S. 1 GG). Auch Behinderungen dürfen kein Grund für Benachteiligungen sein (Art. 3 Abs. 3 S. 2 GG).452 (b) Rechtsanwendungsgleichheit Neben Art. 3 Abs. 3 GG ist es vor allem Art. 3 Abs. 1 GG, der dem Richter einen normativen Handlungsleitfaden an die Hand gibt. Alle Menschen sind vor dem Gesetz gleich (Art. 3 Abs. 1 GG): Der allgemeine Gleichheitssatz verbietet es allen Staatsgewalten grundsätzlich, Gleiches ungleich oder Un­ gleiches gleich zu behandeln.453 Er verpflichtet die Rechtsprechung, in Ge­ richtsverfahren ohne Ansehen der Person – als blinde Justitia454 – zu ent­ scheiden. Art. 3 Abs. 1 GG etabliert damit zugleich ein allgemeines Willkür­ verbot. Ius respicit aequitatem – das Recht achtet die Gleichheit. Der Blick auf die Dritte Gewalt und ihren Instanzenzug zeigt: In der Ver­ antwortlichkeit zur Vereinheitlichung und Fortbildung des Gesetzesrechts sowie in der Gewähr der (instanzenübergreifenden) Einheitlichkeit der Rechtsprechung (vgl. Art. 95 Abs. 3 GG) ist es der Verfassung in besonderer Weise um Rechtsanwendungsgleichheit bestellt.455 Der Rechtsstaat muss 452  Ähnliche Kataloge halten u. a. auch § 1 AGG und Art. 9 Abs. 1 DSGVO vor. Diskriminierungsverbote für hoheitliches Handeln etablieren auch Art. 21 GRCh, Art. 19 AEUV sowie Art. 14 EMRK. 453  Siehe dazu den Überblick über die Rechtsprechung des BVerfG bei Britz, NJW 2014, 346 (346 ff.). 454  Vgl. zu diesem Bild der Justitia nur Kirchhof, in: Maunz/Dürig (Begr.), GG, 75. Erg.-Lfg. (Sept. 2015), Art. 3 Abs. 1, Rn. 42 f. m. w. N. Für die Verwaltung folgt aus Art. 3 Abs. 1 GG insbesondere das Gebot der Entscheidungsrichtigkeit in materi­ eller (Gesetzesbindung) sowie formeller (Chancengleichheit und gleichmäßige Rechtsanwendung) Hinsicht, vgl. Laue, Vorgangsbearbeitungssysteme der Verwal­ tung, 2010, S. 86 f. 455  Kirchhof, in: Maunz/Dürig (Begr.), GG, 75. Erg.-Lfg. (Sept. 2015), Art. 3 Abs. 1, Rn. 442; Möllers, Methodenlehre, 2017, S. 18 ff. (insbesondere S. 24). Siehe



III. Vorgaben an die richterliche Rechtsfindung119

dem Rechtsunterworfenen garantieren, dass ein- und derselbe Sachverhalt unabhängig von Entscheider und Standort nach den gleichen rechtlichen Kriterien beurteilt wird.456 In gleichgelagerten Fällen ist eine Ungleichbe­ handlung aufgrund sachfremder Erwägungen nicht zulässig. So ist bspw. die Orientierung an „regionalen Strafzumessungstraditionen“457 kein i. S. d. Art.  3 Abs. 1 GG zulässiger Anknüpfungspunkt für (unterschiedliche) Strafzumes­ sungsentscheidungen. Der Richter sollte Gemeinsamkeiten und Unterschiede zwischen vergleich­ baren Fallkonstellationen herausstellen, die für die rechtliche Bewertung maßgeblich sind.458 Ein solches Vorgehen ist mitnichten auf das Fallrecht des common law mit seiner echten Präjudizienwirkung begrenzt, sondern hat auch im deutschen Recht praktische Bedeutung für Gerichte und Anwalt­ schaft.459 Es steigert die Rationalität einer Entscheidung460 und erhöht die Wahrscheinlichkeit der Akzeptanz und des Verständnisses bei den Beteilig­ ten. Ein solcher „typisierender Fallvergleich“ kann einen Entscheidungspro­ zess selbstredend nicht allein, sondern nur im Zusammenspiel mit anderen Argumenten anleiten. Allerdings schließt die richterliche Unabhängigkeit (Art. 97 Abs. 1 GG) eine grundsätzliche Selbstbindung der Judikative aus.461 Auch eine bestimmte Rechtsprechung über einen längeren Zeitraum hinweg begründet – anders als bspw. Verwaltungsentscheiden – keine gerichtliche (Selbst-)Bindungswir­ kung.462 Erst dann, wenn die Rechtsanwendung oder das Verfahren unter keinem denkbaren Aspekt mehr rechtlich vertretbar ist und sich daher der Schluss aufdrängt, dass die Entscheidung auf sachfremden und damit will­ kürlichen Erwägungen beruht, ist Art. 3 Abs. 1 GG verletzt.463 Mit Blick auf für die Rechtsanwendung in Mehrebenensystemen (insbesondere im europäischen Kontext) ergänzend Schladebach, NVwZ 2018, 1241 (1241 ff.). 456  Daraus folgt nicht, dass das Ergebnis zwingend identisch sein muss. Eine über die Zusicherung gleicher rechtlicher Kriterien hinausgehende Wirkung kann der Grundsatz der Rechtsanwendungsgleichheit wegen kontextabhängiger Wertungsspiel­ räume und Interpretationen nicht entfalten, vgl. Lohse, DVBl 2018, 1120 (1121 f.) m. w. N. 457  Vgl. oben S. 84 ff. 458  Ähnlich dem distinguishing im angelsächsischen Fallrecht, siehe dazu etwa Zippelius, Rechtsphilosophie, 6. Aufl., 2011, S. 103 ff., 220 f. Ziel des distinguishing ist es, Präzedenzfälle zu finden und dann zu entscheiden, ob bzw. inwiefern der kon­ krete Fall von diesen abweicht oder ob er gleichzubehandeln ist. 459  Vogel, Juristische Methodik, 1998, S. 166 f. 460  Zippelius, Methodenlehre, 2012, S. 58 ff. 461  Kloepfer, Verfassungsrecht II, 2010, § 59, Rn. 59. 462  BVerfGE 19, 38 (47). 463  BVerfGE 83, 82 (84); 86, 59 (63); Kloepfer, Verfassungsrecht II, 2010, § 59, Rn. 59.

120

Erster Teil: Status quo richterlicher Entscheidungsfindung

die menschlichen Denkfehler und sonstigen Rationalitätsschwächen464 bleibt indes zu ergänzen, dass die „Feststellung von Willkür keinen subjektiven Schuldvorwurf“ enthält und „Willkür […] im objektiven Sinne zu verstehen [ist] als eine Maßnahme, welche im Verhältnis zu der Situation, der sie Herr werden will, tatsächlich und eindeutig unangemessen ist“.465 Im Ergebnis verletzen also lediglich „krasse Fehlentscheidungen“466 das Willkürverbot. Justizielle Rechtsanwendungsgleichheit meint daher nicht mehr, aber auch nicht weniger als eine durch die richterliche Unabhängigkeit und das Rechts­ staatsprinzip angeleitete Rechtsanwendung bis zur Willkürgrenze.467 (3) Rechtssicherheit Eine weitere Zielvorgabe an die richterliche Entscheidungsfindung liegt in der Rechtssicherheit. Als Element des Rechtsstaatsprinzips bezweckt die Rechtssicherheit die Verlässlichkeit der Rechtsordnung.468 Das Handeln des Staates muss für die Bürger vorhersehbar und verständlich sein. Sie umfasst mehrere Prinzipien; relevant sind insbesondere die Klarheit und Bestimmt­ heit des Rechts sowie der Vertrauensschutz im Verhältnis zum Staat.469 Aus Sicht des Bürgers meint Rechtssicherheit zuvorderst Vertrauensschutz: Geschützt ist das Vertrauen in die Kontinuität des Rechts im Sinne einer in­ dividuellen Erwartungssicherheit.470 Hinsichtlich der Rechtsprechung mani­ festiert sich der Vertrauensschutz in der Sicherung des Rechtsfriedens; Ent­ scheidungen der Gerichte sind auf Beständigkeit angewiesen.471 Ein Vergleich zwischen Rechtsprechung und Verwaltung zeigt jedoch: Wegen der unterschiedlichen Funktionen und Entscheidungsstrukturen der Gerichte, insbesondere der richterlichen Unabhängigkeit und – damit verbun­ 464  Vgl.

oben S. 45 ff. 83, 82 (84); 86, 59 (63). 466  BVerfGE 89, 1 (14): „Willkür liegt vielmehr erst vor, wenn die Rechtslage in krasser Weise verkannt wird“ (Hervorhebung nicht im Original). 467  Ebenso Schladebach, NVwZ 2018, 1241 (1246). 468  BVerfGE 101, 239 (262); 109, 133 (180); Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 50. Siehe auch noch BVerfGE 7, 89 (92); 13, 261 (271). 469  Dazu Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 50 ff. 470  Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 69; vgl. zum Aspekt des Vertrauensschutzes aus der Rechtsprechung etwa BVerfGE 15, 313 (324); 23, 12 (32); 24, 220 (229); 30, 367 (386); 50, 244 (250); 55, 185 (203); 59, 128 (152); 88, 384 (403). 471  Vgl. BVerfGE 47, 146  (159  ff.); Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 101 ff. 465  BVerfGE



III. Vorgaben an die richterliche Rechtsfindung121

den – der konstitutionellen Uneinheitlichkeit der Rechtspflege472, hat das Ziel gesetzmäßiger Entscheidungen Vorrang gegenüber Vertrauensschutzas­ pekten.473 Insoweit lässt Art. 20 Abs. 3 GG keinen Raum für Zweifel. Andererseits ist die Rechtssicherheit ebenfalls ein verfassungsrechtlich geschütztes Gut. Es entspricht dem Gebot der Gleichheit vor dem Gesetz, dass vergleichbare Sachverhalte von jedem Richter gleich entschieden werden;474 bei Divergenz ist es die Aufgabe der obersten Gerichte, Rechtssi­ cherheit herzustellen. Ein strikter, absoluter „Vorrang der Gesetzmäßigkeit vor dem Vertrauensschutz“ besteht also schon deshalb nicht, weil die Ge­ richte auch an Art. 3 Abs. 1 GG gebunden sind – und der Gleichheitsgrund­ satz ein Mindestmaß an Vertrauens- bzw. Kontinuitätsschutz erwirkt.475 In der Sache bedeutet die Wirkung des Gleichheitsgrundsatzes jedoch keinen verbindlichen Schutz gegen Änderungen der Rechtsprechung;476 diese blei­ ben zulässig. Daraus folgt aber auch, dass es wegen der richterlichen Unab­ hängigkeit (Art. 97 Abs. 1 GG) eine Bindung an bisherige, auch obergericht­ liche Rechtsprechung (mit Ausnahme der Fälle des § 31 BVerfGG) – inklu­ sive Richterrecht – nicht geben kann.477 dd) Gegebenenfalls: Vorlagepflichten Im Einzelfall können Vorlagepflichten bestehen, etwa die Pflicht zur Vor­ lage einzelner unionsrechtsbezogener und entscheidungsrelevanter Fragen an der EuGH bei Gerichten, deren Entscheidungen nicht mehr mit Rechtsmitteln des innerstaatlichen Rechts angreifbar sind (Art. 267 Abs. 3 AEUV), sowie die Pflicht zur Vorlage an das (Landes- oder Bundes-)Verfassungsgericht (Art. 100 Abs. 1 GG) bei vermuteter Verfassungswidrigkeit eines Gesetzes oder bei Unvereinbarkeit eines Landesgesetzes mit einem Bundesgesetz.

472  Vgl.

etwa BVerfGE 78, 123 (126). BVerwG, NJW 1996, 867 (867); Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 104 m. w. N. 474  Hirsch, ZRP 2004, 29 (30). 475  Arnauld, Rechtssicherheit, 2006, S. 452 ff.; Leisner-Egensperger, Kontinuität als Verfassungsprinzip, 2002, S. 199 ff. sowie 536 ff.; Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 105; Riggert, Die Selbstbindung der Rechtsprechung durch den allgemeinen Gleichheitssatz (Art. 3 I GG), 1993, S. 42 ff. 476  Vgl. Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 106; Riggert, Die Selbstbindung der Rechtsprechung durch den allgemeinen Gleichheitssatz (Art. 3 I GG), 1993, S. 42 ff. 477  Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 97, Rn. 11. 473  Vgl.

122

Erster Teil: Status quo richterlicher Entscheidungsfindung

ee) Nachvollziehbare Begründung (1) Normativer Hintergrund Hoheitliche Entscheidungen sind – wie jedwedes staatliche Handeln – nachvollziehbar zu begründen.478 Dieses aus dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) folgende Gebot gilt auch und besonders für die Entscheidungen der Richter.479 Begründbarkeit und Begründung sind rechtsstaatliche Erfor­ dernisse der Ausübung grundsätzlich jeder Herrschaftsgewalt.480 Der Umfang der Begründungspflicht ist je nach Natur der Entscheidung unterschiedlich und im Lichte der Umstände des Einzelfalls zu bestimmen; eine ausführliche Stellungnahme zu jeder Behauptung der Beteiligten ist aber nicht not­ wendig.481 Wenn der Richter die Begründung verfasst, ist die Entscheidung bereits gefunden bzw. getroffen. Sinn und Zweck ist daher, die Entscheidung (nach­ träglich) nachvollziehbar zu machen. Die Begründung dient dazu, dass der Betroffene bzw. die am Rechtsstreit Beteiligten die Entscheidung verstehen können. Sind Rechtsmittel gegen die Entscheidung gegeben, kann die Be­ gründung dem Betroffenen als Grundlage für das Rechtsmittel dienen, aber auch für Verständnis und Akzeptanz der Entscheidung sorgen. Gerade für Entscheidungen, die nicht per Rechtsmittel angreifbar sind, hat der Betrof­ 478  Schmidt-Aßmann, in: Maunz/Dürig (Begr.), GG, 72. Erg.-Lfg. (Juli 2014), Art. 19 Abs. 4, Rn. 253. Vgl. auch § 39 Abs. 1 VwVfG, der eine Begründung grund­ sätzlich für alle Verwaltungsakte verlangt. In der Begründung muss die Behörde die wesentlichen tatsächlichen und rechtlichen Gründe mitteilen, die sie zu der Entschei­ dung bewogen haben (Abs. 1 S. 2). Die Begründung von Ermessensentscheidungen soll zudem auch die Gesichtspunkte erkennen lassen, von denen die Behörde bei der Ausübung ihres Ermessens ausgegangen ist. Weil die richterliche Entscheidungsfin­ dung ebenso zumeist mehrere Alternativen – Spielräume mit Auswahlmöglichkeiten und Optionen – ermöglicht, ist der Grundsatz des § 39 Abs. 1 VwVfG verallgemeine­ rungsfähig, vgl. Hoffmann-Riem, Innovation und Recht, 2016, S. 99. Staatliche Stel­ len müssen entscheidungserhebliche Faktoren (vorbehaltlich gesetzlicher Ausnahmen) grundsätzlich offenlegen; siehe aber die Ausnahmetatbestände in § 39 Abs. 2 VwVfG. 479  Vgl. nur Kischel, Die Begründung, 2003, S. 63 ff. sowie 176 ff. Bereits aus Art. 6 Abs. 1 EMRK – dem Grundsatz einer geordneten Rechtspflege – folgt, dass gerichtliche Entscheidungen in angemessener Weise die Gründe angeben müssen, auf die sie sich stützen, vgl. EGMR NJW 1999, 2429 (2429), Rn. 26 f. 480  Hoffmann-Riem, Innovation und Recht, 2016, S. 98. 481  Vgl. EGMR NJW 1999, 2429 (2429), Rn. 26 f., m. w. N. Wenngleich etwa Steiner, DVBl 2018, 1097 (1098), eine „Verwissenschaftlichung der Rechtsprechung (mit für den Leser von Gerichtsentscheidungen schon lebenszeitrelevant langen Begrün­ dungen)“ beobachtet, kommt es für die Bewertung eine Entscheidung besonders auf deren Begründung an – gibt doch (erst) die Begründung „im wissenschaftlichen Mo­ dus Rechenschaft über den Entscheidungsausspruch“ (a. a. O., 1099).



III. Vorgaben an die richterliche Rechtsfindung123

fene ein Interesse an der Mitteilung der Gründe. Auch die Nachvollziehbar­ keit durch das Berufungs- bzw. Revisionsgericht verlangt eine saubere Dar­ stellung der tatsächlichen und rechtlichen Gründe; die Entscheidungsgründe dienen dazu, die richterliche Entscheidung als Akt staatlichen Handelns für Außenstehende überprüfbar und kontrollierbar zu machen. Versäumt das Gericht eine ausreichende Begründung, liegt darin ein Ver­ stoß gegen den Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) und das Urteil ist mangelhaft.482 Das Begründungserfordernis ist daher für (fast)483 alle Gerichtsentscheidungen gesetzlich verankert (vgl. für Urteile etwa § 267 StPO, § 313 Abs. 1 Nr. 6, Abs. 3 ZPO, § 117 Abs. 2 Nr. 5 VwGO).484 Bedeutung erlangt die Begründung besonders auch für die Rechtsfindung bzw. -anwendung in Spielräumen mit mehreren Auswahloptionen; sie erfolgt durch sprachliche Darstellung der für maßgeblich erachteten Gründe.485 Dass die Begründung bzw. die Notwendigkeit der Darstellung der Gründe den vorangegangenen Entscheidungsprozess in der Hinsicht steuert, dass nur rechtlich zulässige Erwägungen in die Entscheidung einfließen, erscheint zwar normativ wünschenswert, ist in tatsächlicher Hinsicht jedoch zweifel­ haft: Denn praktisch existiert eine Trennung zwischen der Entscheidungsfin­ dung (Herstellung der Entscheidung) und ihrer Begründung (Darstellung des Zustandekommens der Entscheidung sowie Rechtfertigung als „richtig“ i. S. v. normgerecht). Bereits die rechtstheoretische Diskussion des vorigen Jahrhunderts stritt um Hintergrund und Einordnung des Begründungserfordernisses. Nach Isay486  begründet der Richter zwar nach außen hin seine konkrete Sollens­ 482  Siehe nur BGH, Beschl. v. 6.4.2016 – VII ZR 16/15 –, juris, Rn. 11; BGH, Beschl. v. 24.3.2009 – VII ZR 139/08 –, juris, Rn. 9 f. 483  Seltene Ausnahmen vom Begründungserfordernis gerichtlicher Entscheidungen bilden etwa § 93d Abs. 1 S. 3 BVerfGG oder § 544 Abs. 2 S. 2 Hs. 2 ZPO; vgl. (kri­ tisch) dazu Zuck, NJW 2016, 3573 (3575). 484  Im Detail enthalten die einzelnen Prozessordnungen eine Vielzahl an Vorschrif­ ten, die die Begründung der verschiedenen Entscheidungsformen regeln. So sind etwa im Strafprozess „anfechtbare Entscheidungen zu begründen“ (§ 34 StPO). Ein Haft­ befehl bspw. ist gem. § 114 StPO mit der Haftprüfung (§ 117 StPO) oder der Haftbe­ schwerde (§§ 304 f. StPO) anfechtbar. Weitere Begründungspflichten sind etwa in § 114 Abs. 2, 3 StPO geregelt. 485  Müller/Christensen, Juristische Methodik I, 2013, S. 181 ff. 486  Isay, Rechtsnorm und Entscheidung, 1970 (Jahr der Erstveröffentlichung: 1929), S. 26 ff., 60 ff., 82 ff., 338 ff.: „Die Entscheidung entsteht aus der zentralen Tiefe der sittlichen Persönlichkeit, die Norm dagegen ist die Verneinung der Persön­ lichkeit.“ (a. a. O., S. 26); dem in Teilen zustimmend Esser, Vorverständnis und Me­ thodenwahl in der Rechtsfindung, 1970, S. 132 ff., insbesondere S. 175 f.

124

Erster Teil: Status quo richterlicher Entscheidungsfindung

entscheidung aus dem Gesetz und genügt damit scheinbar dem Prinzip der Gesetzesbindung, aber er findet seine Entscheidung meistens auf andere Weise, nämlich intuitiv, instinktiv, aus dem Rechtsgefühl, dem gesunden Menschenverstand, der praktischen Vernunft. Die Begründung der Entschei­ dung aus der abstrakten Norm hat in dieser Sichtweise nur sekundäre Be­ deutung: Sie rationalisiert nachträglich die (womöglich nicht rational gefun­ dene) Entscheidung und hat allenfalls Kontrollfunktion. Die juristische Ar­ gumentationstechnik eignet sich tatsächlich gut zur (nachträglichen) „Ratio­ nalisierung“ bereits getroffener Entscheidungen.487 Karl Engisch hingegen lehnte diese Herangehensweise ab.488 Die Entscheidung selbst müsse sich aus dem Gesetz begründen, also ableiten lassen. Findung und Begründung der Entscheidung seien keine getrennten Vorgänge und keine Gegensätze. Die Begründung zu einem reinen Instrument nachträglicher „Rationalisie­ rung“ zu verklären, berge die Gefahr eines Subjektivismus in der Rechts­ pflege, sei aber vor allem auch ein Widerspruch zur Gesetzesbindung des Richters (Art. 20 Abs. 3 GG).489 Der Richter muss zumindest Scheinbegründungen vermeiden, die nur „äu­ ßerlich“ den Eindruck einer rationalen, aus dem Gesetz gefundenen Ent­ scheidung zu erwecken. Die Fragen, wie Richter tatsächlich vorgehen, und welches Ergebnis bei der Rechtsfindung vor dem Gesetz „richtig“ ist, sind zwar in der Theorie zu trennen.490 Sie schließen sich aber auch nicht aus: Man kann die juristische Methode durch Beobachtung tatsächlicher richterli­ cher Arbeit verstehen und daran ausrichten – und umgekehrt dennoch den Blick dafür behalten, was Richter „richtigerweise“, also durch das Recht vorgegeben, zu tun verpflichtet sind.491

487  Hoffmann-Riem, Innovation und Recht, 2016, S. 100. Vgl. auch Beck, Die Sug­ gestion einzig richtiger Entscheidungen im Recht – notwendig oder vermeidbar?, in: Schuhr (Hrsg.), Rechtssicherheit durch Rechtswissenschaft, 2014, S. 11 (29 f.), die auf Probleme der Offenlegung sämtlicher Entscheidungsfaktoren hinweist und daher auch aus Sicht des Entscheidungsadressaten Verständnis dafür aufbringt, wenn der Entscheider seine Entscheidung als absolut richtig darstellt bzw. suggeriert. Stelkens weist ergänzend darauf hin, dass eine i. S. d. juristischen Methodenlehre methodisch korrekt begründete Entscheidung regelmäßig auch als „richtige“ Antwort angesehen werde, Stelkens, Die Idee der einzig richtigen Entscheidung, in: van Oostrom/Weth (Hrsg.), FS Herberger, 2016, S. 895 (899). 488  Engisch, Einführung in das juristische Denken, 12. Aufl., 2018, S. 74 ff.: Isays Lehre sei „Psychologismus in Reinkultur“ (a. a. O., S. 77). 489  Engisch, Einführung in das juristische Denken, 12. Aufl., 2018, S. 77 f. 490  So auch Engisch, Einführung in das juristische Denken, 12. Aufl., 2018, S. 79. 491  Vgl. zum Thema „Sein und Sollen“ Adrian, Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Methodenlehre, 2009, S. 81 ff. (insbesondere S. 89, 296, 577, 584, 590, 604, 696 und 748 f.).



III. Vorgaben an die richterliche Rechtsfindung125

Die durch die Begründung notwendige argumentative Anstrengung soll (und kann) die Entscheidungsfindung aber zumindest auch „disziplinieren“,492 sodass der Prozess und die Darstellung einer juristischen Entscheidung auch nicht vollständig zu trennen sind.493 Der Richter muss anhand der Begrün­ dung darlegen, dass seine konkrete Entscheidung mit den Wertentscheidun­ gen der Rechtsordnung verträglich ist.494 Die Begründung ist letztlich auch eine Bedingung für Rechtsfrieden: Die unterlegene Partei wird eher auf ein Rechtsmittel verzichten, wenn sie im Urteil Verständnis für ihre Position findet, selbst wenn das Gericht letztlich konträr entscheidet.495 (2) Inhaltliche Anforderungen: Widerspruchsfreiheit, Vollständigkeit, Kohärenz Begründung und Entscheidung müssen inhaltlich schlüssig, die Argumen­ tation stringent sein. Besonders die Widerspruchsfreiheit ist der Maßstab für die Konsistenz der Argumente.496 Dabei gelten (auch) die Gesetze der Logik, etwa das formallogische Verhältnis von Prämisse und Konklusion. Die Be­ gründung bedarf daneben der inhaltlichen Kohärenz bzw. Stimmigkeit sowie der Vollständigkeit (auch: „Umfassendheit“497). (3) Aufbau Aufbau und Zielsetzung der Begründung richterlicher Entscheidungen äh­ neln sich in den verschiedenen Gerichtsbarkeiten und Rechtsgebieten (vgl. etwa § 313 Abs. 1 Nr. 6, Abs. 3 ZPO; § 267 StPO; § 117 Abs. 2 Nr. 5 VwGO; § 105 Abs. 2 Nr. 5 FGO).498 Es soll daher genügen, exemplarisch das zivil­ prozessuale sowie das strafrechtliche Urteil darzustellen.

492  Hoffmann-Riem, 493  Empirische

Innovation und Recht, 2016, S. 99 f. Forschung hierzu erscheint wünschenswert. Siehe auch bereits

oben S. 91 f. 494  Säcker, in: Säcker/Rixecker/Oetker et al. (Hrsg.), MüKo-BGB, Bd. 1, 7. Aufl., 2015, Einl., Rn. 102. 495  Heussen, NJW 2015, 1927 (1930). 496  Vgl. nur Strauch, Rechtsprechungstheorie, in: Lerch (Hrsg.), Die Sprache des Rechts, 2005, S. 479 (509 f.). 497  Strauch, Rechtsprechungstheorie, in: Lerch (Hrsg.), Die Sprache des Rechts, 2005, S. 479 (511 ff.). 498  Für Urteile und deren Begründungen im Verwaltungsgerichtsprozess gilt – ebenso wie im Arbeitsgerichtsprozess, Sozialgerichtsprozess und Finanzgerichtspro­ zess – im Wesentlichen das für den Zivilprozess Gesagte.

126

Erster Teil: Status quo richterlicher Entscheidungsfindung

(a) Zivilprozessuales Urteil Sofern die Begründung nicht nach § 313a ZPO entbehrlich ist, gibt § 313 ZPO Form und Inhalt des zivilprozessualen Urteils vor. Die Entscheidungs­ gründe (§ 313 Abs. 1 Nr. 6, Abs. 3 ZPO) gliedern sich wie folgt:499 Den prozessrechtlichen Ausführungen (etwa zur Zulässigkeit einer Klage) folgen das Ergebnis, der dieses tragende Rechtssatz, die materiell-rechtlichen Gründe (bzw. die Ablehnung aller in Betracht kommenden Rechtssätze bei Ablehnung), die Subsumtion des Sachverhalts unter die Rechtsnorm(en) so­ wie die Sachverhaltsbewertung als Ergebnis der richterlichen Überzeugungs­ bildung, insbesondere hinsichtlich der Beweisaufnahme.500 Soweit relevant, folgen Ausführungen zu Einwendungen und Einreden. Die Entscheidungs­ gründe schließen mit den Nebenfolgen (insbesondere Zinsen) sowie Angaben zu Kosten und vorläufiger Vollstreckbarkeit. Zu einer Frage, die für das Verfahren von zentraler Bedeutung ist und zu dem es entsprechenden Parteivortrag gibt, ist das Gericht in den Entschei­ dungsgründen Stellung zu nehmen verpflichtet.501 Es muss erkennbar sein, welche tatsächlichen Feststellungen und welche rechtlichen Erwägungen maßgebend waren.502 Wenn zwar Gründe „körperlich“ vorhanden, diese aber unverständlich und verworren oder nichtssagend sind503 und in Wirklichkeit nicht erkennen lassen, welche Überlegungen für die Entscheidung maßge­ bend waren, kann dies den Anforderungen an die Begründung der gerichtli­ chen Entscheidung nicht genügen.504 Die Begründung darf zudem nicht sachlich inhaltslos sein, also nur Floskeln oder Gesetzestexte wiedergeben.505 (b) Strafrechtliches Urteil Auch im strafrechtlichen Urteil muss die Begründung logisch, lückenfrei und eindeutig sein.506 Aufbau und Inhalt unterscheidet das Gesetz danach, ob 499  Siehe nur Seiler, in: Thomas/Putzo (Hrsg.), ZPO, 40.  Aufl., 2019, § 313, Rn.  30 ff. 500  Vgl. Elzer, in: Vorwerk/Wolf (Hrsg.), BeckOK ZPO, 32. Ed. (Stand: 1.3.2019), § 313, Rn. 119. 501  BVerfG, NJW-RR 1995, 1033 (1034); NJW 2009, 1584 (1584 f.); BGH, Be­ schl. v. 6.4.2016 – VII ZR 16/15 –, juris, Rn. 11. 502  BGH, Versäumnisurt. v. 12.3.2015 – IX ZR 5/13 –, juris, Rn. 6. 503  Vgl. BGH, NJW 1999, 3192 (3192). 504  BAG, NJW 2014, 2382 (2382, Rn. 17); grundlegend BGHZ 39, 333 (337). 505  BGHZ 39, 333 (337) m. w. N.; BGH, Versäumnisurt. v. 12.3.2015 – IX ZR 5/13 –, juris, Rn. 6. 506  BGHSt 3, 213 (215); Kuckein/Bartel, in: Hannich (Hrsg.), KK-StPO, 8. Aufl., 2019, § 267 StPO, Rn. 13 m. w. N. und Beispielen.



III. Vorgaben an die richterliche Rechtsfindung127

eine Verurteilung oder ein Freispruch vorliegt. Im Falle der Verurteilung (vgl. § 267 Abs. 1–4 StPO) geben die Urteilsgründe zunächst die persönli­ chen Verhältnisse des Angeklagten wieder, sodann folgen Feststellungen zum Tatgeschehen, die Beweiswürdigung, die rechtliche Würdigung (Subsumtion) und schließlich die Strafzumessung.507 Die Darstellung der Strafzumessungs­ erwägungen muss als Ganzes überzeugen und sachlich sein; „moralisierende sowie persönliches Engagement vermittelnde Formulierungen“, die den Ein­ druck erwecken, der Tatrichter habe sich von „Emotionen und Empörung“ leiten lassen, sind zu vermeiden.508 Entscheidet das Gericht dagegen auf Freispruch (vgl. § 267 Abs. 5 StPO), enthalten die Urteilsgründe den Tatvorwurf, die Mitteilung, ob der Freispruch aus tatsächlichen oder aus rechtlichen Gründen erfolgt, die festgestellten Tatsachen (Urteilsfeststellungen) sowie schließlich die Beweiswürdigung. c) Kodifizierte äußere Grenzen Die Anforderungen an die richterliche Entscheidungsfindung deuten dar­ auf hin, dass die Rechtsordnung Spielräume und in der Person des Richters radizierende Unterschiede zwischen Entscheidungen in vergleichbaren Fällen zumindest akzeptiert, wenn nicht gar anstrebt.509 Sie enthält aber auch äußere Grenzen. aa) Rechtsbeugung Die äußerste Grenze richterlicher Entscheidungsfreiheit bildet der Straftat­ bestand der Rechtsbeugung (§ 339 StGB).510 Dessen geschütztes Rechtsgut ist die innerstaatliche Rechtspflege – also die Rechtsordnung selbst, nicht primär die Individualrechtsgüter des Rechtsunterworfenen.511 Das Gesetz 507  Siehe zu den Details des § 267 Abs. 3 StPO ergänzend Meyer-Goßner, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, § 267, Rn. 17 ff. 508  BGH, Beschl. v. 14.9.2016 – 4 StR 178/16 –, juris. 509  Vgl. auch Hoffmann-Riem, Innovation und Recht, 2016, S. 121 f., für den „wei­ che“ Entscheidungsfaktoren wie persönliche „Einstellungen, Vorerfahrungen, Ge­ schicklichkeiten“ ausdrücklich Teil des gewollten „Entscheidungsbereichs“ sind. Der Richter muss allerdings erkennen, wo der Gesetzgeber ihm keine Spielräume lässt und wo es dagegen gerade das Gesetz ist, das ihm einen größeren oder geringeren Grad an eigenen Herangehensweisen ermöglicht, vgl. Pavčnik, Jusletter IT 23.2.2017, 1 (5), der allerdings – mit dem Potenzial zur Fehlinterpretation – von „Kreativität“ spricht. 510  Die praktische (kriminalstatistische) Bedeutung des § 339 StGB ist jedoch mar­ ginal. 511  Fischer, StGB, 66. Aufl., 2019, § 339, Rn. 2.

128

Erster Teil: Status quo richterlicher Entscheidungsfindung

kennt das Delikt nur als vorsätzliche Rechtsverletzung:512 Strafbar ist die (bewusste) falsche Anwendung materiellen oder prozessualen Rechts zuguns­ ten oder zum Nachteil einer Partei. bb) Ausschluss und Ablehnung In verfahrensrechtlicher Hinsicht dienen die Ausschluss- (bspw. § 41 ZPO, §§ 22 f. StPO) und Ablehnungsregelungen (bspw. § 42 ZPO, § 24 StPO) als „prophylaktischer“ Schutz der richterlichen Neutralitätspflicht. Während ers­ tere qua Gesetz erschöpfend geregelt sind513 und an unmittelbar nachvoll­ ziehbare objektive Fakten – bspw. die frühere Befassung mit einem Fall, persönliches Interesse, familiäre Bindungen – anknüpfen, ermöglichen letz­ tere die Ablehnung eines Richters wegen „Besorgnis der Befangenheit“. Das Gesetz definiert dies näher als Grund, der geeignet ist, Misstrauen gegen die Unparteilichkeit eines Richters zu rechtfertigen (§ 42 Abs. 2 ZPO, § 24 Abs. 2 StPO). Der Grund muss vom Standpunkt der Partei aus objektiv und vernünftig betrachtet vorliegen,514 also zumindest glaubhaft gemacht sein.515 Dass der Richter tatsächlich befangen oder voreingenommen ist, ist nicht notwendig; der „böse Schein“, also der mögliche Eindruck mangelnder Ob­ jektivität, genügt516 – er ergibt sich insbesondere aus dem Verhalten und den Äußerungen des Richters.517 Unbewusste Prozesse wie Denkfehler und andere Rationalitätsschwächen sind aber weniger „greifbar“ als die Tatbestandsvoraussetzungen der Aus­ schluss- und Ablehnungsvorschriften. Sie sind mit diesen qualitativ nicht vergleichbar; Existenz und Auswirkungen lassen sich im Einzelfall insbeson­ dere nicht ohne Weiteres feststellen und „beziffern“. Da sie auch praktisch nicht kontrollierbar sind, unterfallen sie diesen Vorschriften nicht.518 Gegen 512  Bedingter Vorsatz ist ausreichend, vgl. BGHSt 40, 272 (276); Fischer, StGB, 66. Aufl., 2019, § 339, Rn. 37. Einer besonderen Absicht bedarf es nicht, vgl. BGH, NStZ 2010, 92 (93). 513  Vgl. etwa Hüßtege, in: Thomas/Putzo (Hrsg.), ZPO, 40. Aufl., 2019, § 41, Rn. 1. 514  Vgl. nur BVerfG, NJW 2012, 3228 (3228); BGH, NJW-RR 2010, 493 (493). 515  Vgl. etwa Hüßtege, in: Thomas/Putzo (Hrsg.), ZPO, 40. Aufl., 2019, § 42, Rn. 9. 516  BVerfGE 46, 34 (41). 517  Vgl. die (Rechtsprechungs-)Beispiele bei Stackmann, in: Krüger/Rauscher (Hrsg.), MüKo-ZPO, Bd. 1, 5. Aufl., 2016, § 42, Rn. 34 ff.; siehe aus anwaltlicher Per­ spektive noch Fromm, NJOZ 2015, 1 (4). 518  Die Kommentarliteratur scheint dies jedenfalls nicht anders zu sehen, vgl. etwa Stackmann, in: Krüger/Rauscher (Hrsg.), MüKo-ZPO, Bd. 1, 5. Aufl., 2016, § 42, Rn. 45: „Unrichtige Entscheidungen oder vermeintlich unrichtige Entscheidungen mögen für die davon betroffene Partei schmerzlich sein. Gleichwohl sind sie grund­ sätzlich ungeeignet, die Ablehnung wegen Befangenheit zu rechtfertigen“.



III. Vorgaben an die richterliche Rechtsfindung129

sie besteht auch ansonsten keine rechtliche Handhabe: Der Betroffene hat in der Regel keine Kenntnis darüber, ob ein Denkfehler oder eine sonstige Ra­ tionalitätsschwäche die richterliche Entscheidung beeinflusst bzw. verzerrt hat. Zudem müsste eine Überprüfung oder Kontrolle, so dies praktisch mög­ lich wäre, zeitlich auch erst nach der richterlichen Entscheidung ansetzen, weil sich der Denkfehler in erster Linie dort auswirkt; die Ausschluss- und Ablehnungstatbestände greifen jedoch deutlich vor der Entscheidung (vgl. etwa § 43 ZPO, § 25 StPO). Die Rechtsordnung kann Denkfehler und andere (unbewusste) Rationali­ tätsschwächen realistischerweise nicht verbieten, also den Richter verpflich­ ten, dass er seine Entscheidungen vollständig frei von diesen treffe. Sie sind daher auch nicht revisibel oder anderweitig gerichtlich überprüf- und korri­ gierbar. Eine Entscheidung, die materiell- und prozessrechtlich vertretbar ist, aber durch solche Rationalitätsschwächen verzerrt wurde, ist nicht angreif­ bar; Rationalitätsschwächen sind nicht separat (also losgelöst von der ge­ richtlichen Entscheidung) justiziabel. 4. Zwischenfazit In dem Streben nach Einzelfallgerechtigkeit hat der Richter in sachlicher (und persönlicher) Unabhängigkeit, die die Freiheit von äußeren Einflüssen garantiert, und eingehegt durch die strikte Gesetzesbindung Entscheidungen zu treffen, die ohne Verstoß gegen Verfahrensrecht zustande gekommen sind und inhaltlich der materiellen Rechtslage entsprechen. Als äußerste Rahmen hat die Rechtsordnung die Vorschriften zur Rechtsbeugung sowie die Aus­ schluss- bzw. Ablehnungstatbestände in den Verfahrensordnungen etabliert. Zur Entscheidungsfindung nutzt der Richter die anerkannten (Auslegungs-) Methoden und versieht seine Entscheidung mit einer vollständigen und wi­ derspruchsfreien Begründung, die die Entscheidung trägt und mit deren Hilfe der Betroffene sie nachvollziehen und ggf. angreifen kann. Im Einzelfall kann der Richter zur Rechtsfortbildung verpflichtet sein. Daneben ist seine Arbeit den Zielen der Rechtsanwendungsgleichheit sowie der Rechtssicher­ heit verschrieben. Denkfehler und andere (unbewusste) Rationalitätsschwä­ chen kann die Rechtsordnung weder verbieten noch verhindern, sodass im Gegenzug auch keine rechtliche Handhabe (ausschließlich bzw. isoliert) ge­ gen diese möglich erscheint.

130

Erster Teil: Status quo richterlicher Entscheidungsfindung

IV. Strategien gegen Rationalitätsschwächen? 1. Betroffene Entscheidungsformen Die dargestellten Denkfehler und Rationalitätsschwächen wirken sich nicht auf jedwede gerichtliche Entscheidung gleichermaßen aus. Die möglichen Auswirkungen auf eine Entscheidung sind umso größer, je größer der dem Richter zukommende (Entscheidungs-)Spielraum ist. Wenn der Richter also etwa im Prozess den Sachverhalt aufzuklären hat, die Entscheidung über die Rechtsfolgen sich dann aber exakt aus dem Gesetz ergibt, besteht auch grundsätzlich eine geringere Wahrscheinlichkeit, dass Denkfehler oder sons­ tige Rationalitätsschwächen die Entscheidung selbst verzerren. Jedoch kann auch bereits die der Entscheidung vorausgehende Informationsaufnahme, -verarbeitung und -bewertung menschlichen Schwächen unterliegen. Ratio­ nalitätsschwächen können auf diese Weise auch die Prozessleitung beeinflus­ sen, etwa wenn der Richter im Zivilprozess wegen einer verzerrten Gewich­ tung einzelner Beweismittel fälschlicherweise von der Entscheidungsreife ausgeht. 2. Zielbestimmung Obgleich Rationalität kein Selbstzweck sein kann, ist ihr ein Wert an sich inhärent. In der Tradition der Aufklärung in Europa lässt sich das hohe Gut der Rationalität etwa im Kontext parlamentarischer Rechtsetzung gar als „Leitmotiv moderner Verfassungsstaatlichkeit“ bezeichnen.519 Rationalität meint dabei nicht (nur) die Abwesenheit von Rationalitätsschwächen, Vorur­ teilen und Denkfehlern. Sie steht – allgemeiner – für Vernünftigkeit und Vernunftgeleitetheit, Begründbarkeit, Vorhersehbarkeit, Berechenbarkeit, Transparenz und Nachvollziehbarkeit.520 Die Rationalität menschlicher Ent­ scheidungen hängt neben äußeren Faktoren, etwa der Organisation oder dem förmlichen Ablauf, insbesondere von dem inneren Verfahren, also der Me­ thodik der Entscheidungsfindung ab.521 Die Zielbestimmung jeder juristi­ schen Entscheidung ist das Gesetz; die Gesetze sind (Vor-)„Entscheidungen über künftige Entscheidungen“.522 Die juristische Entscheidung im Einzelfall 519  Vgl. Grzeszick, Rationalitätsanforderungen an die parlamentarische Rechtset­ zung im demokratischen Rechtsstaat, in: Grzeszick/Calliess/Lienbacher (Hrsg.), Grundsatzfragen der Rechtsetzung und Rechtsfindung, VVDStRL 71, 2012, S. 49 (51), der aber darauf hinweist, dass es keine Einigkeit zu der Frage gibt, was unter Rationalität im Einzelnen zu verstehen ist. 520  Hill, DÖV 2017, 433 (433). 521  Hill, DÖV 2017, 433 (433). 522  Schmidt, Einführung in die Probleme des Verwaltungsrechts, 1982, Rn. 63.



IV. Strategien gegen Rationalitätsschwächen?131

ist als Rechtsanwendung eine Konkretisierung des gesetzgeberisch vorge­ zeichneten Rechts.523 3. Erforschung der juristischen Entscheidungsfindung in Deutschland ausbauen Trotz der hohen Praxisrelevanz kommt dem Zusammenspiel zwischen Psychologie und Jurisprudenz im Prozess der (richterlichen) Entscheidungs­ findung in der deutschen Rechtswissenschaft – im Vergleich zu anderen Forschungsgebieten – bislang eine eher geringe Aufmerksamkeit zu.524 (Em­ pirische) Studien aus Deutschland, die auf dem deutschen Rechtssystem be­ ruhen und aktuelle neurobiologische Erkenntnisse berücksichtigen, könnten helfen, den Prozess der (richterlichen) Entscheidungsfindung besser zu ver­ stehen und evtl. weiter zu optimieren.525 4. Abhilfe a) „Debiasing“ Gegen die (nicht abschließend aufgeführten) kognitiven Verzerrungen und sonstigen Rationalitätsschwächen anzukämpfen, ist teilweise möglich – durch sog. Debiasing.526 Der Begriff beschreibt Maßnahmen, die Urteilsfehler und 523  Hoffmann-Riem, Innovation und Recht, 2016, S. 60 f., 109 f. Entscheidungen der Exekutive betreffend, plädieren Stimmen in der Literatur dafür, den Schwerpunkt einer Entscheidung weniger auf Streitschlichtung oder Problemlösung zu legen, son­ dern vielmehr auf die Gestaltung und Innovation mit Blick auf die Zukunft, sodass auch Aspekten wie „Reversibilität, Optimierung und Impulsfunktion“ eine größere Bedeutung zukommt als z. B. der Bestandskraft, vgl. etwa Hill, DÖV 2017, 433 (438). 524  Ebenso Risse, NJW 2018, 2848 (2851 f.). Vasel, The Most Dangerous Branch?, in: Mülder/Drechsler/Helmrich et al. (Hrsg.), Richterliche Abhängigkeit – Rechtsfin­ dung im Öffentlichen Recht, 2018, S. 121 (121 f., 133 f.) sieht eine Forschungslücke besonders im öffentlichen Recht: „der behavioral turn [hat] das Öffentliche Recht nur bedingt erreicht“ (S. 131). 525  Vorschläge zur Methodik und Vorgehensweise liefert etwa Engel, Behavioral Law and Economics: Empirical Methods, in: Zamir/Teichman (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, 2014, S. 125 (125 ff.). 526  Vgl. etwa Gigerenzer, How to Make Cognitive Illusions Disappear: Beyond „Heuristics and Biases“, in: Stroebe/Hewstone (Hrsg.), European Review of Social Psychology, 1991, S. 83 (83 ff.); Larrick, Debiasing, in: Koehler/Harvey/Koehler (Hrsg.), Blackwell Handbook of Judgment and Decision Making, 2004, S. 316 (323 ff.). Siehe auch Baron, Heuristics and Biases, in: Zamir/Teichman (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, 2014, S. 3 (3 ff.): Fehler­ reduktion durch aktives „open-minded thinking“.

132

Erster Teil: Status quo richterlicher Entscheidungsfindung

kognitive oder voluntative Schwächen verhindern oder eindämmen sollen, besonders solche, die bereits auf kognitiver Ebene ansetzen.527 Dabei kom­ men Techniken in Betracht, die den Bias tatsächlich selbst verringern, sowie solche, die das Ergebnis des Bias auf kognitiver Ebene abmildern.528 Aus Sicht der hoheitlichen Entscheidungsfindung besteht der wichtigste Stütz­ pfeiler etwaiger Debiasing-Bestrebungen darin, dass die Entscheider sich selbst die Rationalitätsschwächen bewusst machen.529 Auch wenn bspw. die Ankerheuristik äußerst robust auftritt, kann der Ent­ scheider seine Aufmerksamkeit bewusst auf die Irrelevanz des Ankers legen und die Verzerrung somit teilweise unter Kontrolle bringen.530 Um den Rückschaufehler (Hindsight Bias) zu verringern, kann es helfen, die Tatsa­ chenfeststellungen kritisch zu hinterfragen und sich aktiv in die Ex-anteEntscheidungssituation hineinzuversetzen.531 Im Allgemeinen kann insbeson­ dere sog. kontrafaktisches Denken („consider the opposite“) – mögliche Al­ ternativursachen vergangener Ereignisse aktiv einzubeziehen – viele kogni­ tive Verzerrungen eindämmen.532 Rechtsanwender können diese Technik z. B. in Fällen des Anscheinsbeweises sowie immer dann anwenden, wenn ein Sachverhalt auf den ersten Blick „eindeutig“ und „klar“ ist. Die Technik des kontrafaktischen Denkens eignet sich in besonderer Weise auch zur Re­ duktion des Confirmation Bias.533 527  So die Definition bei Hacker, Verhaltensökonomik und Normativität, 2017, S.  574 m. w. N., insbesondere Jolls/Sunstein, The Journal of Legal Studies 35 (2006), 199 (225). 528  Hacker, Verhaltensökonomik und Normativität, 2017, S. 578 f.; Maßnahmen, die das Ergebnis des Bias erst auf der Handlungsebene verringern, fallen nach dieser engeren Definition nicht darunter. Siehe auch die dort (allerdings für den privatrecht­ lichen Kontext) genannten praktischen Formen des Debiasing, a. a. O., S.  585 ff. 529  Dazu auch Hacker, Verhaltensökonomik und Normativität, 2017, S. 594  ff.; siehe aber auch die Probleme, insbesondere die Möglichkeit von Fehlurteilen gerade durch die Debiasing-Maßnahmen a. a. O., S.  607 ff. 530  Siehe bereits die Ausführungen und Nachweise oben S. 53 ff. 531  Vgl. Ott/Klein, AG 2017, 209 (218 ff.); siehe dazu oben S. 61 ff. 532  Kray/Galinsky, Organizational Behavior and Human Decision Processes 91 (2003), 69 (73 ff.), mit einem Fokus auf Gruppenentscheidungen; vgl. dort auch die Definition des „counterfactual mind-sets“ a. a. O., 70 f.; Roese, Twisted Pair: Counter­ factual Thinking and the Hindsight Bias, in: Koehler/Harvey/Koehler (Hrsg.), Black­ well Handbook of Judgment and Decision Making, 2004, S. 258 (258 ff.); speziell zum Framing-Effekt Cheng/Wu, Decision Support Systems 49 (2010), 328 (329 ff.). Vgl. auch Kahneman, Schnelles Denken, langsames Denken, 2012, S. 65 ff., 231 ff. Siehe auch die Debiasing-Ansätze bei Pi/Parisi et al., Biasing, Debiasing, and the Law, in: Zamir/Teichman (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, 2014, S. 143 (145 ff.). 533  Schweizer, Kognitive Täuschungen vor Gericht, 2005, S. 194 m. w. N. Vgl. zum Confirmation Bias oben S. 63 ff.



IV. Strategien gegen Rationalitätsschwächen?133

Besonders in Gruppenentscheidungen, etwa der Kammern und Senate (Kollegialgerichte), bietet es sich an, dass ein Mit-Entscheider bewusst die Position eines Zweiflers oder Kritikers einnimmt (eine Art Advocatus Diaboli) und die übrigen Entscheider dazu zwingt, die eigene Entscheidungsfin­ dung zu hinterfragen und ihre Argumentation zu verbessern. Ein allein ent­ scheidender Richter könnte dies immerhin gedanklich durchspielen und vor jeder Entscheidung im Kopf den Gegenpart vertreten. Eine Art „Checkliste“ kann auch die (ungeschriebene) richterliche Berufs­ ethik aufstellen:534 Schreibt das Gesetz eine ganz bestimmte Entscheidung vor? Könnten (unbewusste) Denkfehler, Vorurteile sowie eigene politische, religiöse oder andere Werte die Entscheidung beeinflusst haben? Hätten diese berücksichtigt werden dürfen und wenn ja, mit welchen Auswirkungen auf die Entscheidung? Manche Rationalitätsschwächen sind zwar derart hartnäckig, dass sie sich auch dann auswirken, wenn die betroffene Person sich ihrer bewusst ist – denn nicht alle Biases lassen sich durch Debiasing reduzieren.535 Ein Bewusstsein dafür auch unter Juristen zu schaffen, ist aber in jedem Fall ein sinnvoller Ausgangspunkt. Sich aktiv mit den relevantesten Denkfehlern zu beschäftigen und Argumente sowie (alternative) Kausalverläufe aktiv und bewusst zu hin­ terfragen, kann den Weg zu mehr Rationalität bereiten. Daneben kommt in Betracht, die Orientierung an einheitlichen Vorgaben – in Form von DINNormen, Schmerzensgeldtabellen, gefestigter Rechtsprechung – normativ zu stärken, ohne dabei die sachliche Unabhängigkeit der Richter anzutasten. b) Juristische Aus- und Weiterbildung, Organisation und Ausgestaltung richterlicher Tätigkeit Auch strukturelle Maßnahmen kommen in Betracht, den Einfluss von Rati­ onalitätsschwächen auf richterliche Entscheidungen einzudämmen. Verhalten­ sökonomik und Risikokompetenz sind keine integralen Bestandteile der juris­ tischen Ausbildung. Das sollte sich ändern. Rechtspsychologie und Entschei­ dungspsychologie sowie evtl. – als Grundlage für den Umgang mit Wahr­ scheinlichkeiten und Risiken – Statistik sollten Eingang finden in die juristische Grundlagenausbildung des Jurastudiums oder des Referendariats.536 534  Heussen,

NJW 2015, 1927 (1932). etwa die Übersicht bei Jolls/Sunstein, The Journal of Legal Studies 35 (2006), 199 (236); vgl. auch Hacker, Verhaltensökonomik und Normativität, 2017, S.  600 f., 604 f. 536  So auch die Forderung bei Vasel, The Most Dangerous Branch?, in: Mülder/ Drechsler/Helmrich et al. (Hrsg.), Richterliche Abhängigkeit – Rechtsfindung im Öf­ fentlichen Recht, 2018, S. 121 (151 f.). Siehe zu den Schwierigkeiten, vor die Statis­ 535  Siehe

134

Erster Teil: Status quo richterlicher Entscheidungsfindung

Zusätzlich können auch Richterfortbildungen, wie sie bspw. das US-amerika­ nische Federal Judicial Center anbietet, organisiert durch die Länder, den Deutschen Richterbund oder andere Akteure, ein verstärktes Bewusstsein für Rationalitätsschwächen schaffen und Abhilfe ermöglichen. Kurzfristig könn­ ten auch (unverbindliche) „Entscheidungs-Leitfäden“ dazu beitragen, kogni­ tive Verzerrungen einzudämmen.537 Dass Richter keinerlei psychologische Schulung durchlaufen haben, wirkt sich besonders in Vernehmungssituationen aus; auch insoweit besteht Ergänzungsbedarf. Neben Fortbildungsveranstaltungen für juristische Entscheider sind auch Veränderungen des institutionellen Arrangements, z. B. durch Reduktion der Arbeitsbelastung, denkbar. Durch eine Neugestaltung bzw. Organisation und Verwaltung der richterlichen Arbeit könnte sich der Zeitdruck für Richter verringern, den insbesondere die durchschnittlichen Erledigungszahlen und ihre Wirkung auf persönliche Karriere- und Aufstiegsmöglichkeiten inner­ halb der Justiz erzeugen.538

V. Fazit des ersten Teils 1. Zwischenergebnis „Es irrt der Mensch, solang er strebt“, heißt es in Goethes Faust. Men­ schen verhalten sich und entscheiden nicht rein rational. Bereits das Sam­ meln und die Kenntnisnahme von Informationen stehen unter bewussten wie unbewussten Einflüssen: Emotionen, Vorurteile und andere Phänomene tra­ gen dazu bei, manche Informationen eher wahrzunehmen, stärker zu gewich­ ten oder länger im Gedächtnis zu behalten als andere. Entscheidungsfindung basiert auf Bewusstseinsakten, denen immer auch eine gefühlsgeleitete Stel­ lungnahme inhärent ist.539 Entscheiden umfasst stets, Informationen zu be­ tiken und Regressionen menschliche Entscheider stellen, ergänzend Kahneman, Schnelles Denken, langsames Denken, 2012 S. 208 ff. 537  Einen solchen hat kürzlich etwa die American Bar Association, eine Vereini­ gung aus Anwälten, Richtern und Studenten, herausgegeben, siehe Redfield (Hrsg.), Enhancing Justice: Reducing Bias, 2017. 538  In Gruppenentscheidungen lassen sich Rationalitätsschwächen einzelner Ent­ scheider eher ausgleichen. Daher ist auch in Betracht zu ziehen, die Zuständigkeiten des Einzelrichters (in den Verfahrensordnungen) einzudämmen bzw. in praxi die Vor­ aussetzungen zu schaffen, um Spruchkörper zu vergrößern bzw. die Kollegialgerichte zu stärken. So auch Vasel, The Most Dangerous Branch?, in: Mülder/Drechsler/Helm­ rich et al. (Hrsg.), Richterliche Abhängigkeit – Rechtsfindung im Öffentlichen Recht, 2018, S. 121 (152), der dies als „[a]us Gründen der Ressourcenknappheit eher uto­ pisch, aber nicht minder geboten“ ansieht. 539  Hänni, Phänomenologie, in: Landweer/Koppelberg (Hrsg.), Recht & Emo­ tion I, 2016, S. 227 (243).



V. Fazit des ersten Teils135

werten, zu würdigen, zu interpretieren, auszulegen und Folgen zu antizipie­ ren. All diese Prozesse sind potenziell fehleranfällig. Die richterliche Entscheidungs- und Rechtsfindung bildet keine Ausnahme hiervon. Wenngleich nicht alle bisher untersuchten und empirisch erforschten Rationalitätsschwächen, Denkfehler und kognitive Verzerrungen auf juristi­ sche Entscheidungsträger „übertragbar“ sind, so verbietet sich jedenfalls auch der gegenteilige Schluss, dass Richter durch ihre Ausbildung und Er­ fahrung „immun“ gegen diese Fehler seien: Eine grundsätzliche Anfälligkeit besteht ebenfalls für juristisch geschulte Personen.540 Es lässt sich also aus­ drücklich konstatieren, dass auch Richter den Rationalitätsschwächen, Vorur­ teilen etc. unterliegen.541 Jeder menschlichen Entscheidung ist eine gewisse Unschärfe einzuräumen – in den Worten des Journalisten Wolfram Weidner: „Intellektuelle treffen keine Fehlentscheidungen, ohne sie gründlich erwogen zu haben.“ Auf diese Weise fließen Aspekte in die richterliche Entscheidungsfindung ein, die zwar psychologisch erklärbar und menschlich nachvollziehbar sind, aber aus normativer Warte betrachtet nicht Bestandteil des juristischen Ent­ scheidungsprozesses sein sollten. Systematische Verzerrungen führen nicht zwingend zu Fehlurteilen: Die Grenzen zwischen „falschen“ und rechtlich noch vertretbaren Entscheidungen sind bisweilen fließend. Dennoch besteht Konsens darüber, dass etwa der zeitliche Abstand zur letzten Essenspause des Richters, zufällige „Anker“-Zahlen oder die Umstellung auf die Som­ merzeit542 keinen Einfluss auf rechtlich verbindliche und in das Leben eines Betroffenen einwirkende richterliche Entscheidungen haben sollten. Richter entscheiden selbstverständlich nicht per se „irrational“ oder fehlerhaft.543 540  Vgl. insbesondere die Studien von Rachlinski und Guthrie, etwa Guthrie/Rachlinski et al., Cornell Law Review 86 (2001), 777 (787 ff.); Guthrie/Rachlinski et al., Cornell Law Review 93 (2007), 1 (29 ff.); Rachlinski/Wistrich et al., Indiana Law Journal 90 (2015), 695 (701 ff.); hinsichtlich des Ankereffekts etwa Englich/Mussweiler et al., Personality and Social Psychology Bulletin 2006, 188 (192 ff.). 541  Vidmar, Current Directions in Psychological Science 20 (2011), 58 (59) m. w. N. Vgl. ergänzend auch die Beiträge im Sammelband Zamir/Teichman (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, 2014, insbesondere die Literaturübersicht bei Teichman/Zamir, Judicial Decision-Making: A Behavioral Per­ spective, in: dies. (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, 2014, S. 664 (664 ff.), sowie Baron, Heuristics and Biases, in: Zamir/Teichman (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, 2014, S. 3 (3 ff.). Einen vorsichtigen, zurückhaltenden Umgang mit sozialwissenschaftlicher Evi­ denz mahnt allerdings Chatziathanasiou, JZ 2019, 455 (458), an. 542  Siehe zu den einzelnen Phänomenen oben S. 45 ff. 543  Auf diese Weise gleichermaßen relativierend Klöhn/Stephan, Psychologische Aspekte der Urteilsbildung bei juristischen Experten, in: Holzwarth/Lambrecht/ Schalk et al. (Hrsg.), Die Unabhängigkeit des Richters, 2009, S. 65 (83).

136

Erster Teil: Status quo richterlicher Entscheidungsfindung

„Den Richter“ gibt es überdies nicht; alle empirischen Untersuchungen kön­ nen ebenso wie die hier erfolgte deskriptive Darlegung immer nur Mittel­ werte bzw. den Durchschnitt beschreiben, oder aber bestimmte Einzelfälle beleuchten. Als Fazit dennoch relevant ist die Tatsache, dass es durch (zu­ mindest auch) intuitiv getroffene Entscheidungen zu systematischen Verzer­ rungen in der richterlichen Urteilsfindung kommen kann und dass diese Ur­ teilsfehler im weiteren Sinne zu Ungleichbehandlungen, Diskriminierungen oder zumindest normativ-rational nicht erwünschten Ergebnissen führen können. Weitergehende Aussagen und daraus womöglich folgende rechtssystemi­ sche Überlegungen gilt es unbedingt mit weiteren empirischen Daten zu un­ terfüttern – auch mit Untersuchungen aus Deutschland. Gerade weil die em­ pirischen Ergebnisse aus dem Ausland aufgrund der Unterschiede im Rechts­ system544 nicht deckungsgleich die Situation in Deutschland abbilden, ver­ stehen sich diese Ausführungen auch als Werbung zu mehr empirischer Forschung über richterliches Entscheiden in Deutschland. Dabei werden die Schwierigkeiten empirischer Forschung nicht verkannt: Gerichtsverhandlun­ gen in Deutschland sind zwar grundsätzlich öffentlich (vgl. § 169 S. 1 GVG),545 jedoch sind Ton- und Filmaufnahmen grundsätzlich unzulässig (§ 169 S. 2 GVG).546 Als Erhebungsmethoden empirischer Untersuchungen verbleiben dann lediglich die (aufwendige und eher geringe Fallzahlen ent­ haltene) Prozessbeobachtung sowie repräsentative empirische Befragungen vor und/oder nach den Verfahren.547 Wenngleich sich manche Rationalitätsschwäche nicht (gänzlich) verhin­ dern lässt, können die Auswirkungen aber durchaus verringert und minimiert werden. Kognitionspsychologische Kurse sollten daher Einkehr in die juristi­ sche Ausbildung halten. Auch eine stärker auf das Berufsbild bezogene Aus­ bildung kommt in Betracht: Die Tatsache etwa, dass angehende Richter oder Staatsanwälte weder im Studium noch im Referendariat jemals eine Person vernommen haben müssen,548 wirkt auf Nicht-Juristen befremdlich. Die Liste ließe sich weiter fortführen. So ist z. B. nicht vorstellbar, wie junge Richter 544  Auch die juristische Ausbildung sowie die Voraussetzungen der Richterberu­ fung weisen im Vergleich zum deutschen System gravierende Unterschiede auf. 545  Ausnahmen finden sich u. a. im Jugendstrafverfahren (§ 48 JGG) sowie in Fa­ miliensachen und Angelegenheiten der freiwilligen Gerichtsbarkeit (§ 170 Abs. 1 S. 1 GVG). 546  Prominente Ausnahme: § 17a Abs. 1 BVerfGG. 547  Vgl. Landweer/Koppelberg, Der verkannte Zusammenhang von Recht und Emotion, in: dies. (Hrsg.), Recht und Emotion I, 2016, S. 13, S. 44. 548  Nach den jeweiligen Juristenausbildungsgesetzen sowie den Ausbildungs- und Prüfungsordnungen der Länder ist die Vernehmung einer Person ist nicht verpflich­ tender Bestandteil der Ausbildung. In praxi besteht zumindest die Möglichkeit, etwa



V. Fazit des ersten Teils137

oder Staatsanwälte die verschiedenen Abstufungen der Schuldunfähigkeit in § 20 StGB erkennen und vornehmen können, ohne jemals zuvor einen „schuldunfähigen“ oder einen „in seiner Steuerungsfähigkeit erheblich beein­ trächtigten“ Menschen gesehen oder gehört zu haben.549 Notwendige Verän­ derungen in der juristischen Ausbildung sind selbstverständlich nicht auf das Strafrecht beschränkt. Zusammenfassend lässt sich aber betonen, dass Entscheidungsträger in Justiz, Verwaltung und Polizeibehörden sich zumindest der wichtigsten kog­ nitionspsychologischen Prozesse bewusst sein sollten, um (kognitive) Verzer­ rungen und Fehler möglichst zu reduzieren und insoweit ungleiche und un­ gerechte Entscheidungen zu minimieren. Auch der Deutsche Richterbund hat die Thematik unterdessen aufgegriffen und Thesen über eine richterliche Berufsethik zur Diskussion gestellt.550 Die Rechtsordnung belässt dem Richter eine weite (sachliche und persön­ liche) Unabhängigkeit, verpflichtet ihn aber auch zu Neutralität und Einzel­ fallgerechtigkeit (innere Unabhängigkeit). Der Richter ist in seiner Tätigkeit lediglich – aber vollständig – an Gesetz und Recht gebunden. Im Einklang mit der materiellen Rechtslage muss er den konkreten Fall ohne Verstoß ge­ gen verfahrensrechtliche Vorschriften bescheiden. Dabei nutzt der Richter die anerkannten (Auslegungs-)Methoden und versieht seine Entscheidung mit einer vollständigen und widerspruchsfreien Begründung, die die Entschei­ dung trägt und mit deren Hilfe der Betroffene sie nachvollziehen und ggf. angreifen kann. Unbewusste Prozesse wie Denkfehler und andere Rationalitätsschwächen im Einzelfall nachzuweisen, ist dem Rechtsunterworfenen in der Regel nicht möglich. Weil sie nicht den Vorschriften über den Ausschluss und die Ableh­ nung eines Richters (bspw. §§ 22, 24 StPO) unterfallen,551 kann sich der Betroffene ihrer nicht erwehren und hat keine Möglichkeit, sie zu verhindern oder zu korrigieren. Sie sind mit Rechtsmitteln nicht (isoliert) angreifbar, insbesondere (als unbewusste Prozesse) nicht justiziabel oder kontrollierbar. Die Rechtsordnung kann sie daher nicht verbieten – Vorgaben an die richter­ liche Entscheidungsfindung müssen dazu realistischerweise schweigen.

in der Zivilrechtsstage eine Verhandlung zu leiten oder in der Strafrechtsstage den staatsanwaltlichen Sitzungsdienst auszuüben. 549  Dies hinterfragend Fischer, Wunder, Wahn und der Paragraf 20, ZEIT Online vom 9.8.2016. 550  Vgl. Deutscher Richterbund, Richterethik in Deutschland, 21.1.2012. 551  Siehe oben S. 128 ff.

138

Erster Teil: Status quo richterlicher Entscheidungsfindung

2. Ausblick: Rationalisierung und Automatisierung als Lösung? Wäre der menschlich-juristische Entscheider eine Maschine, müsste man ihn wohl als „nicht-triviales“ System einordnen, bei dem sich zu einem defi­ nierten Input der Output nicht sicher und exakt vorhersagen ließe: Trotz in­ tensiver Ausbildung (bzw. umfassender Kenntnis des Rechts) ist auch der juristische Entscheider als Mensch kein absolut vorhersagbares („triviales“) System, weil die auf ihn wirkenden Einflüsse zu vielschichtig und umfang­ reich sind.552 Diesen Vergleich sowie das Ziel einer Rationalisierung der ge­ richtlichen Entscheidungsfindung vor Augen, kommt neben Ergänzungen der juristischen Aus- und Weiterbildung auch der Einsatz neuer Technologien in Betracht: Maschinen erscheinen uns objektiv, stimmungsunabhängig, sie sind nie unterzuckert oder müde. Aufgrund der teils gravierenden Auswirkungen kognitiver Verzerrungen und fachfremder Einflüsse auf gerichtliche Ent­ scheidungen lohnt es, über neue Wege nachzudenken. Ermahnen außerdem knappe Ressourcen den Staat dazu, seine Abläufe zu optimieren, gelten die Gebote der Wirtschaftlichkeit und der Effizienz (vgl. Art. 115 GG) auch für die Justizverwaltung.553 Die richterliche Tätigkeit ganz oder teilweise auf eine Software zu übertragen, die niemals Urlaub nimmt oder Krankmeldun­ gen einreicht, erscheint vor diesem Hintergrund verlockend. Justizmanage­ ment und richterliche Unabhängigkeit dienen im Übrigen teilweise demsel­ ben Zweck – einer effizienten und wirksamen Rechtsprechung.554 Entwick­ lungen wie die Digitalisierung stellen Gesellschaft und Staat vor neue Aufga­ ben und Herausforderungen, haben aber auch großes Wohlstandspotenzial. Die nachfolgenden Kapitel stellen einen Versuch dar, Möglichkeiten und Grenzen eines Einsatzes neuer Technologien in der Rechtsprechung genauer zu beleuchten.

552  Vgl. Foerster/Pörksen, Wahrheit ist die Erfindung eines Lügners, 11. Aufl., 2016, S. 54 f., 58, 65. Siehe auch Graevenitz, ZRP 2018, 238 (239), der aus der struk­ turellen Nicht-Vorhersagbarkeit folgert, dass „als ‚falsch‘ empfundene Entscheidun­ gen niemals ausgeschlossen“ seien. 553  Vgl. auch Aweh, Richterliche Unabhängigkeit und Justizökonomie, in: Institut für Wirtschaftsrecht der Universität Kassel (Hrsg.), 60 Jahre GG, S. 211 (217 ff.). 554  Lienhard/Kettiger, Justice – Justiz – Giustizia 2013, 1 (32 f.); vgl. auch Aweh, Richterliche Unabhängigkeit und Justizökonomie, in: Institut für Wirtschaftsrecht der Universität Kassel (Hrsg.), 60 Jahre GG, S. 211 (217 ff.). Eine effektive und zugleich verlässliche Justiz ist zudem essentiell für eine funktionierende Volkswirtschaft und damit den Wohlstand eines Landes. Es existiert eine Konkurrenz der Justizstandorte in der globalisierten Welt, sodass eine funktionierende, Rechtssicherheit gewährleis­ tende Justiz etwa für wirtschaftliche Standortentscheidungen von Belang sein kann.

Zweiter Teil

Neue Technologien in der richterlichen Entscheidungsfindung – Zu den Grenzen eines „Smart Judging“ „Das alles Entscheidende, was der Künstlichen Intelligenz fehlt, ist der gesunde Menschenverstand.“ (Stefan Fleischer)

I. Einführung 1. Vorabüberlegungen Versteht man Entwicklungen und Phänomene wie Digitalisierung und Au­ tomatisierung mehr als Chance denn als Problem, so erscheinen neue Tech­ nologien in immer mehr Bereichen zumindest als Möglichkeit, Prozesse zu verbessern oder zu vereinfachen. Automatisierung kann jedenfalls grundsätz­ lich dazu beitragen, Verfahren zu beschleunigen sowie die Neutralität und Objektivität zu erhöhen. Mit Blick auf die Justiz sind Ziel solcher Überle­ gungen nicht fertige Musterlösungen, sondern der Anstoß zur Diskussion und ihre Erweiterung um bislang eher sparsam ausgeleuchtete Aspekte. Mensch­ liche Denkfehler und Rationalitätsschwächen können sich für Betroffene gravierend auswirken – aber darf der Staat in einem derart sensiblen Bereich wie der Justiz Algorithmen bzw. neue Technologien einsetzen und wenn ja, unter welchen Voraussetzungen? Können die Algorithmen menschliche Feh­ ler ausgleichen? Wo liegen die Grenzen eines Einsatzes neuer Technologien in der Rechtsprechung? Aufgrund der Vielzahl und Vielfältigkeit relevanter Fragestellungen versteht sich der zweite Hauptteil dieser Arbeit als Kompro­ miss zwischen thematischer Breite und inhaltlicher Tiefe. Die Diskussion um eine Automatisierung juristischer Entscheidungen ist nicht neu. Bereits seit den 1950er-Jahren sind auch die Grenzen der Automa­ tion (in der Verwaltung) Gegenstand rechtswissenschaftlicher und soziologi­ scher Überlegungen.1 Lag der Fokus dabei meist auf der Subsumtion, soll er 1  Siehe den Überblick über frühere Debatten bei Köhl/Lenk et al., Stein-Harden­ berg 2.0, 2014, S. 175 ff. Der Vergleich zwischen Richtern und Automaten ist sogar

140

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

hier auf der Entscheidung insgesamt liegen.2 Bereits 1967 konstatierte Simi­ tis, die Hoffnung auf die Maschine sei „die Reaktion des Laien auf die Be­ schwörung voluntativer und emotionaler Elemente“;3 die „Automatisierung der Jurisprudenz, noch vor einigen Jahren eine reichlich utopische Vorstel­ lung“, sei „Wirklichkeit“ geworden. Die Rechtswissenschaft könne sich die­ ser Erkenntnis nicht weiter verschließen. Das bei Nicht-Juristen bestehende Interesse an der Automatisierbarkeit sah Simitis durch ein elementares „Un­ behagen des Laien an einer Rechtsordnung, die sich immer wieder rationalen Maßstäben zu entziehen scheint“, begründet.4 Max Weber beschrieb den Richter im „bürokratischen Staat“ als „Paragraphen-Automat[en]“, dessen Funktionieren „im großen und ganzen kalkulierbar“ sei.5 Digitalisierung und Automatisierung sind indes keine rein technologischen, sondern auch kulturelle und hoch politische Phänomene – sie haben als sol­ che natürlicherweise Auswirkungen auf das Recht. Auch bewährte Grund­ sätze und dogmatische Strukturen sind nicht auf Ewigkeit in Stein gemeißelt, sondern stehen mit dem Wandel der Zeit unter Änderungsdruck.6 Das Recht hat indes steuernde, ordnende Funktion. Der Glaube an die Möglichkeiten noch älter und taucht bereits 1903 auf, vgl. Kilian, Juristische Entscheidung und elek­ tronische Datenverarbeitung, 1974, S. 4. Siehe auch van Raden, Rechner, Richter, Realitäten – Computer in der Justiz, 1989, passim. 2  Einen (historischen) Überblick über die Entwicklungen in der Querschnittsdis­ ziplin Rechtsinformatik von ihren Anfängen in den 1960er-Jahren an, einschließlich der theoretischen Grundlagen und moderner Forschungsbedarfe, bietet das interdiszi­ plinär vorgehende Werk von Gräwe, Die Entstehung der Rechtsinformatik, 2011. Als Pionierarbeit hervorzuheben bleiben auch die Überlegungen bei Haft, Elektronische Datenverarbeitung im Recht, 1970, S. 21 ff., mit Blick auf die Rechtsprechung insbe­ sondere S.  83 ff. 3  Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S. 7. Vgl. aber bereits auch die Warnung bei Spengler, Law and Contemporary Prob­ lems 28 (1963), 36 (52): „If computers and other instruments are to be used, every precaution must be taken lest the mechanical servant become master, and a tyrannical one at that“. 4  Vgl. Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S. 5 f. Siehe auch Klug, Juristische Logik, 1982, S. 174 ff. 5  Vgl. Weber, Wirtschaft und Gesellschaft, 5. Aufl., 1972, S. 826. 6  Vgl. Boehme-Neßler, NJW 2017, 3031 (3031), der sogar die Möglichkeit eines „Anfang[s] vom Ende des Rechts“ sieht. Die Lebenswelt gerade jüngerer Generatio­ nen ist stark von Bildern geprägt, teilweise auch dominiert. Die visuelle Kommunika­ tion nimmt an Relevanz immer weiter zu. Aufgrund der demographischen Entwick­ lung unterliegt auch das Recht einem Prozess stärkerer Visualisierung, vgl. a. a. O., 3034 f. Die Leistungsfähigkeit des Rechts kann zunehmen, wenn Bilder neben Spra­ che und Schrift als Kommunikationsmittel Anwendung finden – insbesondere kann das Verständnis komplexer Vorgänge und Sachverhalte steigen. Derartige Entwicklun­ gen bergen indes auch Gefahren: Visuelle Kommunikation ist grundsätzlich emotio­ naler als die Kommunikation in Wort und Schrift, vgl. Katzer, Cyberpsychologie,



I. Einführung141

neuer Technologien darf nicht dazu führen, dass der technische Fortschritt anstelle der Legislative (und Judikative) die Entwicklung des Rechts diktiert bzw. vorzeichnet. Denn Algorithmen haben bereits in vielen Lebensbereichen Entscheidungen übernommen und wirken sich sowohl in alltäglichen – etwa bei Preisschwankungen im Online-Shopping oder Reiseportalen – als auch in weniger alltäglichen Bereichen wie der Kreditvergabe und vorgelagertem Scoring aus. Aber auch in hochsensiblen Bereichen wie dem Gesundheitswe­ sen treffen nicht länger ausschließlich Menschen wichtige Entscheidungen: So wirbt ein US-amerikanisches Unternehmen mit einem Algorithmus, der die Lebenserwartung schwerkranker Patienten vorherbestimmen kann und auf diese Weise die Entscheidung über folgende, evtl. kostenintensive und vermeintlich unnötige Behandlungsmethoden vorbereiten soll.7 Die Ent­ scheidung über Leben und Tod kann dann im Extremfall in den Händen – oder besser in den Einsen und Nullen – einer Maschine liegen. Viele Unter­ nehmen legen zudem die Algorithmen ihrer Dienste bzw. Software nicht of­ fen, sondern schützen sie als Betriebs- und Geschäftsgeheimnis (vgl. §§ 17 ff. UWG, § 204 StGB). Dadurch sind sie wenig transparent und oft nur schwer oder gar nicht nachvollziehbar bzw. kontrollierbar.8 Mit ihrem Leistungspo­ tenzial steigt auch die Versuchung, sie in Bereichen einzusetzen, die bislang aus guten Gründen dem Entscheider aus Fleisch und Blut vorbehalten sind. Der Weg zur richterlichen Entscheidung lässt sich jedenfalls abstrakt auch als mechanischer Rechenvorgang betrachten: Die „Eingabe“ der (Sachver­ halts-)Informationen, Beweise, Gutachten und Aussagen führt durch Anwen­ dung des Gesetzes zur „Ausgabe“ einer Entscheidung.9 Die hier erfolgende Beschreibung technischer Möglichkeiten und Grenzen – also des Automati­ sierungs- und Algorithmisierungspotenzials richterlicher Entscheidungen – soll dabei dem rechtstheoretischen Streit zwischen dem logikbasierten Ansatz des Rechtspositivismus (Begriffsjurisprudenz) und dem hermeneutischen Ansatz (Interessenjurisprudenz) neutral gegenüberstehen10 und diesen hier nicht vertiefen.11 „Maschinell“ und menschlich getroffene Entscheidungen 2016, S. 173 ff.; siehe zu weiteren Konsequenzen dieser Entwicklung für das Recht Boehme-Neßler, Unscharfes Recht, 2008, S. 308 ff. 7  Soliman, Der Todes-Algorithmus, tagesschau.de vom 14.12.2017; Lobe, Der Algorithmus schlägt die letzte Stunde, FAZ Online vom 8.1.2017. Ähnliche Algorith­ men finden mittlerweile auch in deutschen Krankenhäusern Anwendung. 8  Dazu unten S. 331 ff. 9  Ähnlich Tegmark, Leben 3.0, 2017, S. 158. 10  Vgl. bereits Reisinger, Rechtsinformatik, Reprint 2016, 1977, S. 51  f.; siehe ergänzend unten S. 226 f. 11  Relevanter als der Unterschied zwischen einem logischen, „mechanischen“ Vorgehen einerseits und einem hermeneutischen (auf Interpretation und Verstehen ausgerichteten) Vorgehen andererseits ist die Frage, inwieweit die Automatisierung

142

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

sind aber zumindest strukturell vergleichbar: Auch im menschlichen Zereb­ rum ist es die Grundlage jeder Entscheidung, Informationspakete (netzwerk­ artig bzw. neuronengesteuert) zu verarbeiten, zu ordnen, zu gewichten und zu werten. Hinzu kommt, dass auch Softwarecodes und Gesetze strukturell vergleichbar sind.12 Neben Smart Government, Smart Cities, Smart Homes, neben autonomen smarten Fahrzeugen, Robotern in der Industrie, automati­ sierten Entscheidungen im Wirtschaftsverkehr und entscheidungsunterstüt­ zenden Maßnahmen im Alltag – warum sollte nicht auch Smart Judging zu­ mindest der Überlegung wert sein? Gerichtliche Entscheidungen ohne „menschliche Fehler“ wie Vorurteile, Voreingenommenheit, Müdigkeit oder Hunger könnten womöglich die Chancen darauf erhöhen, dass auch tatsächlich alle Menschen nicht nur vor dem Gesetz gleich sind (Art. 3 Abs. 1 GG), sondern auch eine vergleichbare Behandlung erfahren. Es lohnt sich also, zumindest zu hinterfragen, ob die Judikatur zwingend und überall eine rein menschliche Domäne bleiben muss. Ein weiterer Vergleichspunkt ist die Transparenz der Entscheidungen: Jen­ seits der Begründung einer richterlichen Entscheidung, die auch nachträglich eine biased decision rationalisieren und rechtfertigen kann, besteht in der Regel keine Möglichkeit, den Entscheidungsfindungsprozess im Kopf des Richters exakt nachzuvollziehen. Ungeachtet der Schwierigkeiten, (selbst-) lernende Systeme transparent und nachvollziehbar zu gestalten,13 kann in der grundsätzlichen Möglichkeit, maschinelle Prozesse auch ex post exakt zu analysieren, ein Vorteil gegenüber der „rein menschlichen“ Entscheidungs­ findung liegen. Ist es der Rechtsinformatik (und dem mittlerweile wohl prä­ senteren, aber nicht deckungsgleichen Begriff Legal Tech14) in erster Linie darum bestellt, juristische Arbeitsprozesse mit dem Ziel der Effizienzsteigerung zu unterstützen oder zu automatisieren,15 setzt die vorliegende Unter­ suchung nicht am Effizienzgedanken an, sondern sucht nach Möglichkeiten, die spezifisch menschlichen Ungenauigkeiten der richterlichen Entschei­ dungsfindung auszugleichen. juristischer Problemlösungen bereits an den Eigenheiten der natürlichen Sprache scheitert; dazu unten S. 210 ff. Siehe ergänzend zu den Methodendiskussionen in der Rechtswissenschaft die Übersicht bei Adrian, Grundprobleme einer juristischen (ge­ meinschaftsrechtlichen) Methodenlehre, 2009, S. 595 ff. 12  Vgl. dazu etwa Lessig, Code And Other Laws of Cyberspace, 2. Aufl., 2006, S.  1 ff. 13  Dazu unten S. 147 f. sowie 331 ff. 14  Vgl. Herberger, NJW 2018, 2825 (2825). 15  So etwa die Definition bei Schemmel/Dietzen, Abschn. 5.6: Anwendungsbei­ spiele – „Effective Corporate Governance“ by Legal Tech & Digital Compliance­, in: Breidenbach/Glatz (Hrsg.), Rechtshandbuch Legal Tech, 2018, S. 137 (142, Rn. 26); ähnlich Wagner, Legal Tech und Legal Robots, 2018, S. 1.



I. Einführung143

2. Begriffe, Entwicklungen, Auswirkungen Der Analyse der technischen und rechtlichen Fragestellungen sollen zu­ nächst einige Begriffsbestimmungen sowie eine kurze Skizze aktueller Ent­ wicklungen und (möglicher) allgemeiner Auswirkungen vorausgehen. a) Begriffe und Einordnung in den juristischen Kontext aa) Algorithmus Die rechtswissenschaftliche Literatur hat keine einheitliche Definition des Begriffs Algorithmus.16 Ein Algorithmus ist – allgemein – eine eindeutige (bedingte) Handlungsvorschrift zur Lösung eines Problems oder einer Gruppe von Problemen, also eine eindeutige, ausführbare Folge von klar definierten Handlungsanweisungen mit endlicher Länge.17 Der Algorithmenbegriff ist nicht der (digitalen) Technik vorbehalten; Kochrezepte oder Lego-Bauanlei­ tungen fallen ebenfalls darunter.18 Auch Menschen nutzen Algorithmen für ihre Entscheidungen. Gegenstand der vorliegenden Untersuchung sind solche Algorithmen, die in Maschinensprache transferiert werden – also Compu­ teralgorithmen, die Computerprogrammen als Grundlage einer Berechnung oder Entscheidung dienen. Vor diesem Hintergrund sind Algorithmen präzise Verarbeitungsvorschriften, die von einem elektronisch arbeitenden Gerät durchgeführt werden können.19 16  Vgl. Wiebe, in: Spindler/Schuster (Hrsg.), Recht der elektronischen Medien, 3. Aufl., 2015, § 69a UrhG, Rn. 22 m. w. N. 17  Vgl. Hoffmann-Riem, AöR 142 (2017), 1 (2 f.). 18  Vgl. auch die Einführung bei Barth, Algorithmik für Einsteiger, 2. Aufl., 2013, S.  3 ff., 114 ff. 19  Kaboth/Spies, in: Ahlberg/Götting (Hrsg.), BeckOK UrhR, 24.  Ed. (Stand: 15.4.2019), § 69a UrhG, Rn. 12. Jedes Computerprogramm in seiner Gesamtheit, aber auch die einzelne Routine eines Computerprogramms ist ein eigener Algorithmus. Algorithmen weisen sechs charakteristische Eigenschaften auf, siehe Czernik, Was ist ein Algorithmus – Definition und Beispiele, datenschutzbeauftragter-info.de vom 14.10.2016: Ein Algorithmus darf keine widersprüchliche Beschreibung haben; diese muss eindeutig sein (Eindeutigkeit). Der Algorithmus muss bei gleichen Vorausset­ zungen stets das gleiche Ergebnis liefern (Determiniertheit). Zu jedem Zeitpunkt der Ausführung besteht höchstens eine Möglichkeit der Fortsetzung, der nächste Hand­ lungsschritt ist dadurch stets eindeutig bestimmt (Determinismus). Jeder Einzelschritt muss ausführbar sein (Ausführbarkeit). Die Beschreibung des Algorithmus muss endlich sein (Finitheit). Nach endlich vielen Schritten muss der Algorithmus enden und ein Ergebnis liefern (Terminiertheit). Daneben werden teilweise die Effektivität – der Algorithmus muss real von einer Maschine ausführbar sein – sowie die Effizi­ enz – der Algorithmus muss möglichst wenig Ressourcen (Speicherplatz und Rechen­ zeit) in Anspruch nehmen – in die Liste der charakteristischen Eigenschaften aufge­

144

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

In der juristischen Bewertung eines Algorithmus ist zu trennen zwischen seiner Implementierung und der Bewertung seiner Funktionsweise, also sei­ nes algorithmischen Entscheidungsprozesses.20 Die Implementierung kann etwa für Gewährleistungsrechte bei der Softwareprogrammierung relevant sein; im Rahmen der Entscheidungsautomatisierung kommt es aber zuvor­ derst auf die Funktionsweise und die Entscheidungskriterien an.21 bb) Expertensystem Ein juristisches Expertensystem22 ist ein Computerprogramm, welches das Wissen eines Experten in Kombination mit logischen Regeln für die Lösung juristischer Probleme verfügbar macht, unabhängig davon, ob das System nur Daten – im weiteren Sinne „Wissen“ – verarbeitet oder aber tat­ sächlich (Künstliche) Intelligenz erzeugt:23 In einem präzise definierten Problemumfeld pressen spezialisierte Experten ihr Wissen in klar definierte Konditionalsätze, um eine fachlich fundierte Problemlösung zu ermöglichen. Expertensysteme agieren nicht selbsttätig, sondern im Dialog mit dem An­ wender. Das zur Problemlösung benötigte Expertenwissen ist zunächst zu identifizieren, im Expertensystem explizit darzustellen und laufend aktuell zu halten. Das Expertensystem ist also kein „System anstelle eines Experten“, sondern ein „System für Experten“.24 nommen. In jedem Fall muss ein Algorithmus allgemeingültig, also abstrakt sein. Das bedeutet, dass er zur Lösung einer Klasse von Problemen, für alle Aufgaben desselben Typs, bestimmt ist. Das einzelne, konkrete Problem wird dann z. B. über die gesam­ melten oder einzugebenden Daten gelöst. Als Kern eines Programms bzw. einer Soft­ ware können Algorithmen Rohdaten sammeln, ordnen, bewerten und – je nach Kom­ plexität – auch interpretieren, vgl. auch Hill, DÖV 2014, 213 (216). Es gibt Algorith­ men, die Daten auswerten und Wissen generieren, um hierdurch Entscheidungskriterien zu ermitteln, sowie Algorithmen zur Entscheidung selbst, vgl. etwa Ertel, Grundkurs Künstliche Intelligenz, 4. Aufl., 2016, S. 197 ff.; Ernst, JZ 2017, 1026 (1026). 20  Vgl. etwa Ernst, Selbstentfaltung und Algorithmeneinsatz, in: Klafki/Würkert/ Winter (Hrsg.), Digitalisierung und Recht, 2017, S. 63 (65). 21  Vgl. Spielkamp, AlgorithmWatch, 3. Arbeitspapier: Unsere Antworten zur An­ hörung zu „Künstlicher Intelligenz“ des Ausschusses Digitale Agenda, 22.3.2017, Punkt 1.1. 22  Expertensysteme sind freilich keine originär juristische Domäne. Vgl. zu Defi­ nition, Zielen und Methodik sowie Struktur von Expertensystemen auch TönsmeyerUzuner, Expertensysteme in der öffentlichen Verwaltung, 2000, S. 26 ff. m. w. N. 23  Kilian, Juristische Expertensysteme, in: Nickel/Roßnagel/Schlink (Hrsg.), Frei­ heit und Macht, 1994, S. 201 (202); Susskind, Modern Law Review 49 (1986), 168 (168 ff.); weitere Nachweise bei Jandach, Juristische Expertensysteme, 1993, S. 6. Grundsätzliche Überlegungen zu juristischen Expertensystemen am anschaulichen Beispiel eines Beratungsprogramms für das schottische Zivilrecht finden sich auch bei Edwards/Huntley, Information & Communications Technology Law 1 (1992), 5 (5 ff.). 24  Philipps, MschrKrim 1998, 263 (269).



I. Einführung145

cc) Big Data Der Begriff Big Data beschreibt die Verarbeitung und Auswertung (sehr) großer Datenmengen, deren Analysen Schlüsse zulassen, die in Ansehung einzelner Datensätze nicht zu vermuten wären.25 Er umfasst die Analyse von Informationen aus qualitativ vielfältigen und unterschiedlich strukturierten Quellen in hoher Geschwindigkeit (auch) mit dem Ziel, wirtschaftlichen Nut­ zen zu erzeugen.26 Primär steht dabei in Rede, entscheidungsrelevante Er­ kenntnisse (wirtschaftlich) sinnvoll zu gewinnen und zu nutzen.27 Big Data ermöglicht es, aus vielen Vergangenheitsdaten auf die Zukunft zu schließen und möglichst Einfluss darauf zu nehmen, wie sich diese Zu­ kunft entwickelt.28 Insoweit scheinen diese Möglichkeiten fast maßge­ schneidert auf manche richterliche Entscheidung zu passen.29 Big Data zeitigt vor allem Gefahren für das Grundrecht auf informationelle Selbstbe­ stimmung30 durch die Tatsache, dass sehr große Datenmengen zu exakteren Rückschlüssen und Ergebnissen führen: Erst durch die Masse an Daten kann manches Muster erkannt, manche verborgene Regelmäßigkeit aufge­ deckt werden.31 25  Ähnlich Fries, NJW 2016, 2860 (2862), der allerdings von „Aggregation“ statt von „Verarbeitung“ spricht und damit den Anwendungsbereich einengt: Es wird nicht zwingend aggregiert (etwa beim Stream Processing). 26  Ohrtmann/Schwiering, NJW 2014, 2984 (2984). Vielfältige Datenquellen wird zukünftig auch das Internet der Dinge liefern, in dem Gegenstände (der Umwelt) mit informationstechnischen Systemen ausgestattet werden, sodass sie vernetzt, identifi­ zierbar und adressierbar sind, über Sensoren Beobachtungen tätigen können und das System auf diese Beobachtungen reagieren kann, vgl. Djeffal, DVBl 2017, 808 (809). Im Bereich der öffentlichen Verwaltung sind Internet-der-Dinge-Anwendungen und darauf beruhende Entscheidungen nicht länger in weiter Ferne, vgl. auch FraunhoferInstitut für Offene Kommunikationssysteme (FOKUS), Public IoT – Das Internet der Dinge im öffentlichen Raum, 2016, S. 9 ff. 27  Big Data umfasst Konzepte, Methoden, Technologien, IT-Architekturen sowie Tools, mit denen sich die Informationsflut in Bahnen lenken lässt, vgl. BITKOM, Leitfaden Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte, 2012, S. 7. 28  Vgl. dazu und zum Folgenden Hofstetter, Sie wissen alles, 2014, S. 118 ff., 125. 29  Modelle geben indes nur dann korrekt Auskunft über die Vergangenheit und lassen sinnvolle Prognosen zu, wenn sie mit sehr großen Datenmengen durchkalku­ liert werden. Wenige Daten besitzen keine statistische Relevanz und lassen daher weniger Rückschlüsse auf die Zukunft zu. In wenigen Daten könnten zufällige Ef­ fekte der Wirklichkeit bzw. Ausreißer aufgezeichnet sein, die in der Realität nur sehr selten auftreten und keine Rolle für den Erkenntnisgewinn spielen. Vgl. dazu etwa Hofstetter, Sie wissen alles, 2014, S. 125. 30  Vgl. Martini, DVBl 2014, 1481 (1483 f.). 31  Dazu ergänzend Ohrtmann/Schwiering, NJW 2014, 2984 (2988 f.).

146

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

dd) Künstliche Intelligenz Mit Künstlicher Intelligenz (KI) sind jenseits der literarischen oder cineas­ tischen Unterhaltung regelmäßig nicht humanoide Roboter gemeint, sondern Software. (1) Überblick Künstliche Intelligenz ist ein Teilbereich der Informatik. Es besteht keine eindeutige Definition des Begriffs „Künstliche Intelligenz“,32 da bereits der Begriff „Intelligenz“ in den verschiedenen Disziplinen nicht einheitlich Ver­ wendung findet.33 Allgemein zielt die KI-Forschung auf den Versuch, eine menschenähnliche Intelligenz künstlich nachzubilden, also die menschliche Intelligenz nachzuahmen.34 Ziel ist also die Automatisierung intelligenten Verhaltens.35 „Intelligenz“ meint dabei die „Fähigkeit, komplexe Ziele zu erreichen“, und „Künstliche Intelligenz“ demnach „nichtbiologische Intelligenz“.36 Unter den aktuellen Anwendungsbereichen Künstlicher Intelli­ genz, die die Schwelle zur Alltagstauglichkeit überschritten haben, sind ins­ besondere Sprach- und Bilderkennung hervorzuheben.37 32  Vgl. die Einführung und Erklärungen bei Kaplan, Artificial intelligence, 2016, S. 1 ff. (siehe auch den Überblick über die Entstehungsgeschichte, S. 13 ff.), sowie Albert/Böhm et al., Künstliche Intelligenz – endlich verständlich, Spiegel Online vom 4.1.2017. 33  Vgl. zur Begrifflichkeit und zu den Übersetzungsproblemen, „artificial intelligence“ mit „künstlicher Intelligenz“ gleichzusetzen, Herberger, NJW 2018, 2825 (2826 f.). 34  Vgl. die Definitionen bei Ertel, Grundkurs Künstliche Intelligenz, 4. Aufl., 2016, S. 1 f., sowie Mainzer, Künstliche Intelligenz, 2016, S. 2. Fries, NJW 2016, 2860 (2862, dort Fn. 29), versteht darunter – etwas unspezifischer – „digitale Ak­ teure, die sinnvolle Entscheidungen treffen können, die ihr menschlicher Auftragge­ ber nicht mehr versteht“. Informationstechnische Systeme, welche Künstliche Intelli­ genz „erzeugen“, bezeichnet die Informatik aufgrund ihrer eigenständigen Lösungssu­ che als – handelnde – „Agenten“, vgl. etwa Ertel, a. a. O., S.  18 ff.; Kirn/MüllerHengstenberg, MMR 2014, 225 (226) m. w. N. Die Ideen und Algorithmen hinter Künstlicher Intelligenz sind nicht neu; die massiv gesteigerte Rechenleistung und große Datenmengen führen aber zu bislang ungekannter Leistungsfähigkeit. 35  Teilweise steht auch die Fähigkeit zur Simulation menschlichen Handelns in Rede, vgl. Ernst, JZ 2017, 1026 (1027) m. w. N. 36  Vgl. Tegmark, Leben 3.0, 2017, S. 63 f. Aufgrund der Schnelligkeit technischer Entwicklungen wird es ohnehin immer schwieriger, menschliche von maschineller Intelligenz qualitativ zu unterscheiden, vgl. Meckel, APuZ 7 (2012), 33 (37 f.). Vgl. aber auch Gabriel, Der Sinn des Denkens, 2018, S. 23 ff., insbesondere S. 29 und S. 32, der davon ausgeht, dass „Denken“ unabänderlich ein natürlicher Vorgang ist und sich daher nicht durch „Künstliche Intelligenz“ abbilden lässt. 37  Aus dem Alltag westlicher Industriegesellschaften sind Anwendungen wie Spracherkennung, Produkt- oder Filmempfehlungen, Übersetzungssoftware oder die



I. Einführung147

Bisherige Systeme Künstlicher Intelligenz besitzen relativ begrenzte Mög­ lichkeiten: Sie können (nur) eine limitierte Anzahl von Zielen erreichen, etwa ein Fahrzeug fahren oder ein Spiel erfolgreich spielen. Eine sog. starke oder allgemeine Künstliche Intelligenz – ein technisches System mit der Fä­ higkeit, jede beliebige kognitive Aufgabe mindestens genauso gut zu erfüllen wie Menschen (einschließlich Lernen) – gibt es derzeit nicht.38 Intelligente Programme sind bislang auf einzelne Aufgaben hin zugeschnitten.39 Schach­ programme etwa spielen (nur) sehr gut Schach – IBMs Computer Deep Blue konnte 1997 erstmals den Schachweltmeister Garri Kasparow schlagen, aber nicht ohne Weiteres gegen ein fünfjähriges Kind im „Mensch ärgere dich nicht“ gewinnen; Alpha Go spielt (nur) sehr gut „Go“ usw.40 (2) Maschinelles Lernen „Intelligenz“ entwickeln informationstechnische Systeme qua ihrer Fähig­ keit, aus gegebenen Daten selbstständig zu lernen.41 Sie können dadurch neue Daten (Input) in Entscheidungen bzw. Handlungen (Output) umwan­ deln, ohne dass der Entscheidungsprozess en détail durch menschliche Pro­ grammierung vorgezeichnet ist. Die Entscheidungsfindung ist gerade durch die Lernerfahrungen des Systems mitkonditioniert. Der Einsatz intelligenter Systeme hat daher nicht nur unvorhergesehene, sondern auch strukturell un­ vorhersehbare Effekte.42 Maschinelle Lernverfahren bieten sich besonders automatisierte Aufdeckung von Kreditkartenbetrug kaum mehr wegzudenken; derzeit gesellt sich auch das vollautomatisierte Fahren zu dieser Auflistung. 38  Tegmark, Leben 3.0, 2017, S. 64. 39  Vgl. auch Ramge, APuZ 6–8 (2018), 15 (20 f.). 40  Vgl. Witt, Künstliche Intelligenz beendet menschliche Dominanz, Welt Online vom 13.12.2017. Obgleich dessen Nachfolger „AlphaZero“ nur anhand der einpro­ grammierten Spielregeln und durch Spielen gegen sich selbst lernt und dadurch kein Training mit menschlichen Gegnern mehr benötigt (sog. reinforcement learning bzw. bestärkendes Lernen), bleibt es dabei: Systeme Künstlicher Intelligenz sind immer auf konkrete Aufgaben hin optimiert. Eine allgemeine bzw. starke Künstliche Intelli­ genz setzte die Autonomie voraus, sich selbst beliebige Informationen und Aufgaben anzueignen. Insofern ist die menschliche Intelligenz bislang noch sehr viel breiter gefächert und wenig vergleichbar. Es ist dennoch wünschenswert, grundlegende ethi­ sche Fragen gesellschaftlich debattiert zu haben, bevor eine starke Künstliche Intelli­ genz Realität ist – nicht nur innerhalb der Technikbranche (vgl. etwa Kerkmann/Steger, SAP zieht Grenzen für das virtuelle Gehirn, Handelsblatt Online vom 18.1.2018), sondern auch und gerade in Politik und Öffentlichkeit. Die Rechtswissenschaft jeden­ falls sollte Antworten liefern können, wenn die technische Entwicklung rechtspoliti­ sche Maßnahmen verlangt. 41  Ertel, Grundkurs Künstliche Intelligenz, 4. Aufl., 2016, S. 3. 42  Wischmeyer, AöR 143 (2018), 1 (3) m. w. N.

148

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

dafür an, die Folgen neuer, unbekannter Fälle vorherzusagen.43 Machine learning umfasst als Teilgebiet der KI-Forschung die „Anwendung und Er­ forschung von Verfahren, durch die Computersysteme befähigt werden, selbstständig Wissen aufzunehmen und zu erweitern, um ein gegebenes Pro­ blem besser lösen zu können als vorher“.44 Es gibt überwachtes und unüberwachtes Lernen.45 Die Systeme erkennen Muster und Zusammenhänge bzw. (logische) Gesetzmäßigkeiten46 und sind dann per Transfer idealiter in der Lage, auch neue, unbekannte Fälle zu lö­ sen und zu bewerten, insbesondere unbekannte Daten zu beurteilen. „Ler­ nen“ ist dabei ebenso wie der Begriff der (Künstlichen) Intelligenz eine Vermenschlichung: Algorithmen „lernen“ entweder auf der Grundlage einer vorhandenen Datenbasis, deren Parameter und Problemlösungsmodelle be­ kannt sind („unter Aufsicht“), oder auf der Grundlage prognostizierter Sach­ verhalte, in denen nur die Eingangsparameter bekannt sind – nicht aber die gesuchte Lösung („unbeaufsichtigt“).47 Beim maschinellen Lernen kommt insoweit kein klassischer Programmcode zum Einsatz, mit dessen Hilfe ein Programm oder ein Algorithmus unmittelbar in der Lage ist, ein bestimmtes Problem oder eine Gattung von Problemen zu lösen. Die Programmierung zielt darauf, Mustern und Ähnlichkeiten zu erkennen, und erlaubt dem Sys­ tem fallbasierte Rückschlüsse auf den Einzelfall: Auf die (dynamische) Trainings- bzw. Lernphase, in der es Muster und Gesetzmäßigkeiten zu er­ kennen gilt, folgt die (statische) Inferenzphase, in der das System die Ergeb­ nisse aus der Lernphase verallgemeinert und auf artverwandte Problemstel­ lungen transferiert.48

43  Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 108  f. Die drei Hauptelemente intelligenter Systeme sind: große Datenmengen, lernfähige Algorith­ men und menschliche Supervision, vgl. Wischmeyer, AöR 143 (2018), 1 (9 ff.). 44  Siepermann, Stichwort: maschinelles Lernen, in: Springer Gabler (Hrsg.), Gab­ ler Wirtschaftslexikon, 2018. Das geschieht mit Hilfe spezieller Algorithmen, siehe etwa Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 114, 234 ff., 251 ff. 45  Vgl. die Übersicht bei Fischer, Algorithmisches Lernen, 1999, S. 2 ff.; Frochte, Maschinelles Lernen, 2018, S. 13 ff. (sowie 117 ff. zu Entscheidungsbäumen bei ma­ schinellen Lernverfahren). Daneben gibt es auch das sog. bestärkende Lernen. 46  Reitmaier, Aktives Lernen für Klassifikationsprobleme unter der Nutzung von Strukturinformationen, 2015, S. 1 f. 47  Vgl. Rey/Wender, Neuronale Netze, 3.  Aufl., 2018, S. 28; Russell/Norvig, Künstliche Intelligenz, 3. Aufl., 2012, S. 694 f. Supervised (überwachtes), unsupervised (unüberwachtes) und reinforcement learning (verstärkendes Lernen) unterschei­ den sich vor allem nach der Art des Feedbacks, anhand dessen der Algorithmus trai­ niert wird und nach welchem er das intendierte Ziel besser erreichen soll. 48  Yuan, RW 2018, 477 (483 ff.).



I. Einführung149

(3) Künstliche neuronale Netze Eine Möglichkeit, maschinelles Lernen zu erreichen, bieten künstliche neuronale Netze.49 Künstliche neuronale Netze sind an biologischen Struk­ turen im Gehirn orientiert.50 Sie können darauf trainiert werden, Muster zu erkennen und zu benennen sowie komplexe Entscheidungen zu treffen.51 Die Netze bestehen aus Verknüpfungen und Knoten, die jeweils durch be­ stimmte logistische Funktionen und Schwellenwerte aktiviert werden.52 Mustererkennung und Vorhersagemodelle sind die zentralen Elemente; den „Sinn“ einer Vorgabe oder Vorschrift, die Intention des Vorschriftengebers o. Ä. können die bislang konstruierten Systeme aber nicht ergründen. (4) Statische und dynamische Systeme Hinsichtlich der Möglichkeiten für automatisierte Entscheidungen lassen sich zwei grundsätzliche Vorgehensweisen ausmachen: Auf der einen Seite stehen regelgeleitete bzw. regelbasierte Systeme, auf der anderen Seite daten­ 49  Mainzer,

Künstliche Intelligenz, 2016, S. 99 ff. Netze sind in Schichten aufgebaut: Die Neuronen der Eingangsschicht er­ halten Daten von der Außenwelt; es folgen die (mitunter zahlreichen, verborgenen) Zwischenschichten; sodann die Ausgangsschicht, die die Ergebnisse als Output an die Außenwelt liefert. Siehe zum Aufbau etwa Grüter, Im „Kopf“ von künstlichen neuro­ nalen Netzen, Spektrum.de vom 3.9.2018. Ein Unterfall des maschinellen Lernens in neuronalen Netzen ist das sog. Deep Learning, bei dem das Netz nicht nur eine Input(für die Eingabe) und eine Output-Schicht (für das Ergebnis) aufweist, sondern noch mindestens eine „verborgene“ Schicht (engl. hidden layer), vgl. Russell/Norvig, Künstliche Intelligenz, 3. Aufl., 2012, S. 729. So ist bspw. im Bereich der Sprach­ übersetzung das System „DeepL“ (abrufbar unter https://www.deepl.com/translator) sogar noch besser als Googles herkömmlicher Translator, weil es auch die jeweilige Grammatik gut beherrscht: Das vergleichsweise neue Element des Deep Learning ist, dass die Systeme sehr gut aus ihren eigenen Fehlern lernen und sich daher stetig verbessern können. Künstlichen neuronalen Netzen ist insbesondere durch die verbor­ genen Schichten das Risiko der fehlenden oder unvollständigen Nachvollziehbarkeit immanent: Den Begriff der Blackbox populär gemacht hat wohl Frank Pasquale, vgl. Pasquale, The Black Box Society, 2016; er taucht aber auch in der deutschen Litera­ tur schon deutlich früher auf, vgl. Kilian, Juristische Entscheidung und elektronische Datenverarbeitung, 1974, S. 4, sowie Nauck/Klawonn et al., Neuronale Netze und Fuzzy-Systeme, 1994, S. 3. Sofern alle Entscheidungsparameter offenliegen, diese aber so zahlreich sind, dass Menschen sie nicht mehr überblicken (können), ist der Begriff „Blackbox“ missverständlich, vgl. Merkert, c’t 2018, 134 (135). 51  Ertel, Grundkurs Künstliche Intelligenz, 4. Aufl., 2016, S. 265 ff.; Frochte, Ma­ schinelles Lernen, 2018, S. 161 ff. 52  Russell/Norvig, Künstliche Intelligenz, 3. Aufl., 2012, S. 846 f. Anschaulich zu Aufbau, Funktionsweise und Problemen künstlicher neuronaler Netze auch Merkert, c‘t 2018, 134 (135 ff.). 50  Die

150

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

basierte Anwendungen Künstlicher Intelligenz. Die Arbeitsweise ist entweder deduktiv oder induktiv,53 die Programmierung entweder explizit oder (daten­ getrieben bzw.) implizit.54 Nicht nur technisch, sondern besonders für die rechtliche Bewertung (etwa im Rahmen der Grundsätze der Transparenz und der Demokratie)55 ist daher zwischen explizit regelgeleiteten Systemen statischer Entscheidungsfindung einerseits und dynamischen Systemen, die mit gelernten und selbstdefinier­ ten Regeln operieren, andererseits zu unterscheiden. Während erstere ihre Entscheidungen unmittelbar aufgrund des durch Menschen definierten Regel­ werks, mithin explizit repräsentierten Wissens, statisch treffen, definieren und finden letztere (bspw. künstliche neuronale Netze) ihre Vorgaben der Entscheidungsfindung selbst, was grundsätzlich ein höheres Maß an Intrans­ parenz mit sich bringt.56 ee) Neue Technologien und Automatisierung Der Terminus neue Technologien versteht sich im Folgenden als die Ge­ samtheit technischer Datenverarbeitungssysteme, die Entscheidungen treffen oder diese vorbereiten können, sofern die Überlegungen nicht auf einen speziellen Bereich, z. B. auf Künstliche Intelligenz, angelegt sind. Umfasst sollen damit also auch Softwareanwendungen, Entscheidungsunterstützungs­ systeme sowie die zugrundeliegenden Algorithmen sein. Die Begriffe automatisiert, vollständig automatisiert und ausschließlich automationsgestützt bedürfen nachfolgend keiner strikten Differenzierung.57 In Rede stehen technische Einrichtungen, in der Regel EDV-Anlagen, die nach (zumindest grob) zuvor festgelegten Parametern automatisch – also ohne entscheidungserhebliches menschliches Einwirken bzw. Dazwischentre­ 53  Grupp, Kapitel 7.1: Wie baut man einen Rechtsautomaten?, in: Hartung/Bues/ Halbleib (Hrsg.), Legal Tech, 2018, S. 259 (260 ff.). 54  Bünau, Abschn. 3: Künstliche Intelligenz im Recht, in: Breidenbach/Glatz (Hrsg.), Rechtshandbuch Legal Tech, 2018, S. 47 (50 f.). Ebenfalls gebräuchlich ist die Unterscheidung zwischen „symbolischen“ und „subsymbolischen“ Systemen. 55  Dazu unten S. 325 ff. sowie 335 ff. 56  Vgl. etwa Zweig, AlgorithmWatch, 2. Arbeitspapier: Überprüfbarkeit von Algo­ rithmen, 7.6.2016. 57  Die Terminologie orientiert sich dabei (auch) am Gesetz: § 35a VwVfG etwa erfasst den „vollständig durch automatische Einrichtungen erlassen[en]“ Verwaltungs­ akt, die parallele Verfahrensvorschrift § 155 Abs. 4 AO benennt den „ausschließlich automationsgestützt“ erlassenen Steuerverwaltungsakt. In der Sache meinen beide Vorschriften dasselbe, und auch vorliegend bedarf es keiner terminologischen Unter­ scheidung.



I. Einführung151

ten – agieren.58 So beschreibt auch die DIN-Definition der Automatisierung „das Ausrüsten einer Einrichtung, so dass sie ganz oder teilweise ohne Mit­ wirkung des Menschen bestimmungsgemäß arbeitet.“59 Diese umfasst ter­ minologisch bisherige Automatisierungsbeispiele wie den vollständig auto­ matisierten Erlass eines Verwaltungsaktes (§ 35a VwVfG); überdies erlaubt es diese Terminologie, im Automatisierungskontext zwischen bestimmungs­ gemäßem Arbeiten „ganz ohne Mitwirkung des Menschen“ und „teilweise ohne Mitwirkung des Menschen“ zu differenzieren.60 ff) Entscheidungsunterstützungssystem Ein Entscheidungsunterstützungssystem (engl. decision support system, „DSS“) ist ein computergestütztes Planungs- und Informationssystem, das relevante Informationen für einen menschlichen Entscheider ermittelt, aufbe­ reitet, übersichtlich zusammenstellt und bei der Auswertung hilft.61 Die In­ terpretation, Bewertung und Beurteilung der Informationen sowie die Ent­ scheidungsfindung selbst verbleiben in menschlicher Hand. gg) Autonome Systeme Autonome Systeme sind solche Systeme, deren Verhalten nicht vollständig vorherbestimmt oder vorhersehbar ist.62 Die Selbstregulation bzw. -steuerung autonomer Systeme basiert auf Elementen der Wahrnehmung und Interpreta­ 58  Vgl. auch Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22 DSGVO, Rn.  16 ff.; Prell, apf 2017, 237 (239). Wie die beiden zitierten Vorschriften sind auch die (rechtlichen) Ausführungen vorliegend zumeist technikoffen gehalten, um auf einer abstrakten, grundsätzlichen Ebene ansetzen zu können. 59  So die Definition des Deutschen Instituts für Normung e. V., DIN V 19233: Leittechnik – Prozessautomatisierung – Automatisierung mit Prozessrechensystemen, Begriffe. 60  Vgl. zu Schwierigkeiten in der Terminologie ergänzend Herberger, Rethinking Law 2/2019, 42 (42 f.). 61  Vgl. Lackes/Siepermann, Stichwort: Decision Support System (DSS), in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, 2018. Zu Möglichkeiten der Ent­ scheidungsunterstützung des Richters siehe unten S. 363 ff. 62  Borges, NJW 2018, 977 (978). Bezüglich der Automatisierungsgrade lassen sich unterscheiden: ferngesteuerte Systeme, Assistenzsysteme, automatisierte Systeme (die Teilaufgaben selbstständig erledigen können) und autonome Systeme. Die dem Präsidenten der EU-Kommission angegliederte European Group on Ethics in Science and New Technologies weist darauf hin, dass der Begriff „autonom“ historisch-philo­ sophisch den freiheitlichen, eigenständig handelnden und verantwortlichen Menschen meint, vgl. European Group on Ethics in Science and New Technologies, Statement on Artifcial Intelligence, Robotics and ‚Autonomous‘ Systems, 2018, S. 9.

152

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

tion, der Planung und Planerkennung, des Lernens und Schlussfolgerns sowie der Kommunikation und Kollaboration.63 Autonome Systeme können eigen­ ständig neue Lösungswege entwickeln, die die Entwickler nicht exakt ein­ programmiert haben; das System kann selbst erkennen, wann es eine Aufgabe erfüllen muss, und handelt dann entsprechend.64 Ein autonomes System mu­ tiert selbst zum Entscheider, während ansonsten die (menschliche) Entschei­ dung lediglich vorverlagert wird auf den Zeitpunkt der Programmierung bzw. Implementierung.65 b) Bisherige Automatisierungsbeispiele und aktuelle Entwicklungen Derart weit fortgeschritten wie in manch anderen Ländern ist der hoheitli­ che, insbesondere justizielle Technikeinsatz in Deutschland nicht. So kommen bspw. in den USA Algorithmen zum Einsatz, die Richter unmittelbar bei Ent­ scheidungen im Strafprozess unterstützen sollen, etwa zur Frage, ob ein Straf­ täter auf freiem Fuß bleiben darf oder in Untersuchungshaft genommen wird.66 In Estland arbeitet man an einer Software, die in zivilrechtlichen Streitigkeiten mit einer geringen Schadenssumme vollautomatisch juristische Entscheidun­ gen generiert.67 In Dänemark laufen Zivilprozesse seit 2018 zuvorderst elek­ 63  Fachforum Autonome Systeme im Hightech-Forum, Autonome Systeme – Chancen und Risiken für Wirtschaft, Wissenschaft und Gesellschaft, 2017, S. 7 f. 64  Den Unterschied vom (voll-)automatisierten zum autonomen System kann die Forschung am autonomen Fahrzeug illustrieren: Im Fahrzeug mit (voll)automatisier­ tem Fahrsystem hat der Fahrer immer die volle Verantwortung; er kann großteils an­ dere Dinge tun und steuert nicht durchgehend, muss aber eingreifen in Situationen, die die Maschine nicht beherrschen kann. Dagegen muss ein autonomes Fahrzeugsys­ tem alle Verkehrssituationen einschließlich Sondersituationen beherrschen. 65  Im Bereich staatlich eingesetzter autonomer Systeme träte ein solches gewis­ sermaßen eigenständig als „Amtsperson“ auf – mit offenen Folgefragen zur Nachvoll­ ziehbarkeit und Transparenz der hoheitlichen Entscheidung sowie besonders deren demokratischer Legitimation. Mit den Rechtsproblemen Des Einsatzes autonomer Systeme befasste sich bislang in erster Linie das Zivilrecht – von Interesse sind z. B. die Rechtsfähigkeit der Systeme oder das Haftungsrecht, vgl. Schulz, Verantwortlich­ keit bei autonom agierenden Systemen, 2015; Fatalin, Haftung autonomer Systeme, 2016; Hilgendorf (Hrsg.), Autonome Systeme und neue Mobilität, 2017; Hilgendorf/ Seidel (Hrsg.), Robotics, Autonomics, and the Law, 2017. Siehe aus öffentlich-recht­ licher Perspektive zum Gesichtspunkt der Zurechnung des Handelns autonomer Sys­ teme zum Staat Meyer, Der Einsatz von Robotern zur Gefahrenabwehr, in: Hilgendorf (Hrsg.), Robotik im Kontext von Recht und Moral, 2014, S. 211 (211 ff.). 66  Siehe zum Einsatz algorithmenbasierter Unterstützungssysteme in den USA ausführlich unten S. 375 ff. 67  Vgl.  Niiler, Can AI Be a Fair Judge in Court? Estonia Thinks So, wired.com vom 25.3.2019; siehe auch das Interview mit dem Digitalisierungsbeauftragten der estnischen Regierung, Velsberg, Estland: Roboter als Richter, MDR Aktuell vom 26.4.2019. Dazu auch unten S. 449.



I. Einführung153

tronisch ab.68 Ein dystopisches Szenario zeichnet sich unterdessen in China ab: Ein „Sozialkreditpunktesystem“ genanntes Kontroll- und Überwachungs­ system bewertet, ähnlich einer Rating-Agentur, jeden Bürger und „lenkt“ ihn zu einem gewünschten Verhalten.69 Die Idee, der Staat könnte sich neue Tech­ nologien zunutze machen, ist aber selbstverständlich auch in Deutschland nicht neu. Die Besoldungsstelle der Bundesfinanzverwaltung z. B. bearbeitete erstmals 1956 massenhaft Zahlungen mit Hilfe von Lochkartenmaschinen.70 Es folgten viele weitere, hier kurz skizzierte Anwendungsbereiche.71 aa) Beispiele im hoheitlichen Einsatz (allgemein) (1) Besteuerungsverfahren Ein jüngeres Automatisierungsbeispiel liefert das Gesetz zur Modernisierung des Besteuerungsverfahrens vom 18.7.2016.72 § 155 Abs. 4 S. 1 AO gestattet den Finanzbehörden, Steuerfestsetzungen sowie Anrechnungen von Steuerab­ zugsbeträgen und Vorauszahlungen ausschließlich automationsgestützt vorzu­ nehmen, zu berichtigen, zurückzunehmen, zu widerrufen, aufzuheben oder zu ändern. Dies erfolgt „auf der Grundlage der ihnen vorliegenden Informationen und der Angaben des Steuerpflichtigen“ und ist nur zulässig, „soweit kein An­ lass dazu besteht, den Einzelfall durch Amtsträger zu bearbeiten“.73 68  Dazu Justizministerkonferenz 2019, Legal Tech: Herausforderungen für die Justiz, 1.7.2019, S. 9, 75 ff. m. w. N. 69  Dazu Ankenbrand, China plant die totale Überwachung, FAZ Online vom 22.11.2017, sowie Lee, Die AAA-Bürger, ZEIT Online vom 30.11.2017. Ziele des Systems sind „Gesetzestreue, moralisches Wohlverhalten, soziales Engagement, Akti­ vitäten im öffentlichen Interesse und Umweltschutz“ jedes Bürgers. Abweichungen von sozialen und moralischen Normen, darunter auch „Verstöße“ wie das Fahren ausländischer Oberklasseautos, werden bestraft; wer sich gesund ernährt (etwa online Biogemüse bestellt), an Gesetze hält und Sport treibt, sammelt Pluspunkte und Beloh­ nungen in Form von Vergünstigungen. Der „Punktestand“ kann Auswirkungen auf Krankenversicherung und Gesundheitsleistungen, Bewerbungen, Kreditvergaben, den Wohnungsmarkt oder die Vergabe von Schul- und Studienplätzen der Kinder zeitigen. Bei schlechtem Score droht gar ein Jobverlust. Bislang ist die „Teilnahme“ an dem System freiwillig, es wird in einigen Pilotstädten getestet. Ab 2020 soll das System verbindlich für sämtliche Einwohner Chinas gelten. 70  Vgl. BT-Drucks. VI/648, S. 7. 71  Siehe zu Plänen für ein „Beschleunigtes Online-Verfahren“, das den Zivilpro­ zess in Deutschland bei Streitwerten bis 2000 € bürgerfreundlicher und moderner gestalten soll, ausführlich Justizministerkonferenz 2019, Legal Tech: Herausforderun­ gen für die Justiz, 1.7.2019, S. 78 ff. 72  BGBl. I 2016, S. 1679. 73  Dieser Zusatz verdient besondere Beachtung. Wann das der Fall ist, regelt S. 3: Danach liegt ein solcher Anlass insbesondere dann vor, wenn und „soweit der Steu­

154

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Dem Gesetzgeber ging es bei dieser Verfahrensautomatisierung in erster Linie um Bürokratieabbau und die Steigerung der Effizienz.74 Diese Aspekte sind zwar auch in der Justiz(verwaltung) durchaus zu beachten:75 „Der Rechtsstaat ist nicht effizienzblind“.76 Im Fokus steht dort allerdings die Ein­ zelfallgerechtigkeit, mithin die Qualität der gerichtlichen Entscheidungen.77 Die Rückschlüsse, die sich aus dem Gesetz zur Modernisierung des Be­ steuerungsverfahrens auf etwaige Automatisierungsbestrebungen in der Justiz ziehen lassen, sind begrenzt. Beim Erlass eines Steuerbescheides besteht durchschnittlich weniger (Ermessens-)Spielraum als bei gerichtlichen Ent­ scheidungen: Die Höhe der Steuerfestsetzung und die Prüfung der einzelnen Positionen sind strikt geregelt und stehen nicht zur Disposition bzw. im Er­ messen des Amtswalters. Daher besteht grundsätzlich auch eine geringere Anfälligkeit für kognitive Verzerrungen oder vorurteilsbelastete Entscheidun­ gen. Gleichzeitig stellen sich nicht die Probleme, die ein Algorithmeneinsatz im Hinblick auf Ermessensentscheidungen im Übrigen aufweist. Das Besteu­ erungsverfahren ist somit geradezu prädestiniert dazu, „Vorreiter“ algorith­ mengesteuerter Entscheidungen zu sein.78 erpflichtige in einem dafür vorgesehenen Abschnitt oder Datenfeld der Steuererklä­ rung Angaben im Sinne des § 150 Abs. 7 gemacht hat“. Wie das Wort „insbesondere“ zeigt, sind auch weitere Fälle denkbar, in denen es der Bearbeitung durch einen Amtswalter bedarf. § 150 Abs. 7 AO konkretisiert § 155 Abs. 4 S. 3 AO auf diejeni­ gen Angaben des Steuerpflichtigen, „die nach seiner Auffassung Anlass für eine Be­ arbeitung durch Amtsträger sind“. Der Steuerpflichtige entscheidet also letztlich selbst, welche Angaben er weiterhin durch einen Menschen prüfen lassen will. 74  BT-Drs. 18/7457, S.  46  f., S. 58, S. 119; Beirat Verwaltungsverfahrensrecht beim Bundesministerium des Innern, NVwZ 2015, 1114 (1115); vgl. auch Siegel, DVBl 2017, 24 (25). 75  So spricht etwa das LSG Baden-Württemberg, Beschl. v. 10.8.2015 – L 12 AS 2359/15 WA –, juris, Rn. 18, von einem „auch für die Gerichte geltenden Grundsatz der Effizienz staatlichen Handelns“ sowie dem „öffentlichen Interesse an einer effizi­ enten Rechtspflege“. 76  Pitschas, Verwaltung und Verwaltungsgerichtsbarkeit im staatlichen Moderni­ sierungsprozeß, in: Blümel/Pitschas (Hrsg.), Verwaltungsverfahren und Verwaltungs­ prozeß im Wandel der Staatsfunktionen, 1997, S. 27 (62). Vgl. auch Hoffmann-Riem, Modernisierung von Recht und Justiz, 2001, S. 211 ff., insbesondere 228 f. 77  Soweit die Automatisierung im Idealfall dazu beitragen kann, die durch menschliche Fehler entstehenden Verzerrungen bzw. Fehlentscheidungen und -ein­ schätzungen zu verhindern oder immerhin zu reduzieren, ist das immerhin ein positi­ ver Nebeneffekt. Ohne personelle Bearbeitung kann es zudem keine Befangenheits­ probleme (vgl. etwa § 83 AO sowie §§ 20, 21 VwVfG) mehr geben – Neutralität und Objektivität sind willkommene, vom Gesetzgeber allerdings nicht in die Gesetzesbe­ gründung aufgenommene, Nebeneffekte. Vgl. auch Schmitz/Prell, NVwZ 2016, 1273 (1277). 78  Denn im Regelfall ist die Entscheidung eine gebundene und keine Ermessens­ entscheidung: Wenn bestimmte Tatbestandsvoraussetzungen erfüllt sind, hat die Fi­



I. Einführung155

(2) Allgemeines und Sozialverwaltungsverfahrensrecht Der im Gleichlauf mit § 155 Abs. 4 AO erlassene § 35a VwVfG sieht ebenfalls den vollständig automatisierten Erlass eines Verwaltungsaktes vor – sofern dies durch Rechtsvorschrift zugelassen ist und weder ein Ermes­ sens- noch ein Beurteilungsspielraum besteht.79 § 35a VwVfG votiert damit für eine Zulässigkeit automatisiert erlassener Verwaltungsakte, jedoch aus­ schließlich für gebundene Entscheidungen.80 Mit § 35a VwVfG hat der Gesetzgeber den Weg ausdrücklich freigemacht für eine Automatisierung weiterer, im Einzelnen fachrechtlich zu regelnden Verfahren. Auch das sozialrechtliche Verwaltungsverfahren hat im Zuge des Gesetzes zur Modernisierung des Besteuerungsverfahrens eine Neuerung erfahren. Die Vorschrift des § 31a SGB X gestattet nunmehr den Erlass vollautomatisch generierter Sozialverwaltungsakte.81 Gerade in der Sozialverwaltung bieten sich dafür viele standardisierte und eher rechen- als entscheidungsintensive Verfahren besonders an, etwa die Gewährung standardisierter Sozialleistun­ gen.82

nanzbehörde im Grundsatz kein Ermessen in der Frage, ob und in welcher Höhe sie Steuern erhebt, vgl. Braun Binder, NVwZ 2016, 960 (961). 79  Soll-Vorschriften und Fälle mit intendiertem Ermessen fallen hierneben nicht ins Gewicht. Vgl. zu § 35a VwVfG auch unten S. 185 f. 80  Vgl. nur Schmitz/Prell, NVwZ 2016, 1273 (1276); Prell, apf 2017, 237 (238 f.). Siehe zu den Anforderungen des § 35a VwVfG im Einzelnen auch Martini/Nink, DVBl 2018, 1128 (1129 ff.). Sehr kritisch zur den neuen Regelungen in § 35a und § 24 Abs. 1 S. 3 VwVfG Stegmüller, NVwZ 2018, 353 (355 ff.), der Notwendigkeit und Nutzen der Vorschriften anzweifelt und davon ausgeht, dass eine „pragmatische Rechtsfortbildung“ der bessere und einfachere Weg zur Zulässigkeit vollautomati­ scher Verwaltungsakte gewesen wäre. Siehe auch die Erwiderung auf Stegmüller von Ziekow, NVwZ 2018, 1169 (1169 ff.). 81  Um die gewonnene Effizienzsteigerung nicht durch einen Medienbruch wieder zu untergraben, hat der Gesetzgeber eine zusätzliche Form der Bekanntgabe elektro­ nischer Verwaltungsakte zugelassen: § 41 II a VwVfG ermöglicht es der Behörde, den Verwaltungsakt dadurch bekanntzugeben, dass der Adressat ihn über öffentlich zugängliche Netze (sog. Verwaltungsportale) abruft. § 37 Abs. 2a SGB X und § 122 AO enthalten parallele Regelungen. Zur elektronischen Bekanntgabe über Behörden­ portale ausführlich Braun Binder, NVwZ 2016, 342 (343 ff.); siehe auch Bull, DVBl 2017, 409 (409 ff.). 82  Die Gesetzesbegründung nennt beispielhaft die automatische Anpassung lau­ fender Sozialleistungen, vgl. BT-Drs. 18/8434, S. 121 (Beschlussempfehlung und Bericht des Finanzausschusses zu dem Gesetzentwurf der Bundesregierung – Entwurf eines Gesetzes zur Modernisierung des Besteuerungsverfahrens). Der Gesetzentwurf der Bundesregierung (BT-Drs. 18/7457) sah § 35a VwVfG und § 31a SGB X noch gar nicht vor: Die Änderungen dieser beiden Verfahrensregelwerke kamen erst im Laufe des Gesetzgebungsprozesses für das Gesetz zur Modernisierung des Besteue­

156

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(3) Zivilgerichtliches Mahnverfahren Den Wandlungsprozess hin zur „maschinellen Entscheidung“ hat das zivil­ gerichtliche Mahnverfahren (§§ 688 ff. ZPO) längst vollführt. Das Gesetz zur Vereinfachung und Beschleunigung gerichtlicher Verfahren (Vereinfachungs­ novelle) vom 3.12.197683 legte mit § 689 Abs. 1 S. 2 ZPO den Grundstein; alle Bundesländer haben daraufhin die maschinelle Bearbeitung eingeführt (vgl. § 703c Abs. 3 ZPO).84 Die Vereinfachungsnovelle mitsamt der Auto­ matisierung des Mahnverfahrens hatte zum Ziel, die Verfahrensdauer zu verkürzen und dadurch die Rechtsschutzfunktion sowie das Vertrauen in die Rechtspflege sicherzustellen: Die Verfahren sollten schneller, besser und kostengünstiger ablaufen.85 Die Automation bzw. Automatisierung des Mahnverfahrens ist nicht ver­ gleichbar mit Verfahren, in denen eine Tatsachen- oder Rechtsprüfung er­ folgt. Das Mahnverfahren ist nach § 688 Abs. 1 ZPO (nur) bei Ansprüchen auf Zahlung einer bestimmen Geldsumme zulässig.86 Im Rahmen des auto­ matisierten Verfahrens findet keine Tatsachenprüfung bezüglich des An­ spruchs statt. Der Antrag wird nicht auf Schlüssigkeit im engeren Sinne geprüft:87 § 690 Abs. 1 Nr. 3 ZPO verlangt im Hinblick auf eine spätere Vollstreckung nur die individualisierte „Bezeichnung des Anspruchs“, nicht (mehr) dessen schlüssige Darlegung.88 Das System prüft daneben lediglich die Plausibilität des Anspruchs – § 690 Abs. 1 Nr. 3 ZPO gebietet keine Be­ schränkung auf rein formale Aspekte. Eine Begründetheitsprüfung des gel­ tend gemachten Anspruchs findet nicht statt.89 rungsverfahrens hinzu. Vgl. zum sozialverwaltungsrechtlichen Vorverfahren Martini/ Nink, DVBl 2018, 1128 (1132 f.). 83  BGBl. I, S. 3281. 84  Zu Geschichte und Hintergrund der Automatisierung des Mahnverfahrens Keller, NJW 1981, 1184 (1184 ff.); Mayer, NJW 1983, 92 (92 ff.); Sujecki, MMR 2006, 369 (369 ff.). Es lässt sich freilich darüber streiten, ob dies tatsächlich eine Form der „Vollautomation“ darstellt. 85  Vgl. BT-Drs. 7/2729, S. 1: „Rationalisierung des Mahnverfahrens, die den Ein­ satz automatisierter Datenverarbeitungsanlagen ermöglicht, bei zugleich verbessertem Schutz des Schuldners“. Siehe zu dieser Zielsetzung auch Keller, NJW 1981, 1184 (1184 f.). 86  Daneben müssen auch die allgemeinen Prozessvoraussetzungen vorliegen. 87  Dörndorfer, in: Vorwerk/Wolf (Hrsg.), BeckOK ZPO, 32. Ed. (Stand: 1.3.2019), § 692, Rn. 2. 88  Hüßtege, in: Thomas/Putzo (Hrsg.), ZPO, 40. Aufl., 2019, § 690, Rn. 9. 89  Auch nachdem die Bundesländer die maschinelle Bearbeitung eingeführt ha­ ben, ist weiterhin eine individuelle Bearbeitung durch den Rechtspfleger möglich und in zweifelhaften Fällen angebracht, vgl. Hüßtege, in: Thomas/Putzo (Hrsg.), ZPO, 40. Aufl., 2019, § 689, Rn. 8. Die Automatisierung des Mahnverfahrens kann aber



I. Einführung157

(4) Ordnungswidrigkeitenrecht Im Ordnungswidrigkeitenrecht sind ebenfalls normative Anknüpfungs­ punkte für Automatisierungen erkennbar. So erlauben etwa § 51 Abs. 1 S. 2 und § 110c Abs. 1 OWiG den Behörden, Bußgeldbescheide teilautomatisiert zu erlassen.90 Eine Vollautomatisierung ist aber nicht erfasst; insbesondere sind Entscheidungen, die einzelfallbezogenes Ermessen erfordern oder einen Beurteilungsspielraum aufweisen, nicht nach diesen Vorschriften einer Auto­ matisierung zugänglich. Ein besonderer Fall sind die standardisierten (Mess-)Verfahren im Ver­ kehrsrecht.91 Geht ein Rechtsunterworfener gegen einen Bußgeldbescheid vor und kommt es zum gerichtlichen Verfahren, ist die ordnungsgemäße Funktionsweise eines „Blitzers“ im Einzelfall regelmäßig nicht mehr Gegen­ stand des Gerichtsverfahrens. Das vereinfacht es für Gerichte, Urteile auszu­ formulieren: Nur dann, wenn sich aus dem Vorbringen des Betroffenen kon­ krete Anhaltspunkte für einen Messfehler ergeben, muss das Gericht den Sachverhalt näher aufklären und entsprechende Feststellungen im Urteil treffen.92 Zwar gilt auch im Ordnungswidrigkeitenverfahren die Aufklärungspflicht für das Gericht (§ 77 Abs. 1 OWiG). Die obergerichtliche Rechtsprechung hat die standardisierten Verfahren als solche aber nicht beanstandet.93 Erfor­ derlich ist ein durch Normen vereinheitlichtes (technisches) Verfahren, bei dem die Bedingungen seiner Anwendbarkeit und sein Ablauf so festgelegt sind, dass unter gleichen Voraussetzungen gleiche Ergebnisse zu erwarten sind.94 Nach der Rechtsprechung nicht erforderlich sind Messungen in voll­ automatisierten Verfahren, die menschliche Handhabungsfehler praktisch auch deshalb nicht als Beispiel und Vorreiter automatisierter Entscheidungen in der Justiz insgesamt dienen, weil der erzeugte „Output“, ein maschinell generierter Mahnbescheid, in der Regel weniger endgültig ist als Gerichtsurteile und -beschlüsse. Das Mahnverfahren zeigt aber deutlich, dass auch auf dem Gebiet der Rechtspflege der Einsatz informationstechnischer Entscheidungssysteme nicht a priori ausgeschlos­ sen ist. 90  Auf diese Weise maschinell erstellte Schreiben bedürfen auch nicht der Unter­ schrift, sofern die erlassende Behörde eindeutig aus dem Bescheid hervorgeht. 91  Siehe dazu etwa Krumm, OWi-Basiswissen: Standardisiertes Messverfahren, 19.1.2010. 92  Vgl. etwa OLG Düsseldorf, Beschl. v. 12.10.2011 – IV-4 RBs 170/11 –, juris, Rn. 8 ff. Diese Grundsätze zum standardisierten (Mess-)Verfahren finden nur Anwen­ dung, wenn die Messbeamten das Messgerät tatsächlich standardmäßig verwendet haben. 93  Vgl. etwa BGHSt 43, 277 ff.; OLG Bamberg, NStZ-RR 2013, 181 (181). 94  BGHSt 43, 277 (278 ff.); siehe auch OLG Dresden, NStZ 2004, 352 (352).

158

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

ausschließen. Dies setzt die Anforderungen an die tatrichterlichen Feststel­ lungen in Fällen herab, in denen keine ersichtlichen oder von dem Betroffe­ nen geltend gemachten Besonderheiten vorliegen. Die gerichtliche Entschei­ dung kann sich dann auf die Bezeichnung des gewählten Messverfahrens, des Messergebnisses und der gewährten Toleranz beschränken.95 Mittlerweile sind nahezu alle Geschwindigkeitsmessgeräte sowie einige Abstandsmessver­ fahren standardisierte Messsysteme. (Lediglich) Messungen außerhalb eines standardisierten Messverfahrens muss das Gericht prüfen und im Urteil dar­ stellen. Nachdem der Verfassungsgerichtshofs des Saarlandes jüngst ent­ schied, dass Betroffene solcher Bußgeldbescheide, die aufgrund der Messer­ gebnisse eines bestimmten „Blitzer“-Typs erlassen wurden, das Recht haben müssen, die Rohmessdaten der Geschwindigkeitsmessung zur nachträglichen Plausibilitätskontrolle einzusehen, und anderenfalls die Grundsätze des stan­ dardisierten Messverfahrens nicht anwendbar seien,96 bleibt die weitere Ent­ wicklung der standardisierten Messverfahren spannend. Das Ordnungswid­ rigkeitenrecht steht jedenfalls Standardisierungen und damit auch Teilauto­ matisierungen – das ändert sich durch das Urteil nicht – grundsätzlich eher offen gegenüber.97 bb) „Legal Tech“ und Beispiele aus der Rechtsberatung Der ressourcensparende Einsatz neuer Technologien erfährt in der juristi­ schen Fachwelt insbesondere unter dem Schlagwort Legal Tech (kurz für Legal Technology) weite Beachtung.98 Denn auch in der Rechtsberatung bricht sich die Digitalisierung Bahn. BRYTER, Leverton, Luminance oder das auf der von IBM entwickelten Künstlichen Intelligenz Watson basierende

95  Die Oberlandesgerichte sehen teilweise von diesem Erfordernis ab, wenn die Bezeichnung des Messgerätes hinreichend genau ist und sich hieraus die zu gewäh­ rende Toleranz ergibt. 96  SaarlVerfGH, Urt. v. 5.7.2019 – Lv 7/17, Pressemitteilung des VerfGH v. 9.7.2019. Es gehöre zu den grundlegenden rechtsstaatlichen Anforderungen an die Verurteilung eines Bürgers, dass er deren tatsächliche Grundlagen zur Kenntnis neh­ men, in Zweifel ziehen und nachprüfen darf. Es ist davon auszugehen ist, dass die Gerichte in anderen Bundesländern ähnlich entscheiden werden. 97  Vgl. auch Fromm, NJW 2012, 2939 (2939 f.). 98  Vgl. etwa die Nachweise bei Kilian, NJW 2017, 3043 (3048, dort Fn. 65); ins­ besondere Keßler, MMR 2017, 589 (589 ff.); Schrey/Thalhofer, NJW 2017, 1431 (1431 ff.); prägend waren und sind hier auch die Publikationen von Richard Susskind, etwa Susskind, The Future of Law, 1996, Susskind, The End of Lawyers?, 2008, und aktuell Susskind, Tomorrow’s Lawyers, 2017. Siehe ferner Markoff, Armies of Expen­ sive Lawyers, Replaced by Cheaper Software, The New York Times vom 5.3.2011, S. A1.



I. Einführung159

ROSS Intelligence99, um nur einige zu nennen: Die Liste der Dienste und Softwareanwendungen, die juristische Arbeitsprozesse unterstützen oder in Teilen auch automatisiert durchführen, ist beachtlich. In der anwaltlichen Tätigkeit gelangen derzeit hauptsächlich Analyse-Tools, die große Daten­ mengen ordnen und aufbereiten, zum Einsatz. Die Programme sollen es er­ leichtern, relevante Text- oder Dokumentpassagen zu finden – z. B. Regelun­ gen zu den Kündigungsmöglichkeiten, zu den Kosten, zur Laufzeit o. Ä. – und auf diese Weise die Effizienz steigern und damit letztlich Kosten für Anwender und Mandanten senken. Im Vordergrund solcher Anwendungen steht also, gezielt Informationen zum Zwecke der Sachverhaltsermittlung aus umfangreichen Dokumenten zu extrahieren und damit den Anwalt nicht zu ersetzen, sondern ihn zu entlasten und zu unterstützen. Kanzleien verspre­ chen sich von Legal Tech, ihre Rechtsdienstleistungen noch effizienter er­ bringen zu können.100 Allgemein im Trend liegen digitale Tools, mit deren Hilfe der Anwender abschätzen kann, ob ein (potenzieller) Rechtsstreit erfolgreich sein kann und deshalb der Gang zum Rechtsanwalt im Bereich der Erstberatung lohnt ­(Predictive Analysis).101 Daneben gibt es auch Chatbots für den Mandanten­

99  Die cloud-basierte Frage-Antwort-Anwendung „ROSS“ kommt einer Künstli­ chen Intelligenz durchaus nah: Sie kann in natürlicher Sprache gestellte Rechtsfragen auf Basis von Gesetzen, case law und weiteren Quellen beantworten; siehe dazu auch Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 351 f. 100  Innerhalb dieser Entwicklung stechen die auf der Blockchain-Technologie be­ ruhenden sog. Smart Contracts heraus. Vgl. dazu etwa Kaulartz/Heckmann, CR 2016, 618 (618 ff.). Ziel dieser Computerprotokolle ist es, synallagmatische Pflichten in Form von Software niederzulegen, welche die Durchführung eines Vertrags selbst­ ständig überprüft und bei Problemen (evtl. ohne menschliche Einwirkung) rechtsfol­ genbasierte Maßnahmen veranlasst, vgl. Kilian, NJW 2017, 3043 (3050). Intermedi­ äre wie etwa Banken, aber auch staatliche Gerichte und andere Einrichtungen – etwa Grundbuchämter – erscheinen dann zumindest teilweise überflüssig. Smart Contracts ist dabei allerdings der Gedanke der Unveränderlichkeit immanent, der mit Grund­ prinzipien des Vertragsrechts unvereinbar ist: Das deutsche Zivilrecht enthält wer­ tungsbasierte Nichtigkeitsgründe, Vertragslösungsmechanismen und Rechtsaus­ übungshindernisse, die sich nicht vertraglich aushöhlen oder abdingen lassen, vgl. Schrey/Thalhofer, NJW 2017, 1431 (1435 f.). 101  Vgl. Suliak, Vorhersehen, wie der Rechtsstreit ausgeht, Legal Tribune Online vom 24.2.2018. Auch Anwälte bedienen sich wachsender Datenbanken über Gerichts­ entscheidungen und sogar über einzelne Richter, um sich optimal auf Prozesse vorzu­ bereiten. So bietet etwa die Plattform www.richterscore.de Anwälten die Möglichkeit, Richter zu bewerten und die Einschätzungen anderer Anwälte über einen Richter einzusehen. Für Verbraucher sind Modelle besonders attraktiv, bei denen sie vorab online ihre Gewinnchancen abschätzen und mögliche Ansprüche ohne eigenes Kos­ tenrisiko von den Legal-Tech-Anbietern selbst durchsetzen lassen können (bspw. Flightright, Wenigermiete).

160

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

kontakt (für große Zahlen gleichgelagerter Fälle, z.  B. Bußgelder für Falschparker).102 Bislang findet kein Programm Anwendung, das die anwaltliche Tätigkeit insgesamt ersetzen könnte: (Juristische) Kreativität, Verhandlungsgeschick und Empathie sind kaum in Quellcode zu formulieren.103 Aus derzeitiger 102  Vgl. Bues, Trends in Deutschland 2017, Legal Tribune Online vom 20.1.2017; ferner die Skizze der generellen Einsatzbereiche für Legal-Tech-Anwendungen bei Wagner, Legal Tech und Legal Robots, 2018, S. 11 ff. Rechtliche Implikationen zei­ tigt Legal Tech in der Rechtsberatung vor allem in Bezug auf das RDG, auf Haftungs­ fragen sowie auf Problemstellungen des Datenschutzrechts, des Berufsgeheimnisses und des geistigen Eigentums. 103  In der Forschung zu Legal Tech und Rechtsautomation liegt ein Fokus auf ler­ nenden Systemen, die menschliche Sprache verstehen und auswerten können. Das Projekt „ARGUMENTUM – Rechnergestützte Analyse von Argumentationsstruktu­ ren“ entwickelte etwa ein Werkzeug zur automatisierten Identifikation und Analyse von Argumentationsstrukturen anhand der Entscheidungen des BVerfG, vgl. Houy/ Niesen et al., Datenbank-Spektrum 15 (2015), 15 (15 ff.). Es soll dem Rechtsanwen­ der mit Blick auf die ständig wachsende Zahl an Informationsquellen, aber einer be­ schränkten menschlichen Informationsverarbeitungskapazität eine überzeugende Ar­ gumentation erleichtern. So soll ein System entstehen, das rechtswidrige Klauseln in Bauträgerverträgen aufspüren und als Output eine Art Rechtsgutachten, später evtl. sogar als Urteil formuliert, auswerfen kann, vgl. Adrian, Rechtstheorie 48 (2017), 77, 118 ff., sowie Schönhof/Tenschert et al., International Journal on Advances in Intelli­ gent Systems 8 (2015), 278 (278 ff.). Andere Projekte adressieren die Klassifizierung von Regelungen des deutschen Mietrechts anhand einer speziellen Form des über­ wachten maschinellen Lernens, vgl. Waltl/Muhr et al., Classifying Legal Norms with Active Machine Learning, in: Wyner/Casini (Hrsg.), Legal Knowledge and Informa­ tion Systems, 2017, S. 11 (11 ff.). Forschern in den USA und Großbritannien ist es gelungen, einen „Rechtsprechungswahrsager“ zu programmieren, vgl. Aletras/Tsarapatsanis et al., PeerJ Computer Science 2 (2016), 1 (1 ff.). Das auf maschinellem Lernen und Natural Language Processing beruhende System kann die Entscheidun­ gen des Europäischen Gerichtshofs für Menschenrechte (EGMR) mit einer gewissen Wahrscheinlichkeit vorhersagen: Es entscheidet in 79 % der Fälle so wie die Juristen in Straßburg. In dessen Funktionsweise erwiesen sich die (rein) formalen Fakten ei­ nes Falles dabei als der wichtigste Vorhersagefaktor. Das System zielt nicht darauf, die menschlichen Richter am EGMR zu ersetzen, es könnte aber bspw. vorsondieren, um eindeutige Fälle und Muster zu erkennen. Über eine solche Entlastung lohnt das Nachdenken: So sind allein im Jahr 2016 insgesamt 53.500 Beschwerden einem mit Richtern besetzten Spruchkörper des Gerichts (Große Kammer, Kammer, Ausschuss, Einzelrichter) vorgelegt worden (Zuwachs von 32 % gegenüber 2015), siehe Bundesministerium der Justiz und für Verbraucherschutz, Bericht über die Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte und die Umsetzung seiner Urteile in Verfahren gegen die Bundesrepublik Deutschland im Jahr 2016, 2017, S. 4. Un­ vollständig eingereichte Beschwerden, die den Spruchkörpern erst gar nicht vorgelegt wurden, sind darin nicht enthalten; die Zahl nicht zugelassener liegt regelmäßig noch deutlich über der Anzahl zugelassener Fälle. Vgl. auch Waltl/Bonczek et al., Predic­ ting the Outcome of Appeal Decisions in Germany’s Tax Law, in: Parycek/Charalabi­ dis/Chugunov Andrei et al. (Hrsg.), Electronic Participation, 2017, S. 89 (90 ff.) zur



I. Einführung161

Perspektive betrachtet, wird Legal Tech also nicht das Kerngeschäft anwalt­ licher Tätigkeit ausfüllen können. Insbesondere für kleinere Unternehmen und Privatpersonen hat die Betreuung ihres Rechtsproblems auch eine ausge­ prägte emotionale Komponente – ihnen fehlt es häufig an der entsprechenden Routine, mit Rechtsproblemen rein rational umgehen zu können: Aus ihrer Sicht ist entscheidend, dass sie ein juristisches Problem, ihren Fall, in die Hände eines Rechtsdienstleisters abgeben können, dessen zentrale Funktion es insofern nicht ist, Informationen aufzufinden oder einen Schriftsatz zu erzeugen, sondern jedenfalls auch Empathie zu zeigen und beruhigend einzu­ wirken.104 So konnte die empirische Forschung bspw. nachweisen, dass die Möglichkeit, rasch ein persönliches Gespräch mit einem juristischen Exper­ ten führen und jederzeit einen Ansprechpartner kontaktieren zu können, für Rechtsuchende von zentraler Bedeutung ist, insbesondere im Hinblick auf den Grad an Zufriedenheit mit der Problemlösung.105 Bei diesen zwischen­ menschlichen Bedürfnissen gerät Legal Tech an seine Grenzen. cc) Aktuelle Entwicklungen im Kernbereich der Justiz Im Bereich der Justiz sind zwei größere Felder voneinander zu trennen: einerseits die elektronische Justizkommunikation, die etwa den Zugang zu den Gerichten sowie die Kommunikation mit und unter den Verfahrensbetei­ ligten betrifft, andererseits die richterliche Tätigkeit selbst und deren Unter­ stützung.106 Die Digitalisierung der Justiz hat bislang insbesondere die Infor­ mation (elektronische Register), die (rechtsverbindliche) Außenkommunika­ tion (elektronisches Gerichts- und Verwaltungspostfach; besonderes elektro­ nisches Anwaltspostfach)107 und die elektronische Vorgangsbearbeitung (Erfassen von Informationen, elektronische Akte sowie Einsicht und Archi­ vierung) erreicht.

Vorhersage von Berufungsentscheidungen im (deutschen) Steuerrecht (wenngleich mit deutlich geringerer Trefferquote). 104  Kilian, NJW 2017, 3043 (3050). 105  Hommerich/Kilian, Mandanten und ihre Anwälte, 2007, S. 107 ff.; eine Kurz­ vorstellung der Studie findet sich in Soldan Institut, AnwBl 2007, 445 (445 f.). 106  Siehe daneben zur Modernisierung der Justiz anhand der „Neuen Steuerungs­ modelle“ bereits Kramer, NJW 2001, 3449 (3449 ff.). Die damaligen Reformbemü­ hungen galten erhöhter Produktivität, Verbilligung und Akzeptanz. 107  Vgl. dazu ergänzend das Zustellreformgesetz (BGBl. I 2001, S. 1206), das Formvorschriftenanpassungsgesetz (BGBl. I 2001, S. 1542) sowie das Justizkommu­ nikationsgesetz (BGBl. I 2005, S. 837); letzteres änderte als Artikelgesetz die einzel­ nen Verfahrensordnungen, um den elektronischen Rechtsverkehr zu ermöglichen.

162

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(1) Elektronische Kommunikation und Aktenführung Mit dem Gesetz zur Förderung des elektronischen Rechtsverkehrs mit den Gerichten108 hat der Gesetzgeber einen großen Schritt im Transformations­ prozess der Digitalisierung (in) der deutschen Justiz („E-Justice“) gemacht.109 Die Regelungen des Gesetzes treten zeitlich gestaffelt in Kraft; den vorläufi­ gen Schlusspunkt setzt § 130d ZPO, der spätestens ab dem 1.1.2022 bundes­ weit für Rechtsanwälte und Behörden die Pflicht vorsieht, Schriftsätze bei Gericht als elektronische Dokumente einzureichen. Das Gesetz regelt justiz­ übergreifende Vorgänge des elektronischen Rechtsverkehrs, insbesondere die Kommunikation mit den Gerichten, und sieht Änderungen der ZPO, des FamFG, der FGO, des ArbGG, des SGG und der VwGO vor. Daneben soll das neu geschaffene besondere elektronische Anwaltspostfach („beA“) gem. § 31a BRAO den in Deutschland zugelassenen Rechtsanwälten die sichere elektronische Kommunikation mit der Justiz, mit Behörden und untereinan­ der ermöglichen. Mittelfristig wird die elektronische Aktenführung die Papierakte ersetzen – § 298a ZPO zeigt diese Richtung deutlich an. Gemäß dem „Gesetz zur Ein­ führung der elektronischen Akte in der Justiz und zur weiteren Förderung des elektronischen Rechtsverkehrs“110 sind u. a. im Straf- sowie im Zivilprozess neu angelegte Prozessakten ab 1.1.2026 verbindlich nur noch elektronisch zu führen.111 Inzwischen scheint Einigkeit darüber zu bestehen, dass die Vorteile der elektronischen Aktenführung die Nachteile, die es zweifellos gibt, über­ wiegen und es daher sinnvoll sowie langfristig auch kostensparend ist, Doku­ mente in einer elektronischen Akte zu führen.112 Neben der Kosteneinspa­ rung – etwa für Kopien in großen Verfahren mit mehreren Verteidigern, die 108  Gesetz zur Förderung des elektronischen Rechtsverkehrs mit den Gerichten vom 10.10.2013, BGBl. I 2013, S. 3786; vertiefend Müller, JuS 2015, 609 (609 ff.). 109  Vgl. die Sachstandsbeschreibung bei Ballhausen, IT-Einsatz in der Justiz, 2012, S. 15 ff., 31 f., sowie die Bestandsaufnahme bei Jost/Kempe, NJW 2017, 2705 (2705 ff.): Wegen unterschiedlicher Portale, Anwendungen und Verfahren in den Bun­ desländern gleicht die IT-Landschaft innerhalb der deutschen Justiz derzeit einem Flickenteppich; ein einheitliches Verfahren entwickeln die 16 Länder nun gemeinsam. Der X. Zivilsenat des BGH führte bereits 2002 ein Pilotprojekt zum Einreichen der Klage per E-Mail durch, vgl. Nack, Modernisierung der Justiz: Klage per E-Mail, in: Däubler-Gmelin/Mohr (Hrsg.), Recht schafft Zukunft, 2003, S. 94 (94 ff.). Eine aus­ führliche Darstellung des elektronischen Rechtsverkehrs und der Neuerungen am Beispiel des Zivilprozesses bietet Bacher, NJW 2015, 2753 (2753 ff.). 110  BGBl. I 2017, S. 2208. Vgl. zu hieraus folgenden Herausforderungen für Da­ tenschutz und IT-Sicherheit etwa Vogelgesang, jM 2018, 2 (2 ff.). 111  Vgl. BGBl. I 2017, S. 2214. Siehe zur elektronischen Aktenführung auch Berlit, Betrifft Justiz 2015, 15 (15 ff.); Berlit, JurPC Web-Dok. 77/2012, Abs. 1 ff. 112  Vgl. Bacher, NJW 2015, 2753 (2758).



I. Einführung163

alle Akteneinsicht beantragen – besteht ein großer Vorteil der E-Akte in der Suchfunktion, mit der sich relevante Stellen schnell finden lassen.113 Mancher Verfahrensfehler könnte sich zudem verhindern lassen, etwa durch automati­ sierte Verhandlungsprotokolle oder durch Kontrollmechanismen für Vor­ schriften, deren Nichtbeachtung hohe Verfahrenskosten zur Folge haben.114 (2) Strukturierung und Beweisführung Analyse und Auswertung der relevanten Informationen erfolgen nach wie vor zumeist „analog“ durch Lektüre der Papierakten. Mittlerweile kommen allerdings vermehrt Strukturierungswerkzeuge zum Einsatz, die es ermögli­ chen, Inhalte auch großer Aktenbestände und Datenträger nach den rechtlich relevanten Strukturen zu gliedern. Als Beispiel kann etwa die Software „Normfall Manager“ dienen.115 IT-gestützte Relationstechnik zur Strukturie­ rung des Sachverhalts kommt bereits zum Einsatz.116 Neben diesen Werkzeu­ gen sind selbstverständlich die juristischen Recherchedatenbanken zu nennen, die die Arbeit der Richter vereinfachen und strukturieren können. Auch digitale Beweismittel sind in der Rechtspraxis angekommen.117 Die ZPO sieht zudem in § 128a seit 2013 die Möglichkeit einer mündlichen Ver­ 113  Nack, Modernisierung der Justiz: Klage per E-Mail, in: Däubler-Gmelin/Mohr (Hrsg.), Recht schafft Zukunft, 2003, S. 94 (96). In der elektronischen Akte lassen sich, idealiter weitgehend automatisch, bspw. im Strafverfahren auch verjährungsun­ terbrechende Maßnahmen auffinden oder im Zivilprozess Streitiges von Unstreitigem trennen. Siehe zu Entwicklung und Perspektiven der E-Justiz ergänzend Bernhardt, NJW 2015, 2775 (2775 ff.). 114  Nack, Modernisierung der Justiz: Klage per E-Mail, in: Däubler-Gmelin/Mohr (Hrsg.), Recht schafft Zukunft, 2003, S. 94 (96 ff.): „Dabei würden wir uns zunutze machen, dass sich die meisten Verfahrensvorgänge als Algorithmen darstellen lassen“ (98 f.). Der Deutsche Richterbund jedenfalls zeigt sich „aufgeschlossen für IT-Fach­ verfahren, elektronische Aktenführung und elektronischen Rechtsverkehr, soweit sie die Arbeitsbedingungen in der Justiz verbessern und Arbeitsabläufe effizienter gestal­ ten“, vgl. Deutscher Richterbund, Zehn-Punkte-Papier zur Stärkung des Rechtsstaats, Mai 2013, S. 8. Vgl. zu (verbindlichen) Vorgaben für eine stärkere Strukturierung und Formalisierung der anwaltlichen Schriftsätze im Zivilprozess auch Justizministerkonferenz 2019, Legal Tech: Herausforderungen für die Justiz, 1.7.2019, S. 69 ff. 115  Eigenbeschreibung auf dem Youtube-Kanal „normfall“: „Der Normfall Mana­ ger ist ein modernes IT-Werkzeug […] Sein wichtigstes Anwendungsfeld bieten die digitale Justiz, die Polizei und die Anwaltschaft“. 116  Vgl. Jost/Kempe, NJW 2017, 2705 (2707). Als Nachteil lässt sich vor allem das aufwendige Einarbeiten in das Programm und das notwendige händische Einpfle­ gen der Falldaten ausmachen, vgl. Beck, Einsatz kognitiver Systeme („Legal Tech“) in der Justiz, 16.3.2018, S. 13. 117  Vgl. etwa Bacher, NJW 2015, 2753 (2758 f.). Zu den Anforderungen des Da­ tenschutzrechts an eine „digitale Beweisführung“ im Zivilprozess Pötters/Wybitul,

164

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

handlung per Videokonferenz vor. Die auf diese Weise dazugeschalteten Beteiligten können sogar (prozessrechtliche) Verfahrenshandlungen vorneh­ men (§ 128a Abs. 1 S. 1 ZPO); auch Zeugenvernehmungen könnten auf diese Weise „digital“ erfolgen (Abs. 2). Dazu bedürfte es allerdings entsprechender technischer Ausrüstung, um die verfahrensrechtlichen Möglichkeiten zu nut­ zen.118 Der deutsche Gesetzgeber zeigt sich zunehmend offener gegenüber technischen Möglichkeiten: Mit dem „Gesetz zur Erweiterung der Medienöf­ fentlichkeit in Gerichtsverfahren und zur Verbesserung der Kommunikations­ hilfen für Menschen mit Sprach- und Hörbehinderungen – EMöGG“119 öffnet er das GVG, um die Regelungen an das gewandelte Nutzungsverhalten beim Medienkonsum anzupassen.120 Die Neufassung des § 169 GVG ermöglicht etwa den Bundesgerichten, ihre Urteilsverkündungen via Internet und Rund­ funk zu übertragen. (3) Zwischenfazit und Ausblick Im Kernbereich der Justiz, der rechtsprechenden Tätigkeit, kommen bis­ lang hauptsächlich einfache Datenverarbeitungssysteme zum Einsatz. Moder­ nisierung heißt dort vor allem, von der Papierform auf die elektronische Aktenführung umzustellen. Die Verwaltung nutzt demgegenüber bereits Systeme, die, auf starren Vorgaben beruhend, selbsttätig Entscheidungen treffen. Lernfähige, zielorientierte Systeme Künstlicher Intelligenz könnten pro futuro über diese „Massenautomatismen“ hinausgehen. Die neuen Vor­ schriften der § 155 Abs. 4 AO, § 35a VwVfG und § 31a SGB X könnten sich für die Verwaltung als „Dosenöffner“ entpuppen, zeigen sie doch plakativ, NJW 2014, 2074 (2074 ff.). Denkbar ist auch der Einsatz statistischer Computerpro­ gramme unmittelbar als Beweismittel im Verfahren; vgl. etwa zu Big-Data-Auswer­ tungen von DNA-Spuren als Beweismittel Mysegades, CR 2018, 225 (225 ff.), sowie Chessman, California Law Review 105 (2017), 179 (180 ff.). 118  Was technisch-organisatorisch möglich ist, zeigt ein Blick nach China: In der Stadt Hangzhou hat 2017 das weltweit erste „virtuelle Gericht“ seine Arbeit aufge­ nommen, vgl. Deahl, China launches cyber-court to handle internet-related disputes, The Verge vom 18.8.2017. Das Gericht ist sachlich zuständig für Streitigkeiten aus online abgeschlossenen Verträgen (z. B. Kaufverträge, Darlehensverträge), Produkt­ haftungsfälle aus Onlinekaufverträgen, online begangene Urheberrechtsverletzungen oder Persönlichkeitsrechtsverletzungen sowie auch für den Rechtsschutz gegen inter­ netbezogenes Handeln der Verwaltung. Von der Online-Klageerhebung über die Iden­ tifizierung der Parteivertreter per Gesichtserkennung, online vorgelegten Beweismit­ teln und der Möglichkeit, die mündliche Verhandlung per Videokonferenz durchzu­ führen, wird auch das Urteil online verkündet und online zugestellt, vgl. Lichtenstein/ Ruckteschler, Chinas erstes Digitalgericht, Legal Tribune Online vom 29.9.2017. 119  BGBl. I 2017, S. 3546. 120  Vgl. dazu Hoeren, NJW 2017, 3339 (3339 ff.).



I. Einführung165

dass nicht nur die Vorbereitung, sondern auch eine hoheitliche Entscheidung selbst automatisiert ergehen kann. Gesetzgeberische Planungen zum Technikeinsatz in der richterlichen Entscheidungsfindung selbst sind bislang nicht ersichtlich; auch der E-JusticeRat hat noch keine konkreten Vorschläge in diese Richtung veröffentlicht. Die Bundesregierung antwortete bspw. auf eine Kleine Anfrage121 zu sog. „Robo-Schlichtern“: „Der Einsatz von Robo-Schlichtern als Streitmittler ei­ ner anerkannten Verbraucherschlichtungsstelle ist nach derzeitiger Rechtslage unzulässig.“122 Neben Planungen für einen „Justiz-Chatbot“ zur Interaktion der Bürger mit der Justiz hegt insbesondere die Bund-Länder-Kommission für Informationstechnik in der Justiz Überlegungen für den Einsatz kogniti­ ver Systeme: Diese könnten die jeweilige Akte aufbereiten, einen Zeitstrahl des Sachverhalts erstellen, Argumente bündeln bzw. markieren, Redundanzen aufzeigen bzw. reduzieren, die Relationstechnik automatisiert anwenden so­ wie Zeit und Geld sparende Übersetzungen vornehmen.123 c) (Mögliche) Auswirkungen der Digitalisierung auf die juristische Arbeit insgesamt Auswirkungen der Digitalisierung auf die juristische Arbeit zeichnen sich bereits ab.124 Neue Medien, digitale Inhalte und elektronische Akten verän­ dern die Arbeit der Justiz auch in qualitativer Hinsicht.125 Wie Entscheider einen Lebenssachverhalt angehen, hängt von Denk- und Arbeitsweisen ab. 121  BT-Drs. 19/3225,

S. 4. S. 8. Streitmittler könne nur sein, wer über die Befähigung zum Richteramt oder den Status des zertifizierten Mediators verfügt (§ 6 Abs. 2 S. 2 VSBG). Das Gesetz sei allerdings offen für unterschiedliche Methoden der Konflikt­ lösung, sodass die Bundesregierung die weitere Entwicklung von Künstlicher Intelli­ genz auch mit Blick auf deren Einsatz im Rahmen der Verbraucherschlichtung beob­ achten werde. 123  Vgl. dazu Beck, Einsatz kognitiver Systeme („Legal Tech“) in der Justiz, 16.3.2018, S. 3 ff. Siehe zu aktuellen und künftigen Entwicklungen im europäischen Ausland nur Europarat/Europäische Kommission für die Effizienz der Justiz (CEPEJ), Ethical Charter on the Use of AI, 2018, S. 16 ff.; zum Strafprozess in Großbritannien auch The Law Society of England and Wales, Algorithms in the Criminal Justice Sys­ tem, Juni 2019, S. 33 ff. 124  Dazu und zum Folgenden Hill, DRiZ 2012, 165 (165 ff.). 125  Guise-Rübe, Die Veränderung richterlicher Arbeit durch neue Medien, in: Hof/ Götz von Olenhusen (Hrsg.), Rechtsgestaltung – Rechtskritik – Konkurrenz von Rechtsordnungen …, 2012, S. 345 (345 ff.); Würtenberger, Wandel des Rechts in der Informationsgesellschaft, in: Leipold (Hrsg.), Rechtsfragen des Internet und der Infor­ mationsgesellschaft, 2002, S. 3 (9 ff.). Vgl. auch Knauer, Rechtstheorie 40 (2009), 379 (379 ff.), der in Anbetracht der technischen Entwicklung die Frage stellt, ob die klassische juristische Methodenlehre einer Neuausrichtung bedarf. 122  BT-Drs. 19/3714,

166

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Diese stehen mit einer Veränderung der (Bezugs-)Möglichkeiten – etwa dem Wechsel der Papierakte in das elektronische Format – in Wechselwirkung, sodass die Integration neuer Prozesse in die juristische Arbeit neue Kompe­ tenzen bedingt. Die Einführung elektronischer Akten hat bspw. zunächst Einfluss auf die Art zu lesen, Sachverhalte zu erfassen und vorhandene Informationen zu strukturieren.126 Während die Leistungsfähigkeit von Computern stetig an­ steigt und sie Zusammenhänge erkennen, die dem menschlichen Auge ver­ borgen bleiben,127 werden durch die schnelle Abfolge neuer Inhalte, Links und gestreuter Aufmerksamkeit die Gedanken flüchtiger, das Denken flüssi­ ger und weniger fixiert, Ansichten ändern sich schneller und selbst Interessen steigen und fallen zügiger. Der lineare Text, z. B. die Akte in Papierform, die sich nach immer gleicher Technik durchlesen lässt, weicht dem Flüchtigen, den ubiquitären Vernetzungen und Verknüpfungen im Netz oder in der digi­ talen Akte. Durch diese Fokussierung auf nacheinander eingesehene Einzel­ informationen und -anwendungen für konkrete Situationen kann der Sachzu­ sammenhang verloren gehen.128 Beschleunigung und Steigerung des Infor­ mationsangebotes machen jedes Bild der Informationslage nur zu einer Mo­ mentaufnahme.129 Während Subsumtion und klassische Auslegung sowie normatives Denken ein Stück weit an Bedeutung zu verlieren drohen, schei­ nen im Gegenzug fallorientierte Analysen und Vergleiche sowie die Gesamt­ würdigung eines Falles im Kontext anderer Fälle zunehmend relevant zu werden.130 Die Flüchtigkeit und Vielfalt der Informationen sowie die Zweifel an der Echtheit und Richtigkeit, die digitalen Inhalten oft anhaften, erfordern genau das, was gute Juristen auszeichnet: eine geschulte und sorgfältige Urteils­ kraft – das Judiz.131

126  Auch die Ubiquität von Smartphones verändert unser Denken, vgl. Spitzer, Cyberkrank!, 2015, S. 73 ff. m. w. N. Menschen handeln in der Folge verstärkt nach Heuristiken und denken weniger analytisch, vgl. Barr/Pennycook et al., Computers in Human Behavior 48 (2015), 473 (474). Die Autoren stellen aber klar, dass dies in erster Linie auf Personen zutrifft, die ohnehin durchschnittlich weniger willens oder fähig zu analytisch-tiefem Denken sind. 127  Schirrmacher, Payback, 2009, S. 73, 75. 128  Hill, DRiZ 2012, 165 (167). 129  Strauch, DVBl 2007, 1000 (1005); Knauer, Rechtstheorie 40 (2009), 379 (400). 130  Hill, DRiZ 2012, 165 (168). 131  Vgl. Hill, DRiZ 2012, 165 (166). Siehe zum Judiz auch unten S. 231 ff.



II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme 167

II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme Will der Staat (justizielle) Entscheidungen vollständig oder teilweise auto­ matisieren, steht er vor technischen und rechtlichen Herausforderungen. Ebenso wie von menschlichen geht auch von maschinell getroffenen Ent­ scheidungen ein Risiko für Diskriminierungen aus. Die gesetzlich fixierten und ethisch unterlegten Diskriminierungsverbote im Recht dabei von sich aus zu erkennen und zu beachten, ist einer Maschine grundsätzlich fremd. Ihre Entwickler müssen es ihr aktiv einpflanzen und dürfen die technischen Zielvorgaben nicht etwa einseitig lediglich im Sinne der Effizienzsteigerung implementieren.132 1. Diskriminierungspotenzial Rechtsbegriffe auszulegen und anzuwenden, enthält eine subjektive Kom­ ponente.133 Die Ergebnisse staatlichen Handelns sind damit auch von den beteiligten Akteuren abhängig. Dies ist jedoch ein rechtssoziologischer Be­ fund, keine normative Aussage.134 Der subjektive Einfluss kann sich, etwa durch Rationalitätsschwächen bisweilen diskriminierend auf betroffene Per­ sonen auswirken. Angesichts dieser Feststellungen sowie der neuen techni­ schen Möglichkeiten ließe sich zunächst mit Luhmann konstatieren, dass es, „[a]ufs letzte gesehen […] keine rationalen Gründe [gibt], die Menschenleis­ tung der Maschinenleistung vorzuziehen“135. Ein solcher Schluss wäre voreilig. Algorithmische Bewertungs- bzw. Ent­ scheidungsprozesse weisen im Vergleich zu menschlichen zwar ein geringe­ res Risiko auf, gleich gelagerte Fälle nur aufgrund individueller Grundein­ stellungen unterschiedlich zu entscheiden. Sie agieren zielorientiert und frei von Emotionen, Stimmungsschwankungen oder irrationaler Willkür. Sie sind dadurch grundsätzlich wertneutral, haben keine Emotionen, sind nicht abhän­ gig von Schlaf und Nahrungsaufnahme – sie sind im Grundsatz objektiver als menschliche Entscheider. Ihre Funktionsweise basiert allerdings auf Hy­ pothesen über zukünftige Entwicklungen und vermutete Wirklichkeitszusam­ menhänge. Algorithmen und Programme sind immer nur so gut, nur so rati­ onal, nur so gerecht, wie es die Daten, auf denen sie beruhen bzw. aus denen sie ihre Schlüsse ziehen, zulassen. Auch Systeme maschinellen Lernens sind bereits Martini/Nink, NVwZ-Extra 2017, 1 (9 f.). Bull, DVBl 2017, 409 (415). 134  Bull, DVBl 2017, 409 (415). 135  Luhmann, Recht und Automation in der öffentlichen Verwaltung, 2. Aufl., 1997, S.  59 f. 132  Siehe

133  Vgl.

168

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

nur so diskriminierungsfrei wie die Daten und Beispielsfälle, mit denen sie trainiert und gefüttert wurden.136 Um die individuelle Selbstentfaltung jedes Einzelnen wirksam zu schützen, sind unvorhersehbare Kriterien und solche, die nach verständiger Erwartung in keinem sachlichen Zusammenhang zum Zweck des Algorithmus stehen, keine zulässigen Entscheidungsparameter.137 Diskriminierungen und Unfairness sind – geradezu wortwörtlich – vorpro­ grammiert.138 Wie ein Algorithmus sein Ergebnis berechnet und welche Prä­ missen dem zugrunde liegen, bleibt dem Betroffenen dabei regelmäßig ver­ borgen. Den privaten Unternehmen, die Prognosesoftware und algorithmische Entscheidungssysteme erstellen, ist es qua natura um Gewinnmaximierung bestellt, nicht primär darum, Minderheiten zu schützen oder Diskriminierun­ gen zu verhindern. Digitaler Code gewährleistet nicht von sich aus die not­ wendigen Schutzrechte für Schwächere oder Minderheiten.139 Minderheiten zu schützen und gleichzeitig Allgemeininteressen zu vertreten, ist eine urei­ gene Aufgabe des Staates.140 2. Korrelation und Kausalität Die statistikbasierte Vorgehensweise maschineller Prognosen nutzt Korre­ lationen und Schematisierung. Als Korrelation (lat. correlatio: „Wechselbe­ ziehung“) bezeichnet man die Beziehung zwischen zwei oder mehreren Merkmalen oder Ereignissen.141 Wenn das gemeinsame Auftreten von Ereig­ nissen (Koinzidenz) oder die Korrelation zwischen Merkmalen ohne genau­ ere Prüfung von Ursache und Wirkung als Kausalzusammenhang aufgefasst wird, kann das zu absurden Rückschlüssen führen: Ein prominentes Beispiel ist die Korrelation zwischen der Rückkehr der Störche aus südlichen Winter­ etwa Zweig, Wo Maschinen irren können, 2018, S. 15 f., 23. Selbstentfaltung und Algorithmeneinsatz, in: Klafki/Würkert/Winter (Hrsg.), Digitalisierung und Recht, 2017, S. 63 (77). 138  Vgl. etwa Barocas/Selbst, California Law Review 104 (2016), 671 (671 ff.); Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 84 ff.; Hacker, Common Market Law Review 55 (2018), 1143 (1146 ff.); Tegmark, Leben 3.0, 2017, S. 159 ff. Siehe auch bereits Spengler, Law and Contemporary Problems 28 (1963), 36 (37 ff.). 139  Boehme-Neßler, NJW 2017, 3031 (3035). 140  Es ist jedoch kein (unabänderliches) Naturgesetz, dass nur staatliches Recht das Gemeinwohl sichern kann, vgl. Boehme-Neßler, NJW 2017, 3031 (3035). Wie ein Blick über nationale Grenzen hinaus zeigt, können grundsätzlich auch andere Mecha­ nismen Gemeinwohl anstreben und garantieren, vgl. Kurer, Der Jurist im digitalen Holozän, Neue Zürcher Zeitung vom 19.4.2016, S. 36; vgl. auch unten S. 359 ff. 141  Korrelation ist nicht gleich Kausalität, sie schließt diese jedoch auch nicht aus; in diesem Fall liegt eine Korrelation von Ursache und Wirkung vor. 136  Vgl.

137  Ernst,



II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme 169

quartieren nach Deutschland und der Anstieg der Geburtenzahl bei den in der Region lebenden Menschen im Frühjahr.142 Problematisch können korrelative Beziehungen dann werden, wenn Men­ schen oder Maschinen Kausalzusammenhänge in sie hineininterpretieren. Algorithmen und Softwareanwendungen ziehen aus Korrelationen (wertende) Schlüsse. Korrelationen können auf Kausalitäten hinweisen, müssen dies aber nicht. Algorithmen sind daher grundsätzlich anfällig für solche Cumhoc-ergo-propter-hoc-Fehlschlüsse143 (lat. „mit diesem [zusammenfallend], also deswegen“), wobei man wohl präziser sagen müsste, (lediglich) die menschliche Aufbereitung und Interpretation der maschinell gefundenen Er­ gebnisse ist anfällig für diesen Fehlschluss. Algorithmen knüpfen oftmals Verbindungen und identifizieren Zusammenhänge, die auf Menschen zufällig oder irritierend wirken.144 Bei sehr großen Datenmengen kann sich diese Tendenz noch verstärken. Oftmals ist es nicht möglich, scheinbar zufällige Verbindungen von sachlich-logischen Zusammenhängen zu unterscheiden. Technische Systeme sind auf ihre Eingangsparameter angewiesen – also auf Trainingsdaten, manuell eingespeiste Werte und eigene Sensoren bzw. Schnittstellen. Bleibt ihre Sensorik aufgrund unzureichender Grundprämissen auf einen zu eng gefassten Umweltausschnitt beschränkt, sind sie nicht in der Lage, Zusammenhänge und Korrelationen in allen relevanten Facetten zu erfassen und entsprechend differenziert zu bewerten.145 Automatische Systeme können keine Kausalitäten beweisen; das ist für ihre Zielvorgabe und Funktion auch nicht nötig. Sie berechnen Wahrschein­ lichkeiten – z. B. „Mit welcher Wahrscheinlichkeit wird der Bewerber seinen 142  Derartige Scheinkorrelationen lassen sich in vielen Bereichen finden. Beispiele: Ordensverleihungen durch das Bundespräsidialamt und Anzahl der für wissenschaft­ liche Versuche verwendeten Hamster (Korrelationskoeffizient 0,98); Schlachtmengen bei Hausschlachtungen von Schweinen in Deutschland und Zahl der Beschäftigten im öffentlichen Dienst (Korrelationskoeffizient 0,97); vgl. die jeweils mit Angabe der Datenquelle sowie der Berechnungsmethode aufgeführten Darstellungen bei https:// scheinkorrelation.jimdo.com/. 143  Vgl. Martini, DVBl 2014, 1481 (1485); Martini, JZ 2017, 1017 (1018). 144  Ernst, Selbstentfaltung und Algorithmeneinsatz, in: Klafki/Würkert/Winter (Hrsg.), Digitalisierung und Recht, 2017, S. 63 (73 f.), schlägt für diese Fälle eine entsprechende Anwendung der Grundsätze des AGB-Rechts vor: Je zufälliger, über­ raschender und weniger nachvollziehbarer ein Kriterium aus Sicht eines verständigen Dritten für den Zweck des Algorithmus ist, desto eher soll dessen Verwendung unzu­ lässig sein. Ernst bezieht seine Überlegungen auf den privatwirtschaftlichen Algorith­ meneinsatz; der Ansatz fruchtet aber auch für staatliche Anwendungen. 145  Martini, Blackbox Algorithmus, 2019, S. 60, 195 f. Vgl. zur Sensorik eines Algorithmus als Grenze seiner Kognitions- und Argumentationsfähigkeit Kirn/MüllerHengstenberg, MMR 2014, 225 (228).

170

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Job wieder verlassen?“ oder „Mit welcher Wahrscheinlichkeit wird der Ver­ urteilte erneut straffällig?“. Die auf diese Weise errechneten Wahrscheinlich­ keiten und Prognosen können sich im Einzelfall als falsch erweisen, aber um sie zu erstellen, sind Korrelationen ausreichend: Statistik benötigt keine Kausalität. Eine mögliche Lösung zeigt die aktuelle Forschung. Ein neuer Ansatz versucht, Diskriminierungsrisiken gerade mit Hilfe kausaler Schlussfolgerun­ gen zu verringern.146 Die dahinterstehende Idee will also nicht Korrelationen als gegeben hinnehmen und daraus automatisch Rückschlüsse auf den Ein­ zelfall ziehen, sondern jeweils den kausalen Zusammenhang aktiv suchen.147 3. Reduzierung auf die Vergangenheit Maschinelle Prognosen und Entscheidungen sind nur so gut und adäquat, wie die Datenbasis es zulässt. Weder für die menschliche noch für die ma­ schinelle Entscheidungsfindung erscheint es aber möglich, selbst für eine klar bestimmte Rechtsfrage eine komplette, vollständige (allumfassende) Datenlage zu generieren bzw. vorzufinden. Rechtliche Entscheidungen sind (auch) in die Zukunft gerichtet – sie sol­ len Rechtsfrieden erzeugen, einen verurteilten Straftäter von der Begehung künftiger Straftaten abhalten, eine Rechtsfrage von grundsätzlicher Bedeu­ tung für die Zukunft klären, weitere Urheberrechtsverletzungen verhindern usw. Belastbare Daten über die künftigen Auswirkungen einer konkreten Entscheidung bspw. kann es ex ante nicht geben. Beim Einsatz maschineller Prognosen ist das solange kein Problem, wie der Anwender sich deren Fixie­ rung und Reduzierung auf Vergangenheitsdaten bewusst ist: Algorithmen ziehen aus Daten der Vergangenheit stochastische Rückschlüsse und treffen 146  Siehe dazu Kilbertus/Rojas-Carulla et al., Avoiding Discrimination through Causal Reasoning, in: Guyon/Luxburg/Bengio et al. (Hrsg.), Neural Information Pro­ cessing Systems 30 (2017), S. 656 (657 ff.). 147  Ist bspw. in einem Stadtteil die Ausfallquote für vergebene Kredite höher als in den übrigen Stadtteilen und vergibt eine Bank daraufhin keine Kredite mehr an Men­ schen aus diesem Stadtteil, auch wenn diese im Einzelfall eine hohe Kreditwürdigkeit aufweisen, kann das Auffinden der Kausalketten faire Lösungen für solche Fälle er­ möglichen. Ein Algorithmus soll den kausalen Zusammenhang – den Grund, warum gerade in diesem Stadtteil die Ausfallquote hoch ist – erkennen und verarbeiten. Denn aus Sicht der Bank ist es wirtschaftlich vernünftig, an Personen aus diesem Stadtteil keinen Kredit zu vergeben. Wenn aber zugleich in diesem Stadtteil überproportional eine bestimmte Minderheit wohnt, dann betreibt der Algorithmus (bzw. die Bank) eine implizite Diskriminierung, weil die Entscheidungen die entsprechende Minder­ heit in diesem Fall systematisch benachteiligen. Siehe dazu Max-Planck-Institut für Intelligente Systeme, Die Frage ist warum – Algorithmen erlernen den Sinn für Ge­ rechtigkeit, Pressemitteilung v. 19.12.2017.



II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme 171

auf dieser Grundlage Bewertungen und Entscheidungen, geben Empfehlun­ gen ab und machen Vorhersagen für die Zukunft. Sie teilen Menschen anhand von Scores und Wahrscheinlichkeitsberechnungen in Gruppen ein und beur­ teilen eine gezielte Frage, etwa nach der Kreditwürdigkeit.148 Die Maschine reduziert den Menschen dadurch auf die Vergangenheit – und kann ihm Chancen für die Zukunft verstellen. Besonders gilt dies für Lernverfahren. In Verfahren maschinellen Lernens kann bspw. die (nicht mehr aktuelle) Unter­ repräsentation einer Gruppe, insbesondere einer Minderheit, im historischen Datensatz dazu führen, dass diese Gruppe zukünftig benachteiligt wird – etwa bei der Jobvergabe oder beim Kreditscoring.149 Für den Betroffenen wächst es sich zum schwer durchschaubaren Problem aus, wenn unreflektiert ältere Daten in eine Entscheidung einfließen, die nunmehr aus dem ursprünglichen Kontext gerissen sind oder eine zwischen­ zeitliche Veränderung und Entwicklung des Betroffenen nicht mehr abde­ cken.150 Es engt außerdem den Spielraum für neue Entwicklungen ein – etwa veränderte Ansichten in der Bevölkerung zu einer rechtsrelevanten Thematik zu berücksichtigen – und verhindert so auch eine Weiterentwicklung des Rechts. Algorithmen arbeiten mit Wahrscheinlichkeiten und Prognosen, sie sind nicht darauf geeicht, im Einzelfall Wirklichkeit und Wahrheit zu ergründen. Die auf rückblickende Mustererkennung ausgerichtete Arbeitsweise algorith­ mischer Prognosen ist auf möglichst große Mengen an (historischen) Daten angewiesen, um gute, präzise Ergebnisse zu produzieren. Eingesetzt im ge­ richtlichen Verfahren besteht das Problem, dass das Recht insgesamt sich permanent ändert; selbst in klar begrenzten Einzelfragen ändern sich Gesetze, die obergerichtliche Rechtsprechung oder „herrschende Ansichten“. Compu­ 148  Vgl. nur Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 34, 37 ff. 149  Cate/Kuner et al., International Data Privacy Law 7 (2017), 1 (2). Die Gefahr, dass der maschinelle Vorgang den Einzelnen auf dessen Zugehörigkeit zu einer (ggf. normativ geschützten) Gruppe reduziert, ist besonders Machine-learning-Verfahren immanent, vgl. dazu und zum Unterfangen, den Algorithmen Fairness einzuimpfen, Hacker, Common Market Law Review 55 (2018), 1143 (1146 ff.). 150  Ernst, JZ 2017, 1026 (1028). So können für den Betroffenen gravierende Ein­ schätzungen auf automatischen Datenauswertungsverfahren beruhen: In manchen Staaten kommt bereits ein IBM-Programm zum Einsatz, das aus verschiedenen histo­ rischen Daten (u. a. Reise- bzw. Fluchtroute, Alter, Herkunftsland, Religionszugehö­ rigkeit, Beruf) berechnet, ob eine in Europa ankommende Personen als „Flüchtling“ oder als „potenzieller Terrorist“ einzustufen ist; vgl. dazu Gierow, IBM will Flücht­ linge von Terroristen unterscheiden können, golem.de vom 23.2.2016; LevinsonWaldman, IBM’s Terrorist-Hunting Software Raises Troubling Questions, 3.2.2016. Allein vergangenheitsbezogene Trainingsdaten zu berücksichtigen, verfestigt den Status quo – auch dann, wenn dieser Status quo Einzelne benachteiligt.

172

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

terprogramme könnten insoweit zwar jeweils die Menge151 der Urteile und Beschlüsse oder auch die Menge der Behördenentscheidungen zu einem be­ stimmten Sachverhalt bzw. einer bestimmten Rechtsfrage erfassen und Ähn­ lichkeiten feststellen. Mit Musteranalysen dieser historischen Daten scheint sogar eine auf Textbausteinen basierende automatische Begründung möglich. Ähnlich einem Expertensystem könnte ein solches System dem Anwender dann Entscheidungsempfehlungen geben und begründen. Die Entscheidun­ gen der Vergangenheit erheben sich dann aber immer zu den Präjudizien der Zukunft. Mit dem Gebot der Einzelfallgerechtigkeit und einem freiheitlichen Menschenbild, das davon ausgeht, dass jeder Mensch selbstbestimmt sein zukünftiges Leben gestaltet, wäre eine solche algorithmisierte Präjudizien­ bindung an die Vergangenheit nur dann in Einklang zu bringen, wenn der algorithmische Vorschlag nicht über eine unverbindliche erste Empfehlung hinausgeht.152 4. Algorithmen als Projektion der Werteinstellungen ihrer Schöpfer a) Machine Bias und Verfestigung Empirische Untersuchungen konnten belegen, dass zahlreiche in der Praxis eingesetzte algorithmenbasierte Entscheidungssysteme diskriminierende Ef­ fekte aufweisen.153 Die Diskriminierungsrisiken durch algorithmische Ver­ fahren fanden bereits umfassende Erörterung.154 Hervorzuheben bleibt die 151  Verstanden als Zusammenfassung unterscheidbarer Objekte zu einer Gesamt­ heit (mathematischer Mengenbegriff). 152  Siehe zu den verfassungsrechtlichen Grenzen algorithmischer Entscheidungen bzw. Entscheidungsunterstützung unten S. 260 ff., zu Möglichkeiten, einer tatsächli­ chen Bindungswirkung vorzubeugen, S. 424 ff. 153  Barocas/Selbst, California Law Review 104 (2016), 671 (677 ff.); Friedman/ Nissenbaum, ACM Transactions on Information Systems 14 (1996), 330 (336 ff.); Macnish, Ethics and Information Technology 14 (2012), 151 (152 ff.); Angwin/Larson et al., Machine Bias, https://www.propublica.org/article/machine-bias-risk-assess ments-in-criminal-sentencing (10.6.2020); siehe auch Bozdag, Ethics and Information Technology 15 (2013), 209 (209 ff.). 154  Vgl. etwa Martini, Blackbox Algorithmus, 2019, S. 47 ff., 73 ff.; Wischmeyer, AöR 143 (2018), 1 (26 ff.); The Law Society of England and Wales, Algorithms in the Criminal Justice System, Juni 2019, S. 18 ff.; Zweig/Wenzelburger et al., European Journal for Security Research 3 (2018), 181 (181 ff.), jeweils m. w. N.; siehe auch Kilbertus/Rojas-Carulla et al., Avoiding Discrimination through Causal Reasoning, in: Guyon/Luxburg/Bengio et al. (Hrsg.), Neural Information Processing Systems 30 (2017), S. 656 (656 ff.); Ungern-Sternberg, Religious Profiling, Statistical Discrimina­ tion and the Fight Against Terrorism in Public International Law, in: Uerpmann-Witt­ zack/Lagrange/Oeter (Hrsg.), Religion and International Law, 2017, S. 191 (191 ff.).



II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme 173

Gefahr, dass sich Vorurteile und emotional oder kognitiv verzerrte Einschät­ zungen zu sozialen Tatsachen verfestigen und auch die Wahrnehmung Dritter sowie evtl. die Selbstwahrnehmung der Betroffenen (negativ) verzerren. Denn a priori sind Algorithmen nicht diskriminierend. Sie enthalten jedoch die Wertvorstellungen ihrer Programmierer – ebenso Vorurteile und Grund­ annahmen. Sie spiegeln also menschliche Denkfehler und Vorurteile ihrer Programmierer und Datenwissenschaftler wider (sog. Machine Bias bzw. Algorithmic Bias).155 b) „Rationalisierung der Rationalitätsschwächen“ Dass sich Vorurteile und Rationalitätsschwächen in automatisierten Ent­ scheidungsverfahren verfestigen und perpetuieren, ist grundsätzlich unab­ hängig von der Systemwahl. Bei der händischen Programmierung statischlinearer Entscheidungsalgorithmen durch einen menschlichen Programmierer liegt dies auf der Hand – Kontrollalgorithmen, Qualitätsmanagement und andere Maßnahmen außen vor gelassen. Aber auch und gerade (dynamische) Systeme maschinellen Lernens bergen die Gefahr, dass sich menschliche Schwächen fortschreiben. Denn diese Systeme nutzen Musteranalysen und historische Daten (respektive: vergangene Gerichtsentscheidungen) für ihre eigene Entscheidungsstruktur; sie imitieren daraufhin den Entscheidungspro­ zess der (menschlichen) Entscheider. Enthalten die eingespeisten bzw. ge­ nutzten Datenquellen aber Auffälligkeiten und Fehler, besteht die Gefahr, dass ein System maschinellen Lernens diese als (normativ) „gewünscht“ in­ terpretiert und fortan sein Entscheidungsverhalten (auch) danach ausrichtet. Wenn also in dem oben156 aufgeführten Beispiel der Durchschnitt verhängter Freiheitsstrafen an dem auf das Wochenende der Zeitumstellung im Frühjahr folgenden Montag signifikant höher ist als an den übrigen Tagen, könnte ein System maschinellen Lernens diesen Fakt als „Soll-Bestimmung“ für seine eigene Vorgehensweise erfassen und im Zuge dessen die (menschliche) Ra­ tionalitätsschwäche durch seine eigene, vermeintliche Objektivität fälschli­ cherweise „rationalisieren“: Es imitiert dann die menschliche Entscheidungs­ findung und schlägt an den entsprechenden Tagen ebenfalls höhere Frei­ heitsstrafen vor – ohne das Bewusstsein, dass es dafür keine juristischen Gründe gibt.

155  Vgl.

Zweig, Wo Maschinen irren können, 2018, S. 15 f., 21 ff. oben S. 73; Cho/Barnes et al., Psychological Science 28 (2017), 242

156  Siehe

(243 ff.).

174

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

c) Gefahr unzulässiger Rückschlüsse Auch fortgeschrittene intelligente Systeme sind nicht unabhängig von menschlichem Input. Datenauswahl, Gestaltung der Algorithmen, Überwa­ chung und Anleitung des Trainings sowie der Tätigkeit des Systems (in un­ terschiedlicher Intensität) – subjektive menschliche Wertungen dringen auf viele Arten in den maschinellen Arbeitsprozess ein und verfestigen sich dort.157 Für die Bewertung der Diskriminierungsrisiken kommt darauf an, ob die Maschine aufgrund einer hochindividualisierten, umfangreichen Datenba­ sis eine passgenaue Einzelfallentscheidung treffen kann oder aber den Ein­ zelnen lediglich als Teil einer Gruppe behandelt.158 Letzteres kann für die gerichtliche Entscheidungsfindung per se nicht ausreichen. Die algorithmische Entscheidungsfindung einer Maschine lässt sich auch nachträglich noch anpassen und optimieren. Die Optimierung geschieht ent­ weder spezifisch und reduziert damit die sog. false positives, oder aber sensitiv, um die Zahl der false negatives zu verringern.159 Meist kommen hierbei Heuristiken zum Einsatz, die selbst nicht optimal, also zu 100 Prozent „kor­ rekt“ sind, sodass auch diese Entscheidungen darüber, wie der algorithmische Entscheidungsprozess zu optimieren ist, Einfallstore für subjektive Elemente bieten. Die Programmierer und Algorithmendesigner haben dabei qua Natur der Sache in der Regel keine juristische oder ethische Ausbildung. Insbeson­ dere der „Erstprogrammierer“ eines gerichtlichen Entscheidungsalgorithmus hätte einen großen – und rechtsstaatlich bedenklichen – tatsächlichen Gestal­ tungseinfluss auf die Resultate der Rechtsanwendung und -findung.160 Über Algorithmen schwebt also zu Unrecht bisweilen der Schleier voll­ kommener Objektivität und Fairness. Ihre problemlösungsorientierte Daten­ auswertung unter Berücksichtigung statistischer Auffälligkeiten kann dazu führen, dass sie an gewisse, besonders geschützte (etwa durch Art. 3 Abs. 3 157  Macnish, Ethics and Information Technology 14 (2012), 151 (158); Wischmeyer, AöR 143 (2018), 1 (28). 158  Vgl. van Wel/Royakkers, Ethics and Information Technology 6 (2004), 129 (133). 159  Mit der Rate an false positives und false negatives lassen sich die statistischen Gütekriterien von (algorithmischen) binären Klassifikationen bestimmen und diese optimieren. False positives sind Fälle, die ein System fälschlicherweise einem be­ stimmten Merkmal, nach dem der Algorithmus sucht, zuordnet; false negatives sind Fälle, die das Merkmal besitzen, vom System aber übersehen wurden. Siehe dazu vertiefend unten S. 382 ff., sowie ergänzend Zweig, Wo Maschinen irren können, 2018, S. 24 f. Vgl. auch Trinkwalder, c‘t 2018, 130 (130 ff.). 160  Ähnlich Fries, NJW 2016, 2860 (2863). Insbesondere der Wissenstransfer vom Juristen zum Entwickler und umgekehrt gestaltet sich in praxi als Problem, etwa beim Formalisieren der Anforderungen an ein System.



II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme 175

GG oder Art. 9 DSGVO) Merkmale anknüpft.161 Aufgrund persönlichkeits­ rechtlich besonders sensibler Merkmale Differenzierungen vorzunehmen, ist verboten – selbst dann, wenn statistische Erkenntnisse eine Entscheidungsre­ levanz vermuten lassen. Der Staat muss solchen Diskriminierungsrisiken entgegenwirken (Art. 21 Abs. 1 GRCh und Art. 3 Abs. 3 GG, Art. 22 Abs. 4 i. V. m. Art. 9 Abs. 2 DSGVO)162 – unabhängig davon, ob automatische Ent­ scheidungssysteme in der Verwaltung, der Justiz oder an anderer Stelle zum Einsatz kommen. Denn die Rechtsordnung gewichtet die individuelle Entfal­ tung einer jeden Person höher als den mit der Einbeziehung des Merkmals verbundenen potenziellen Effizienzgewinn oder Rationalitätszuwachs; mögli­ cherweise entstehende Rationalitätsdefizite und Wohlfahrtsverluste nimmt die Rechtsordnung bewusst in Kauf.163 Umgekehrt beruhen die stochastischen Rückschlüsse und Gruppenwahr­ scheinlichkeiten nicht nur auf Daten über soziale und gesellschaftliche Zu­ stände, sie können bereits existierende strukturelle Ungleichheiten auch verstärken.164 Im Ergebnis könnten dadurch Individuen, die Teil einer Gruppe mit einem bestimmten Merkmal sind, unzulässige Diskriminierung oder je­ denfalls Stigmatisierung erfahren; es kann zu einer Verfestigung und Perpe­ tuierung der den Einzelnen benachteiligenden Strukturen kommen. Diese Effekte können eine enorme Breitenwirkung erzielen: Es besteht die Gefahr, dass vorhandene Probleme und Ungleichbehandlungen wiederholt werden, Diskriminierung sich verfestigt und verstärkt sowie Wertungsmuster fortge­ schrieben werden.165 Vorherige Entscheidungen, auch ungerechte bzw. dis­ kriminierende, interpretieren lernende Algorithmen als richtig – und unterle­ bereits Martini/Nink, NVwZ-Extra 2017, 1 (9 f.). auch Martini, Blackbox Algorithmus, 2019, S. 47 ff., 73 ff. Das gilt wegen der grundsätzlichen Vergleichbarkeit der Benachteiligungsstruktur aber nicht nur für unmittelbare, sondern auch für mittelbare Diskriminierungen. Darunter versteht man Differenzierungen, welche nicht offen an eines der sensiblen Merkmale anknüpfen, sich aber faktisch bei derjenigen Personengruppe auswirken, die einen besonderen Diskriminierungsschutz genießt (vgl. auch Art. 2 Abs. 2 lit. b RL 2000/43/EG sowie ErwGr 71 UAbs. 2 S. 1 DSGVO: „zu diskriminierenden Wirkungen oder zu Maßnah­ men […], die eine solche Wirkung haben“). Zum Merkmal „Geschlecht“ siehe etwa BVerfGE 104, 373 (393); zum Diskriminierungsschutz gem. Art. 21 GRCh Jarass, GRCh, 3. Aufl., 2016, Art. 21, Rn. 10 ff. 163  Martini, Blackbox Algorithmus, 2019, S. 89 f. 164  Martini, JZ 2017, 1017 (1018). 165  Vgl. Ernst, JZ 2017, 1026 (1028), der insofern eine Analogie zu den Echokam­ mern und Filterblasen in sozialen Netzwerken zieht; siehe dazu etwa Pariser, The filter bubble, 2012 (passim); Zehnder, Die Aufmerksamkeitsfalle, 2017 (passim). Vgl. auch Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (28 f.), die al­ lerdings das Risiko, dass ein System an eine alte, von analogen Diskriminierungen geprägte Datenbasis andockt und daraus lernt, höher bewerten als das Risiko einer diskriminierenden Weiterentwicklung. 161  Vgl. 162  Vgl.

176

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

gen diese Wertung dann auch zukünftigen Entscheidungen: Die Daten, mit denen Anwender und Entwickler ein lernendes System füttern, versteht dieses als vorbildhaftes Muster; es wird nachfolgende Entscheidungen und Ein­ schätzungen wiederum hieran ausrichten. 5. Zwischenfazit Der Vergleich typischer menschlicher Fehler mit dem Fehlerkorridor auto­ matisierter Entscheidungsfindung zeigt, dass Fehler in automatisierten Pro­ zessen deutlich schwieriger zu überschauen sind. Sie sind zwar in dem Sinne rationaler, als sie keinen Stimmungsschwankungen, Emotionen oder kogniti­ ven Verzerrungen unterliegen. Mögliche Fehler wirken sich aber nicht nur in begrenzten Einzelfällen (ausnahmsweise) aus, sondern vielfach und systema­ tisch. Fehler in automatisierten Systemen, besonders Diskriminierungsten­ denzen, haben somit eine deutlich größere Breiten- oder Streuwirkung, während menschliche Rationalitätsschwächen, Emotionen oder Vorurteile quantitativ auf Einzelfälle begrenzt sind. Menschen entscheiden grundsätzlich nicht „besser“ oder „fairer“ als Algo­ rithmen – und vice versa. Maschinen entscheiden anders, nämlich stärker logikbasiert und dadurch oftmals konsistent(er), aber deshalb auch – wenn sie diskriminierend wirken – konsistent diskriminierend. Sie unterliegen kei­ nen Denkfehlern, sind selbst wert- und vorurteilsfrei, haben keinen Schlaf­ mangel und unterscheiden nicht nach persönlichen Sympathien. Jedoch ent­ stehen Algorithmen und Programme nicht im „luftleeren Raum“. Zu ihrer Erstellung bedarf es vieler (Wert-)Entscheidungen sowie einer Datengrund­ lage, aus welcher der Algorithmus seine Schlüsse ziehen kann. Sowohl die Datengrundlage als auch die dem Algorithmus zugrunde liegenden (mensch­ lichen) Entscheidungen können zu (versteckter) Diskriminierung führen und diese verfestigen. Diskriminierungen kennt die digitale also ebenso wie die analoge Welt. Insbesondere der Einsatz lernender Systeme kann aber dazu führen, dass diskriminierende Strukturen und Wirkmechanismen sich perpe­ tuieren. Daneben entfalten automatische Systeme ein größeres Diskriminie­ rungsrisiko durch ihre im Vergleich zum menschlichen Entscheider deutlich größere Breitenwirkung: Der menschliche Entscheider entscheidet Einzel­ fälle, ein automatisches System ist aber von vornherein auf eine Vielzahl an Fällen ausgelegt. Will der Staat automatisierte Entscheidungssysteme in (der Verwaltung oder) der Justiz einsetzen, steht er vor der Herausforderung, die Software von Beginn an und durchgängig an den Wertmaßstäben der Rechtsordnung auszurichten – ähnlich dem im Datenschutzrecht verankerten Gebot Privacy by Design (Art. 24 Abs. 1, Art. 25 Abs. 2 DSGVO). Das bedeutet insbeson­



III. Technische Hürden einer automatisierten Rechtsfindung 177

dere, dass die Systeme so konzipiert sind, dass sie Entscheidungen oder Entscheidungsvorschläge nicht von solchen Merkmalen abhängig machen, die insbesondere Art. 3 Abs. 3 GG, Art. 9 Abs. 1 DSGVO oder das AGG unter besonderen Schutz stellen.166

III. Technische Hürden einer automatisierten Rechtsfindung 1. Vorab: Keine Vollautomation gerichtlicher Verfahren einschließlich Sachverhaltsermittlung Bereits 1966 konstatierte Niklas Luhmann: „Natürlich werden die Daten­ verarbeitungsanlagen von Menschen aufgestellt, programmiert und mit Infor­ mationen versorgt. Es ist nahezu ausgeschlossen, daß sie Entscheidungen treffen, die nicht auf menschliche Anweisung zurückgehen.“167 Eine voll­ ständig autonome maschinelle Judikatur ist insofern auch weder Ziel dieser Zeilen noch Gegenstand einer Debatte. a) Sachverhaltsaufklärung Die Arbeit des Richters umfasst weit mehr als die (Sach-)Entscheidung bzw. den Entscheidungsprozess. Ein zentraler Bestandteil richterlicher Tätig­ keit aller Gerichtsbarkeiten ist es, den Sachverhalt zu ermitteln und aufzuklä­ ren, also ein Akt der Informationsbeschaffung.168 166  Ein weiterer Aspekt umfassenden Diskriminierungsschutzes berührt die grund­ sätzliche Herangehensweise: Will man den Gefahren (teilweise oder vollständig) au­ tomatisierter Entscheidungen adäquat begegnen, ist eine ausschließlich datenschutz­ rechtliche Herangehensweise nicht zielführend. So bestehen auch Gefahren, die eine andere Schutzrichtung betreffen, als sie der Datenschutz sicherzustellen sucht: kör­ perliche Unversehrtheit, Eigentum, subtile Beeinflussung und Manipulation usw. Die Maßnahmen sollten indes nicht über das Ziel hinaus schießen: Nicht jede Unterschei­ dung stellt eine (problematische) Diskriminierung dar. Art. 3 Abs. 1 GG verlangt ge­ rade, Ungleiches auch ungleich zu beurteilen und zu behandeln. 167  Luhmann, Recht und Automation in der öffentlichen Verwaltung, 2. Aufl., 1997, S. 30 f.; vgl. ergänzend zu den Grenzen der Rationalisierung und Automatisie­ rung auch bereits Schmidt, AcP 166 (1966), 1 (1 ff.), sowie das Sammelwerk Kluwer Law and Taxation Publishers (Hrsg.), Amongst Friends in Computers and Law, 1990, dort insbesondere Susskind, AI, Expert Systems and the Law, in: Kluwer Law and Taxation Publishers (Hrsg.), Computers and Law, 1990, S. 241 ff.; Spoor, Expert Sys­ tems, in: Kluwer Law and Taxation Publishers (Hrsg.), Computers and Law, 1990, S.  22 ff. 168  Vgl. auch Wank, Grenzen richterlicher Rechtsfortbildung, 1978, S. 21 m. w. N., der sogar davon ausgeht, dass die Sachverhaltsfeststellung über 80 % der richterlichen Tätigkeit ausmacht.

178

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Im Verwaltungsverfahrensrecht geht der Gesetzgeber zwar davon aus, dass eine „automatisierte Sachverhaltsermittlung“ nicht a priori ausgeschlossen ist. So deuten etwa die Gesetzesmaterialien zum Gesetz zur Modernisierung des Besteuerungsverfahrens169 darauf hin, dass der Gesetzgeber mit § 155 Abs. 4 AO, § 31a SGB X und § 35a VwVfG einen qualitativen Unterschied des vollautomatisierten zum teilautomatisierten (vgl. etwa § 28 Abs. 2 Nr. 4, § 37 Abs. 5, § 39 Abs. 2 Nr. 2 VwVfG) Verwaltungsakt konstatieren wollte – durch die Automatisierung (auch) der Sammlung, Auswertung und Verifizie­ rung der Sachverhaltsdaten.170 Dafür spricht auch die zugleich beschlossene Ergänzung bzw. Klarstellung des Untersuchungsgrundsatzes (§ 24 Abs. 1 S. 3 VwVfG).171 Für die richterliche Sachverhaltsermittlung lassen sich hieraus jedoch keine Rückschlüsse ziehen. Technische Systeme sind auf den Daten-Input durch Menschen (oder aktive, von Menschen gestaltete Sensoren) angewie­ sen; sie können sich kaum eigene Datenquellen erschließen.172 Die richterli­ che Sachverhaltsermittlung bzw. -aufklärung ist hingegen vielfältig: Der Richter führt bspw. auch Ortsbesichtigungen durch und wertet Sachverhalts­ daten aus verschieden Quellen, etwa Schriftsätzen, Zeugenaussagen und Ur­ kunden aus. Eine maschinelle Abbildung dieser Tätigkeiten in Gänze – also eine Vollautomation der richterlichen Arbeit – ist nach derzeitigem Stand der Technik nicht möglich. Eine Software bzw. Maschine mit umfassender eige­ ner Sensorik, die alle juristisch relevanten Informationen eines Falles selbst­ ständig erschließen, filtern und in den Entscheidungsfindungsprozess ein­ speisen kann, ist nur schwer vorstellbar. Bspw. eine vollautomatisierte Zeu­ genvernehmung mitsamt Interpretation und Bewertung der Glaubhaftigkeit – zumal mündlich vorgetragen und damit für den Empfänger zunächst nur akustisch wahrnehmbar – ist technisch (noch) nicht umsetzbar: „Menschen­ kenntnis“ ist bislang keine Kategorie auf dem Datenblatt eines Softwaresys­ tems. b) Informationslücken Automatisierungsbestrebungen in der Justiz stehen zudem vor der Heraus­ forderung, dass die realen Lebenssachverhalte, über die die Entscheidungen zu treffen sind, (trotz Entscheidungsreife) selten bis ins letzte Detail auser­ 169  Vgl.

BT-Drs. 18/8434, insbesondere S. 122. in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 35a,

170  Stelkens,

Rn. 21. 171  Stegmüller, NVwZ 2018, 353 (358) hält die Vorschrift hingegen in Gänze für überflüssig; vgl. auch die Erwiderung hierauf bei Ziekow, NVwZ 2018, 1169 (1171 f.). 172  Wischmeyer, AöR 143 (2018), 1 (16).



III. Technische Hürden einer automatisierten Rechtsfindung 179

mittelt sind bzw. feststehen. Ein Entscheidungssystem müsste also eine Stra­ tegie zum Umgang mit einer unvollständigen Informationsbasis vorhalten. Für die maschinelle Datenverarbeitung, insbesondere bei der Nutzung von (juristischen) Expertensystemen, lassen sich hierbei unechte und echte Infor­ mationsmängel unterscheiden.173 Unecht ist ein Informationsmangel, wenn eine Information deswegen fehlt, weil z. B. der Erzähler – etwa ein Zeuge im Prozess – sie für selbstverständlich hält. Die Information kann hierbei jedoch durch Hintergrundwissen erschlossen werden. Dagegen lässt sich eine feh­ lende Information beim echten Informationsmangel nicht anderweitig er­ schließen. Ein Expertensystem müsste in diesen Fällen beim Benutzer des Systems rückfragen; Benutzer kann aber nur das Gericht in Gestalt des Richters sein, der etwa die Zeugenvernehmung durchführt – nicht aber der Zeuge selbst. Unechte Informationsmängel lassen sich zwar durch voreingestellte, in der Regel vorkommende Werte (sog. Default-Werte) beheben. Das System ver­ sucht dann anhand der gegebenen Informationen zu beweisen, dass der Default-Wert nicht vorliegt. Gelingt dieser Beweis nicht, nimmt das System den Default-Wert zur Grundlage der weiteren Schritte. Die Nutzung solcher Default-Einstellungen kann Informationslücken also schließen, führt aber zu einem Folgeproblem: Denn sinnvollerweise decken Defaults (nur) solche Werte bzw. Informationen ab, die ein durchschnittlicher menschlicher Zuhö­ rer für selbstverständlich hält.174 Mit dem Gebot der Einzelfallgerechtigkeit wäre ein solcher Rückgriff, der sich unflexibel für tatbestandliche Besonder­ heiten zeigt, nicht in Einklang zu bringen. Im Übrigen wäre auch unklar, wer diese als selbstverständlich geltenden Informationen wie ermitteln soll. Da diesen Vorgang wiederum qua Natur der Sache nur Menschen leisten können, finden dabei möglicherweise wiederum Denkfehler, Vorurteile und andere Rationalitätsschwächen Eingang in den Entscheidungsprozess, was den ur­ sprünglichen Sinn der Vollautomation konterkarierte. Computer hingegen „denken nicht, sondern gehorchen Befehlen.“175 c) „Harte“ und „weiche“ Fakten Auch bei vollständiger Informationslage verbleiben sichtbare Grenzen des technisch-mechanischen Erkenntnishorizonts: Fakten sind nicht gleich Fak­ ten. Steht bspw. in einem gerichtlichen Unterhaltsprozess die Unterhalts­ pflicht fest, ergibt sich deren Höhe aus Fakten bzw. Informationen, die ih­ rerseits objektiv feststehen – z. B. das Alter des Kindes, die Höhe des Ein­ und zum Folgenden Jandach, Juristische Expertensysteme, 1993, S. 36. Juristische Expertensysteme, 1993, S. 37. 175  Barth, Algorithmik für Einsteiger, 2. Aufl., 2013, S. 16. 173  Dazu

174  Jandach,

180

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

kommens des Unterhaltspflichtigen und die Zahl der Unterhaltsberechtigten. Gerade die klar vorstrukturierten, „harte“ Fakten einbeziehenden Ent­ scheidungs­bäume des Unterhaltsrechts eignen sich daher gut für eine forma­ lisierte Darstellung.176 Demgegenüber sind bspw. die Einzelaspekte der Strafzumessung (vgl. § 46 StGB) nicht ohne Weiteres quantifizierbar: „Schuld“, „Beweggründe“, „Gesinnung“, „Maß der Pflichtwidrigkeit“ – der­ lei „weiche“ Fakten sind zwar ebenfalls typisierbar, sie sind aber nicht losgelöst und abstrakt verständlich, sondern müssen anhand objektiver As­ pekte näherungsweise beschrieben werden. Rechtsprechende Tätigkeit als Ganzes ist somit mehr als mechanische Kalkulation. d) Ausblick In gerichtlichen Verfahren bleibt die mündliche Verhandlung mitsamt der Sachverhaltsermittlung und -aufklärung sowie der Verfahrensführung in der Hand des menschlichen Richters. Überlegungen, diesen vollständig zu erset­ zen, sind (technisch noch) zum Scheitern verurteilt. Um stattdessen konkrete Einsatzmöglichkeiten neuer Technologien andenken zu können, bedarf es zunächst einer Analyse der technischen Grenzen im Rahmen der gerichtli­ chen Entscheidungsfindung. So scheinen etwa automatisch generierte Urteile bzw. Urteilsentwürfe, für die ein (smartes) Datenverarbeitungssystem auf (historische) Entscheidungen in vergleichbaren Fällen zurückgreift, technisch grundsätzlich denkbar177 – jedenfalls in begrenzten Teilbereichen der Recht­ sprechung. Jenseits von naiver Technikgläubigkeit und pessimistischer Tech­ nikfeindlichkeit ist aber zu fragen, ob bestimmte Aspekte wie Kreativität, Empathie, Ermessensausübung usw. strukturell Menschen vorbehalten sind: Was ist (derzeit) technisch möglich und was nicht? Wo liegen die (techni­ schen) Hürden und Grenzen? 2. Ermessen Um Automatisierungsmöglichkeiten gerichtlichen Entscheidens zu eruie­ ren, kann sich zunächst der Blick auf die Verwaltung lohnen – insbesondere auf die Frage, ob und inwieweit Verwaltungsermessen einer Automation zu­ gänglich ist. 176  Dies belegt auch das aktuelle Forschungsinteresse, vgl. etwa das Projekt „De­ cision Support by Formalized Legal Norms“ (2014–2018) der Fakultät für Informatik an der TU München (Kurzbeschreibung abrufbar unter https://wwwmatthes.in.tum.de/ pages/17ylur2jn88qc/Decision-Support-by-Formalized-Legal-Norms). 177  So ohne weitere Begründung Wagner, Legal Tech und Legal Robots, 2018, S. 19, der aber auch darauf hinweist, dass dies „praktisch noch in weiter Ferne“ sowie (im Hinblick auf den gesetzlichen Richter) verfassungsrechtlich bedenklich ist.



III. Technische Hürden einer automatisierten Rechtsfindung 181

a) Ausgangslage: Grundsätzliches zum Ermessensbegriff aa) Ermessen im Verwaltungsverfahren Der Ermessensbegriff erschließt sich am besten als Gegensatz zum gebun­ denen Verwaltungshandeln bzw. -entscheid, bei dem das Gesetz die Verwirk­ lichung des Tatbestands mit einer abschließend bestimmten, zwingenden Rechtsfolge verknüpft.178 Das Recht sieht an vielen Stellen Lockerungen dieser strikten Konditionalgefüge aus Tatbestand und zwingender Rechts­ folge vor: Auf der Rechtsfolgenseite etwa belässt die Norm dem Rechtsan­ wender die Wahlmöglichkeit zwischen mehreren gesetzmäßigen Folgen – das Ermessen.179 Die Exekutive hat oftmals eine größere Expertise und Sachnähe zu konkreten Sachverhalten und konkreten Rechtsfragen als der Gesetzgeber. Die Belange der Beteiligten und die Besonderheiten des Einzelfalls kann der Normgeber regelmäßig nicht (vollständig) abschätzen und antizipieren. Da­ her überlässt er es den Behörden mit diesem Instrument, den konkreten Fall unter Berücksichtigung der gesetzlichen Vorgaben und Wertungen zweckmä­ ßig und gerecht zu regeln – mit dem Ziel der Einzelfallgerechtigkeit durch größere Sachnähe. Dieser weite Entscheidungs- bzw. Handlungsspielraum ist indes kein Blankoscheck für eine vollkommen beliebige oder willkürliche Entscheidung jenseits der Gesetzesbindung: Die Verwaltung muss das ihr zustehende Ermessen pflichtgemäß nach den Vorgaben des § 40 VwVfG ausüben.180 Hoheitliche Entscheidungen heißen also gebunden (gesetzesakzessorisch), wenn das Gesetz für einen bestimmten Tatbestand bzw. eine bestimmte An­ zahl an Tatbestandselementen genau eine bestimmte Rechtsfolge in Form einer bestimmten Maßnahme vorsieht. Dagegen entscheidet die Behörde immer dann nach Ermessen, soweit die Rechtsnorm auf der Rechtsfolgen­ seite mehrere Möglichkeiten und damit Entscheidungsfreiheit vorsieht.181 Auf Rechtsfolgenseite liegt die Entscheidungskompetenz deshalb beim Rechtsanwender, weil dieser die Entscheidung nur unter Berücksichtigung aller erst noch konkret zu ermittelnden Tatsachen und Umständen treffen kann. In der Sache lässt sich das Ermessen in ein Entschließungsermessen – also die Entscheidung, ob die Behörde handelt – sowie ein Auswahlermes­ 178  Aschke, in: Bader/Ronellenfitsch (Hrsg.), BeckOK VwVfG, 43. Ed. (Stand: 1.4.2019), § 40, Rn. 4. 179  Voßkuhle, JuS 2008, 117 (117 f.). Auf der Tatbestandsseite finden hingegen unbestimmte Rechtsbegriffe Anwendung, vgl. unten S. 213 f. 180  BVerfGE 18, 353 (363); 69, 161 (169); Aschke, in: Bader/Ronellenfitsch (Hrsg.), BeckOK VwVfG, 43. Ed. (Stand: 1.4.2019), § 40, Rn. 5. 181  Riese, in: Schoch/Schneider/Bier (Hrsg.), VwGO, 36. Erg.-Lfg. (Februar 2019), § 114, Rn. 13.

182

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

sen – also die Entscheidung, wie die Behörde handelt – unterscheiden.182 Der Ermessensbegriff taucht zwar auch im Zivilrecht auf (z. B. in § 315 BGB), meint hier aber regelmäßig etwas anderes, insbesondere keinen Entschei­ dungsspielraum im Rahmen einer hoheitlichen Entscheidung oder Maßnah­ me.183 Die typischen Fehler der behördlichen Ermessensausübung sind der Ermessensnichtgebrauch (bzw. Ermessensausfall), der Ermessensfehlge­ brauch (bzw. Ermessensmissbrauch) und die Ermessensüberschreitung.184 Gesetzlich fixiert ist das Ermessen insbesondere in § 40 VwVfG, § 114 VwGO und im Fachrecht, etwa § 5 AO. Das einer Behörde eingeräumte Er­ messen ist aus Gründen der Gewaltenteilung gerichtlich nur eingeschränkt, also nur auf (die genannten) Ermessensfehler hin überprüfbar. Vielmehr hat die Behörde im verwaltungsgerichtlichen Verfahren regelmäßig selbst die Möglichkeit, ihre Ermessenserwägungen zu ergänzen. Die Möglichkeiten zur richterlichen Kontrolle des behördlichen Ermessens ergeben sich daneben insbesondere aus dem Zweck der Ermächtigung, der Grundrechte, der Selbst­ bindung der Verwaltung sowie dem Verhältnismäßigkeitsgrundsatz.185 bb) Ermessen in der Rechtsprechung Weil bislang keine gesetzgeberische Entscheidung zur Automatisierbarkeit judikativen Ermessens ergangen und eine solche mittelfristig auch nicht zu erwarten ist, bietet es sich an, nach Parallelen zwischen administrativem Er­ messen und dem Ermessen der Richter (aller Gerichtsbarkeiten) zu suchen. Der Ermessensbegriff in § 40 VwVfG, § 114 VwGO adressiert grundsätzlich die Verwaltung. Den Richtern aller Gerichtszweige und Verfahrensarten steht ein davon zu unterscheidendes Ermessen zu – hinsichtlich der Verfahrenslei­ tung (1) und für die Sachentscheidung (2).186

182  Vgl. Ramsauer, in: Kopp/Ramsauer (Hrsg.), VwVfG, 19. Aufl., 2018, § 40, Rn. 18. 183  Zum richterlichen Ermessen ausführlich Stickelbrock, Inhalt und Grenzen rich­ terlichen Ermessens im Zivilprozeß, 2002, S. 219 ff.; zur Wesensverschiedenheit ver­ waltungsbehördlichen und richterlichen Ermessen a. a. O., S. 71 ff. 184  Vgl. Aschke, in: Bader/Ronellenfitsch (Hrsg.), BeckOK VwVfG, 43.  Ed. (Stand: 1.4.2019), § 40, Rn. 79 ff.; Ziekow, VwVfG, 2018, § 40, Rn. 38 ff.; siehe auch die lesenswerten Ausführungen zu möglichen Ermessensfehlern im Zusammenhang mit dem G20-Gipfel 2017 in Hamburg bei Hestermeyer, DÖV 2018, 260 (262 f.). 185  Vgl. Riese, in: Schoch/Schneider/Bier (Hrsg.), VwGO, 36. Erg.-Lfg. (Februar 2019), § 114, Rn. 51 ff. 186  Vgl. auch Smid, Richterliche Rechtserkenntnis, 1989, S. 105, der die Gleich­ stellung administrativen und judikativen Ermessens für unangemessen hält. Siehe auch Heinold, Die Prinzipientheorie bei Ronald Dworkin und Robert Alexy, 2011, S.  87 ff.



III. Technische Hürden einer automatisierten Rechtsfindung 183

(1) „Verfahrensermessen“ Wie der Richter ein Verfahren leitet und durchführt und ob er durch Ge­ richtsbescheid oder nach mündlicher Verhandlung entscheidet – diese regel­ mäßig nicht isoliert angreifbaren sog. prozessleitenden Verfügungen unterlie­ gen grundsätzlich dem richterlichen Ermessen (vgl. beispielhaft § 495a ZPO: „Verfahren nach billigem Ermessen“, sowie § 287 Abs. 1 S. 2 ZPO: „Ermes­ sen des Gerichts“).187 Die Vorgaben dieses „Verfahrensermessens“ gehören nicht zum materiellen Recht. Sie weisen zumeist eine Formulierung nach dem Muster „Das Gericht kann …“ auf (vgl. beispielhaft für den Strafpro­ zess § 257c Abs. 1 S. 1, § 245 Abs. 1 S. 2 StPO). Über das Ergebnis des je­ weiligen Verfahrens, insbesondere der mündlichen Verhandlung, entscheidet der Richter grundsätzlich in freier Beweiswürdigung (vgl. nur § 286 ZPO sowie § 261 StPO). Das „Verfahrensermessen“ soll hier nicht näher im Fokus stehen: Ein Ge­ richtsverfahren dient zum großen Teil jedenfalls auch der Sachverhaltsaufklä­ rung,188 die nicht unmittelbar Teil des eigentlichen Entscheidungsprozesses zur Sachentscheidung ist. Weil es nicht in Rede stehen soll, Gerichtsverfah­ ren vollständig zu „automatisieren“ und den menschlichen Richter, der den Gerichtsprozess leitet, durch einen Computer oder einen humanoiden Robo­ ter zu ersetzen, findet das „Verfahrensermessen“ nachfolgend keine Berück­ sichtigung. (2) Rechtsfolgenauswahl – das materielle Entscheidungsermessen des Richters Neben dem „Verfahrensermessen“ sowie der Subsumtion unter den gesetz­ lichen Tatbestand, bei der oftmals Spielräume bestehen, eröffnet auch die Rechtsfolgenseite materiell-rechtlicher Vorschriften dem Richter vielfach eine 187  Zur Unterscheidung zwischen Verfahrens- und materiellem Entscheidungser­ messen auch Stickelbrock, Inhalt und Grenzen richterlichen Ermessens im Zivilpro­ zeß, 2002, S. 184 ff. Das verwaltungsverfahrensrechtliche Pendant zum richterlichen „Verfahrensermessen“ normiert § 10 VwVfG: Die Verwaltung ist– grundsätzlich frei darin, wie sie ein Verfahren durchführt. 188  Auf die Unterschiede der verschiedenen Verfahrensordnungen soll es an dieser Stelle nicht ankommen. Denn obwohl bspw. der Zivilprozess – anders als der Straf­ prozess (§ 244 Abs. 2 StPO) oder der Verwaltungsprozess (§ 86 Abs. 1 VwGO) – nicht durch Aufklärungspflicht bzw. Untersuchungsgrundsatz geprägt ist, muss der Richter dennoch darauf hinwirken, dass er einen entscheidungsreifen Sachverhalt beurteilen kann (vgl. § 139 Abs. 4, § 313 Abs. 1 Nr. 5 ZPO), und daher insbesondere die Hinweispflicht des § 139 Abs. 4 ZPO beachten. Der Tatrichter muss jedenfalls alle für die Beurteilung maßgeblichen Umstände berücksichtigen, BGH, NJW-RR 2002, 166 (167).

184

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Art Auswahlprärogative. Das wohl plakativste Beispiel materiellen Entschei­ dungsermessens des Richters ist die Strafzumessung: Die meisten Straftatbe­ stände im StGB und dem Nebenstrafrecht eröffnen auf der Rechtsfolgenseite einen Spielraum, aus dem der Richter den angemessenen Strafrahmen und letztlich die angemessene Strafe – Strafart und Strafhöhe – bestimmen bzw. finden muss. Den überführten und verurteilten Täter eines Totschlags erwartet bspw. eine „Freiheitsstrafe nicht unter fünf Jahren“ (§ 212 StGB); Körperver­ letzung oder Betrug (§ 223 Abs. 1 bzw. 263 Abs. 1 StGB) schlagen jeweils mit „Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe“ zu Buche. Diese weiten Spielräume schränkt vor allem § 46 StGB ein189 – aber nicht vollstän­ dig, sondern die Rechtsfolgenauswahl innerhalb des verbleibenden Spiel­ raums obliegt weiterhin dem richterlichen Ermessen.190 Aus dem Zivilrecht kann insbesondere § 253 Abs. 2 BGB als Beispiel für Rechtsfolgenermessen dienen: Die Höhe eines Schmerzensgeldes bestimmt der Richter als „billige Entschädigung in Geld“. Im Verwaltungsrecht legt bspw. § 4 Abs. 1 S. 1 GastG fest, dass die Erlaubnis „zu versagen [ist], wenn […]“, wohingegen Abs. 1 S. 2 regelt, dass diese „erteilt werden [kann], wenn […]“. Die Beispiele dienen lediglich der Illustration. Der richterliche Entschei­ dungsspielraum in der Sachentscheidung – Urteil und Beschluss – kommt also immer dann einer Ermessensentscheidung gleich, wenn und soweit die entscheidungsrelevante materiell-rechtliche Vorschrift auf der Rechtsfolgen­ seite mehr als nur eine „punktgenaue“ Entscheidung kennt. Die Rechtsord­ nung stellt beide „Rechtsfolgenkategorien“ – Entscheidungsspielraum und exakt vorgegebene Rechtsfolge – gleichberechtigt nebeneinander, indem sie 189  Siehe

dazu auch oben S. 83 ff. sowie unten S. 402 ff. keinen Spielraum für den Richter gewährt dagegen etwa § 211 StGB auf der Rechtsfolgenseite: „Der Mörder wird mit lebenslanger Freiheitsstrafe bestraft.“ § 211 StGB kennt keine minder schweren Fälle, sodass die Rechtsfolge absolut und zwingend ist. Für außergewöhnliche Fälle beim Mordmerkmal der Heim­ tücke, in denen auch bei restriktiver Auslegung des Mordmerkmals der Tatbestand erfüllt ist, eine lebenslange Freiheitsstrafe aber unbillig und unverhältnismäßig er­ schiene, hat die Rechtsprechung (genauer: der Große Strafsenat des BGH) eine „Rechtsfolgenlösung“ entwickelt, um die zwingende Rechtsfolge zu umgehen, vgl. BGHSt 30, 105 ff.; BGH, NStZ 2016, 469 ff. In diesen Fällen kann der Richter entge­ gen dem Wortlaut des Gesetzes auf § 49 StGB rekurrieren und die Strafe mildern. Das BVerfG hat der „Rechtsfolgenlösung“ keine Bedenken entgegengebracht, vgl. etwa BVerfG, NJW 2009, 1061 (1063 f.), vielmehr rechtfertige gerade das verfas­ sungsrechtliche Übermaßverbot (vgl. BVerfGE 45, 187 (266 f.)) die Anwendung der „Milderungsvorschrift“ § 49 StGB. Die überwiegende Ansicht in der Literatur plä­ diert hingegen dafür, bereits auf der Tatbestandsebene anzusetzen und das Mordmerk­ mal der Heimtücke zu verneinen, wenn etwa das Opfer den Täter zur Tat veranlasst hat und diese nicht tückisch und hinterhältig ist, vgl. die Nachweise bei Fischer, StGB, 66. Aufl., 2019, § 211, Rn. 47. 190  Grundsätzlich



III. Technische Hürden einer automatisierten Rechtsfindung 185

den Richtern mit dem materiellen Entscheidungsermessen in Rechtsnormen bewusst auch auf Rechtsfolgenseite einen Handlungsspielraum überträgt. b) Grenzen der Automation im Verwaltungsrecht – § 35a VwVfG und Parallelnormen Der Blick auf § 35a VwVfG und die verwaltungswissenschaftliche Dis­ kussion um eine Automatisierung von Ermessensentscheidungen offenbart möglicherweise Rückschlüsse auf die grundsätzlichen technischen und recht­ lichen Grenzen der Automatisierung. § 35a VwVfG fixiert jedenfalls eine gesetzliche Grenze der Automatisierung: Vollständig durch automatische Einrichtungen erlassene Verwaltungsakte erlaubt der Gesetzgeber im Verwal­ tungsverfahren nur dann, wenn dies durch gesonderte Rechtsvorschrift zuge­ lassen ist und weder ein Ermessen noch ein Beurteilungsspielraum besteht. Ermessens- und Beurteilungsspielräume dürfen danach nicht automatisiert ausgefüllt, also vollständig automatischen Datenverarbeitungssystemen über­ lassen werden.191 Es wäre indes zu kurz gegriffen, § 35a VwVfG als unabänderliche Grund­ satzentscheidung für das gesamte Recht zu interpretieren: Bereits der Wort­ laut der zugleich mit § 35a VwVfG erlassenen Parallelvorschriften der § 31a S. 1 SGB X, § 155 Abs. 4 S. 1 AO verzichtet darauf, Ermessens- und Beur­ teilungsspielräume von vornherein aus einem möglichen Automatisierungs­ feld herauszunehmen. Das Sozialverwaltungsrecht und das Steuerrecht ver­ langen hier vielmehr lediglich, dass „kein Anlass besteht, den Einzelfall durch Amtsträger zu bearbeiten“. Die Kommentarliteratur zum SGB X ver­ steht diesen Passus zwar so, dass der „Anlass“ immer dann besteht, wenn das materielle Recht eine Ermessensentscheidung vorsieht.192 Diese prima facie einleuchtende Auslegung lässt aber die Frage unbeantwortet, warum der Ge­ setzgeber die beiden parallel erlassenen Vorschriften § 35a VwVfG und § 31a SGB X dann derart unterschiedlich formuliert hat. Ebenso gut ließe sich ar­ gumentieren, dass § 31a SGB X Ermessensentscheidungen gerade nicht 191  Die Verortung des Themas „Ermessen“ in diesem Kapitel über die technischen Hürden hat den Hintergrund, dass der Gesetzgeber die hier beispielhaft herausge­ stellte Automatisierungsgrenze in § 35a VwVfG gerade wegen der Limitiertheit tech­ nischer Systeme rechtlich kodifiziert hat: Er geht – im Ergebnis – davon aus, dass Ermessen (technisch) nicht automatisierbar ist. Sind Menschen indes gerade beim Ausfüllen gesetzlicher Spielräume fehleranfällig, regt dies dazu an, diese Grenze zu­ mindest zu hinterfragen. 192  Vgl. Mutschler, in: Körner/Leitherer/Mutschler (Hrsg.), Kasseler Kommentar Sozialversicherungsrecht, 97. Erg.-Lfg. (Dez. 2017), SGB X § 31a, Rn. 3; Heße, in: Rolfs/Giesen/Kreikebohm et al. (Hrsg.), BeckOK Sozialrecht, 52.  Ed. (Stand: 1.3.2019), § 31a SGB X, Rn. 4.

186

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

grundsätzlich ausschließen soll, sondern es einzelfallbezogen auf eine Not­ wendigkeit menschlicher Beurteilung ankommt.193 Dass einzelfallbezogenes Ermessen aber automatisierbar ist bzw. automatisiert ausgeführt werden kann, wird jedenfalls – soweit ersichtlich – nicht vertreten.194 Gem. § 1 Abs. 1 VwVfG beansprucht das VwVfG und damit auch das Verbot für Ermessensentscheidungen in § 35a VwVfG im Verwaltungsrecht nur subsidiäre Geltung. Formal betrachtet könnten also Fachgesetzgeber und sogar Satzungsgeber von dem Verbot abweichen und auch für Ermessensent­ scheidungen automatisierte Verfahren einführen. Sie müssten rechtsstaatliche Grundsätze wahren; undenkbar ist es aber nicht. Die Formulierung in § 35a VwVfG wird daher teilweise lediglich als „Warnsignal an Fachgesetzgeber“ verstanden.195 Auch gegenüber den Landesgesetzgebern entfaltet der Aus­ schluss von Ermessensentscheidungen aus dem Feld möglicher Automatisie­ rung in § 35a VwVfG (des Bundes) keine Wirkung.196 Dem Gesetzgeber des § 35a VwVfG ging es weniger um abstrakte, starre Grenzen als vielmehr darum, rechtsstaatliche Grundsätze zu sichern. Der Erlass eines vollständig durch automatische Einrichtungen erlassenen Ver­ waltungsakts setzt voraus, dass in dem automatisierten Verfahren eine ord­ nungsgemäße Subsumtion möglich ist.197 Der Gesetzgeber geht insoweit da­ von aus, dass automatische Datenverarbeitungseinrichtungen (technisch bzw. tatsächlich) nicht in der Lage sind, Ermessens- und Beurteilungsspielräume adäquat – einem Menschen qualitativ vergleichbar – auszufüllen. Die Ent­ scheidung, ob vollautomatisierte Verfahren überhaupt tatsächlich zum Einsatz kommen, legt er daneben aber in das behördliche Ermessen.198 193  Argumentieren lässt sich indes auch, dass § 31a SGB X über § 35a VwVfG hinausgeht und auch solche Entscheidungen aus der Automatisierungsmöglichkeit herausnimmt, deren Subsumtion unter einen konkreten Tatbestand – unabhängig von Beurteilungs- und Ermessensspielräumen – gar nicht durch automatische Einrichtun­ gen erfolgen kann, vgl. Mutschler, in: Körner/Leitherer/Mutschler (Hrsg.), Kasseler Kommentar Sozialversicherungsrecht, 97. Erg.-Lfg. (Dez. 2017), SGB X § 31a, Rn. 3. 194  In verwaltungsrechtlichen Massenverfahren sieht das regelmäßig anders aus: Dort lässt sich Ermessen leicht schematisiert und typisiert ausüben – etwa durch Verwaltungs­ vorschriften, Selbstbindung der Verwaltung oder eben Automatisierung. Der vollstän­ dige Ausschluss von Ermessensentscheidungen in § 35a VwVfG wird deshalb in der Literatur teilweise sehr kritisch gesehen, vgl. etwa Stegmüller, NVwZ 2018, 353 (357). 195  Prell, in: Bader/Ronellenfitsch (Hrsg.), BeckOK VwVfG, 43. Ed. (Stand: 1.10.2018), § 35a, Rn. 14; ebenso Stelkens, Der vollautomatisierte VA, in: Hill/Kugel­ mann/Martini (Hrsg.), Digitalisierung in Recht, Politik und Verwaltung, 2018, S. 81 (111). 196  Schmitz, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 1, Rn. 68 ff. 197  Wagner, Legal Tech und Legal Robots, 2018, S. 19. 198  Vgl. nur § 35a VwVfG: „kann vollständig durch automatische Einrichtungen erlassen werden“.



III. Technische Hürden einer automatisierten Rechtsfindung 187

c) Über die mögliche Parallele zwischen Verwaltungsverfahren und Gerichtsverfahren Dass § 35a VwVfG vorab Ermessensentscheidungen grundsätzlich aus dem Anwendungsbereich möglicher Automatisierung im Verwaltungsrecht ausschließt, bewertet die Literatur bisweilen überaus kritisch.199 So sind Fälle – insbesondere aus dem Kostenrecht sowie für standardisierte Bescheide o. Ä. – denkbar, in denen eine Behörde qua Gesetz einen Ermessensspielraum hat, diesen aber immer in einer ganz bestimmten Weise ausüben will.200 § 35a VwVfG, § 155 Abs. 4 AO und § 31a SGB X zielen zuvorderst auf gebundene Verwaltungsentscheidungen in (unechten) Massenverfahren, in denen die Verfahrensbeteiligten typischerweise mit dem gleichen Anliegen an die Verwaltung herantreten oder umgekehrt.201 Hier besteht durch Syner­ gieeffekte ein großes Potenzial zur Automatisierung, das sowohl der Verwal­ tung als auch – durch Bürokratieabbau und Verfahrensbeschleunigung – den Bürgern zugutekommt. So überrascht es nicht, dass der Gesetzgeber gerade mit dem Gesetz zur Modernisierung des Besteuerungsverfahrens202 erstmals zaghaft auch Formen „automatisierter Ermessensausübung“ der Finanzbehörden normativ zugelas­ sen hat:203 Nach § 149 Abs. 4 S. 3 AO „dürfen“ die Finanzämter nach dem Ergebnis einer automationsgestützten Zufallsauswahl anordnen, dass Steuer­ erklärungen vor der regulären Abgabefrist angefordert werden. Der Steuer­ pflichtige ist hierbei darauf hinzuweisen, dass die Vorabforderung auf einer automationsgestützten Zufallsauswahl beruht (§ 149 Abs. 4 S. 4 Hs. 1 AO). 199  Etwa Stegmüller, NVwZ 2018, 353 (357): Es sei „höchst problematisch, alle Fälle, in denen normativ Ermessens- oder Beurteilungsspielräume bestehen, per se gesetzlich von einer Vollautomation auszuschließen“, denn damit werde E-Govern­ ment „massiv ausgebremst“. 200  Diesen Fällen verwehrt § 35a VwVfG prima facie den Weg der Automatisie­ rung. (Bundes- und Landes-)Fachgesetzgeber können indes hiervon abweichen. Ent­ scheidend ist, dass eine Rechtsnorm das entsprechende Verwaltungshandeln inhaltlich und formell stützt und dass nicht lediglich die Verwaltung, sondern der Normgeber die Entscheidung für die Automatisierung trifft. Siehe noch Stegmüller, NVwZ 2018, 353 (357): Dessen Beispiele und verwaltungspraxisnahen Ansätze sind nicht auf das gesamte Recht oder gar die Rechtsprechung übertragbar. Sie verdeutlichen aber, dass es nicht grundsätzlich, rechtstheoretisch, ausgeschlossen ist, Ermessen durch Compu­ ter ausüben zu lassen. 201  Vgl. Fadavian, Rechtswissenschaftliche Aspekte von Smart Government, in: Lucke (Hrsg.), Smart Government, 2016, S. 113 (128). 202  Gesetz zur Modernisierung des Besteuerungsverfahrens vom 18.6.2016, BGBl. I, S. 1679. 203  Zu den damit verbundenen Problemen und Rechtsfragen Helbich, DStR 2017, 574 (574 ff.).

188

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

In komplexen und „individuellen“ Verwaltungsverfahren ist das anders. Behördliches Ermessen ist dort nicht automatisierungsfähig, weil es gerade individuell und dem Zweck der Ermächtigung entsprechend durch eine menschliche Person auszuüben ist. Die Ausübung von Ermessen setzt nach Ansicht des Gesetzgebers immer eine menschliche Willensbetätigung vor­ aus.204 Nämliches gilt für die individuelle Beurteilung eines Sachverhalts. aa) Automatisierung durch Verwaltungsvorschriften? Gebundene Entscheidungen lassen sich im Vergleich gut automatisieren, weil die einzelnen Elemente des Tatbestands bruchfrei in Code übersetzt und ihnen jeweils ein Wahrheitswert (true bzw. false) zugeordnet werden kann, aus denen ein Algorithmus selbstständig die vorgegebene Rechtsfolge ausge­ ben kann.205 „Ermessen“ ist jedoch nach allgemeinem Verständnis untrennbar mit einem Abwägungsprozess, dem Gewichten von Argumenten, Positionen und Interessen sowie dem Antizipieren der Entscheidungsauswirkungen ver­ bunden. So stimmten auch die Literatur und die Fachausschüsse zum Gesetz zur Modernisierung des Besteuerungsverfahrens dem Gesetzgeber weitge­ hend zu, dass automatisierte Entscheidungen überhaupt nur für gebundene Entscheidungen in Frage kommen.206 Die Möglichkeit, den Fall zur Bearbeitung durch einen menschlichen Sachbearbeiter auszusteuern, stellt daneben sicher, dass besonderen, beim Erlass der Verwaltungsvorschriften noch nicht absehbaren Umständen Rech­ nung getragen werden kann. An dieser Stelle wird die Parallele zwischen 204  BT-Drs. 18/8434,

S. 122. etwa Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 41 f. 206  Vgl. Braun Binder, DÖV 2016, 891 (894); Schmitz/Prell, NVwZ 2016, 1273 (1276), jeweils m. w. N. Für die Frage, ob für § 35a VwVfG ein gesetzlich einge­ räumter Ermessens- oder Beurteilungsspielraum die Vollautomatisierung a priori ausschließt, ist auf den konkreten Sachverhalt selbst und dessen Subsumtion unter das materielle Recht abzustellen, vgl. Braun Binder, ibid., sowie BT-Drs. 18/8434, S. 122. Wenn sich daraus ergibt, dass im konkreten Fall gar kein Ermessens- oder Beurteilungsspielraum besteht, ist nach dem Telos des § 35a VwVfG eine Vollauto­ matisierung ebenfalls möglich. Unproblematisch ist das insbesondere dann, wenn die Reduzierung des Ermessensspielraums auf Null aus nachvollziehbaren Verwal­ tungsvorschriften folgt und die Berücksichtigung von besonderen Umständen im Einzelfall durch die Möglichkeit einer individuellen Aussteuerung gewährleistet ist, vgl. bereits Polomski, Der automatisierte Verwaltungsakt, 1993, S. 56 ff. Denn in diesen Konstellationen fehlt es gerade nicht an einer bewussten Entscheidung der Behörde – die Entscheidung (zur Selbstbindung) liegt im Erlass der Verwaltungsvor­ schrift. Außerdem bilden Verwaltungsvorschriften eine transparente und für den Betroffenen verständliche Grundlage, um die Entscheidung nachvollziehen zu kön­ nen. 205  Vgl.



III. Technische Hürden einer automatisierten Rechtsfindung 189

Verwaltungsvorschriften und Automatisierung augenscheinlich.207 In beiden Fällen weicht die individuelle Bewertung einer katalogisierenden, schemati­ schen, typisierenden Einordnung. Allerdings bestehen auch gewichtige Un­ terschiede: Verwaltungsvorschriften sind lesbarer, in deutscher Sprache ver­ fasster Text und als solcher nicht gleichzusetzen mit der Genehmigung von Softwarecode, den die Behörde meist nicht selbst programmiert, der nicht wie ein Text gelesen und verstanden werden kann, und – jedenfalls beim Einsatz selbstlernender Algorithmen – keine Antizipation aller möglichen Entscheidungen zulässt.208 Ermessensspielräume sieht der Gesetzgeber dort vor, wo er nicht jeden Einzelfall und sämtliche möglicherweise relevanten Details antizipieren kann. Er ist dabei nicht vorrangig von dem Gedanken beseelt, Ressourcen zu schonen, sondern verfolgt das Ziel der Einzelfallgerechtigkeit. In diesen Fäl­ len verpflichtet das Gesetz also die Exekutive, alle konkreten Umstände des Einzelfalls in der Fallbetrachtung zu berücksichtigen und anhand der – ggf. zuvor ermittelten – gesetzlichen Zielvorstellungen eine dem Einzelfall ange­ messene und sachgerechte Lösung zu finden. Dies setzt, wie der Gesetzgeber des § 35a VwVfG zutreffend erkannt hat, eine bewusste menschliche Wil­ lensbetätigung bzw. individuelle Beurteilung des Sachverhalts durch einen Sachbearbeiter voraus.209 Ermessen muss stets individuell, entsprechend dem Zweck der Ermächti­ gung, ausgeübt werden. Doch bedeutet dies, dass dieser Vorgang nur durch Menschen möglich ist? Der Vergleich vollautomatischer Systeme mit den sog. ermessenslenkenden Verwaltungsvorschriften verdeutlicht, dass rein elektronische Verwaltungsverfahren mit Entscheidungsprogrammen auch bei Ermessensverwaltungsakten nicht zwangsläufig unzulässig sind.210 Solche 207  Siehe dazu auch Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 202; Polomski, Der automatisierte Verwaltungsakt, 1993, S. 56 ff. Vgl. noch zum Versuch, behördliche Expertensysteme als Verwaltungsvorschriften zu qualifizieren, Tönsmeyer-Uzuner, Expertensysteme in der öffentlichen Verwaltung, 2000, S. 71 ff. 208  Braun Binder, DÖV 2016, 891 (894). Die zudem beim Softwarecode regelmä­ ßig fehlende Transparenz und Nachvollziehbarkeit für den Betroffenen kann nicht durch entsprechende Begründungen kompensiert werden, vgl. zum Problem der Transparenz ausführlich unten S. 330 ff. Für das Verwaltungsverfahren wirft Braun Binder (a. a. O., 894 f.) mit guten Gründen ein, dass eine Kompensation grundsätzlich möglich sei, sofern zu diesem Zweck im Programm entsprechende Textpassagen für die Begründung hinterlegt wären. Wenn aber schon einschlägige Textpassagen vorlä­ gen, die das Spektrum der Ermessenserwägungen abdecken, sei nicht ersichtlich, weshalb nicht direkt eine entsprechende Verwaltungsvorschrift hätte formuliert und erlassen werden können. 209  Braun Binder, DÖV 2016, 891 (894). 210  Dazu und zum Folgenden Fadavian, Rechtswissenschaftliche Aspekte von Smart Government, in: Lucke (Hrsg.), Smart Government, 2016, S. 113 (128 f.).

190

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Entscheidungsprogramme bedienen exakt dieselbe Funktion wie ermessens­ lenkende Verwaltungsvorschriften: Sie sichern auf der Grundlage einer Selbstbindung der Verwaltung eine einheitliche Entscheidungspraxis bei we­ sentlich gleich gelagerten Fällen – und damit den Gleichheitssatz aus Art. 3 Abs. 1 GG. Ein Computer führt keine (erneut fehleranfällige) Textinterpreta­ tion der Verwaltungsvorschrift durch, sondern folgt dem technisch-rationalen Ablauf eines Programms; eine solche Form der elektronischen Verwaltung kann unter Umständen eine bessere und präzisere Ausführung der gewollten Selbstbindung liefern und dadurch auch eine stärkere Gleichbehandlung be­ günstigen.211 Nach diesen Überlegungen kann eine Vollautomatisierung zu­ mindest dort zulässig sein, wo und soweit durch eine ständige Verwaltungs­ praxis eine Selbstbindung der Verwaltung eingetreten ist.212 Mit Blick auf Art. 3 GG bzw. die Selbstbindung der Verwaltung sowie das Ziel transparen­ ten staatlichen Handelns kann sogar erwünscht sein, auch (manche) Ermes­ sensentscheidungen standardisiert und typisiert vorzunehmen.213 bb) Automatisierung und der Untersuchungsgrundsatz im Verwaltungsverfahren Wortwörtlich entscheidend im allgemeinen Verwaltungsverfahren wie auch in jedem gerichtlichen Verfahren ist es, die relevanten Aspekte des Lebens­ sachverhalts zu erkennen, herauszustellen und in die Entscheidung einfließen zu lassen. Für das Verwaltungsrecht illustriert § 24 Abs. 1 S. 3 VwVfG die­ sen Ausgangspunkt. Im Verwaltungsverfahren ist eine vollständig automati­ siert erlassene Ermessensentscheidung zumindest dann möglich, wenn Pro­ grammierung und Einsatz des automatischen Systems die Vorgaben des § 24 Abs. 1 S. 3 VwVfG einhalten und eine „Aussteuerung“ der konkreten Ent­ scheidung an einen menschlichen Sachbearbeiter bei Sachverhaltskonstellati­ onen erfolgt, die bei der Programmierung nicht vorhergesehen wurden bzw. vorhergesehen werden konnten.214 211  Fadavian, Rechtswissenschaftliche Aspekte von Smart Government, in: Lucke (Hrsg.), Smart Government, 2016, S. 113 (129). 212  So bereits Polomski, Der automatisierte Verwaltungsakt, 1993, S. 56 m. w. N.; noch weitergehend Ehlers, Jura 1991, 337 (340), der wohl auch eine Vollautomation für möglich hält. 213  Ebenso Stelkens, Der vollautomatisierte VA, in: Hill/Kugelmann/Martini (Hrsg.), Digitalisierung in Recht, Politik und Verwaltung, 2018, S. 81 (112). 214  Braun Binder, DÖV 2016, 891 (894); Luthe, SGb 2017, 250 (257); Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 35a, Rn. 41; Stelkens, Der vollautomatisierte VA, in: Hill/Kugelmann/Martini (Hrsg.), Digitalisierung in Recht, Politik und Verwaltung, 2018, S. 81 (112); ähnlich Djeffal, DVBl 2017, 808 (814 f.).



III. Technische Hürden einer automatisierten Rechtsfindung 191

Die Grenze der Automatisierung verläuft dabei entlang der Möglichkeiten zur Pauschalisierung und Standardisierung. Daher sind Ermessensentschei­ dungen dann nicht automatisierbar, wenn das (bspw. Entschließungs- und Auswahl-)Ermessen einer Typisierung bzw. Pauschalierung und Standardisie­ rung nicht zugänglich ist, etwa weil sich die denkmöglichen Anlassfälle bei der Auswahl der zu berücksichtigenden Gesichtspunkte – auch im Hinblick auf das Verhältnismäßigkeitsprinzip als gesetzliche Ermessensgrenze – deut­ lich unterscheiden und daher eine individuelle Entscheidung notwendig ma­ chen.215 Eine Vollautomatisierung im Bereich der Gefahrenabwehr216 und bei der Festlegung von Sanktionen,217 jedenfalls abseits des Bagatellbereichs, ist daher nur schwer vorstellbar.218 cc) Begrenzte Vergleichbarkeit von Verwaltungsverfahren und richterlichen Entscheidungen (1) Schematisierung in der Rechtsprechung? Ist festgestellt, dass eine Entscheidung nicht standardisiert ergehen darf, sondern individuell zu treffen ist, so ist daraus noch nicht zu folgern, dass diese individuelle Entscheidung zwingend durch einen Menschen zu treffen ist. Für die richterliche Entscheidungsfindung gilt: Sie ist keine Verwaltungs­ entscheidung und muss immer individuell sein. Eine großflächige Katalogi­ sierung oder Schematisierung wäre bereits mit dem verfassungsrechtlichen Gebot der richterlichen Unabhängigkeit (Art. 97 GG) unvereinbar.219 Ande­ rerseits kennt auch die richterliche Entscheidungsfindung bspw. Schmerzens­ geldtabellen, Tabellen für den Wertersatz bei Verkehrsunfällen, die Düssel­ dorfer Tabelle für Unterhaltsverpflichtungen, insbesondere Kindesunterhalt, und weitere Kataloginstrumente. Die Aussage, richterliche Entscheidungen seien deshalb nicht automatisierbar, weil die zugrundeliegenden Bewertun­ gen nicht schematisierbar und typisierbar sind, lässt sich in dieser Pauschali­ tät also nicht halten. Anders gewendet: Richterliche Entscheidungen sind – wie auch Ermessensentscheidungen im Verwaltungsverfahren – immer indi­ 215  Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9.  Aufl., 2018, § 35a, Rn. 42. 216  Vgl. Siegel, DVBl 2017, 24 (26). 217  Vgl. für die teilautomatisierte Festsetzung von Verspätungszuschlägen FG Düs­ seldorf, DStrRE 2001, 212 (213 f.): Danach ist etwa die Übernahme eines maschinell erstellten Festsetzungsvorschlags nicht grundsätzlich ermessensfehlerhaft, sondern nur, wenn sich der Sachbearbeiter an den Vorschlag gebunden fühlt. 218  So auch Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 35a, Rn. 42. 219  Ausführlich zur richterlichen Unabhängigkeit unten S. 288 ff.

192

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

viduell, aber nicht aus diesen Gründen zwingend individualisiert zu treffen, sondern können auch auf Schematisierung beruhen. Wenngleich für das Verwaltungsverfahren nicht endgültig geklärt ist, ob § 35a VwVfG einen A-priori-Ausschluss von Ermessensentscheidungen ent­ hält oder aber es auf den konkreten Sachverhalt und dessen Subsumtion unter das materielle Recht ankommt,220 herrscht doch Einigkeit darüber, dass nach derzeitiger Rechtslage ein Computer keine regelnde Letztentscheidung über einen Sachverhalt treffen darf, der auch im konkreten Fall einen (Beurtei­ lungs- oder) Ermessensspielraum aufweist. Denn trotz des rasanten techni­ schen Fortschritts sind selbst hochgradig automatisierte und intelligente, selbstlernende Einrichtungen derzeit nicht im Stande, bei Verwaltungsent­ scheidungen mit Ermessensspielraum die notwendige Höhe an individueller Einzelfallgerechtigkeit zu erreichen.221 Aus diesem Grund setzt die tatsächli­ che Ausübung individuellen Ermessens in der Verwaltung weiterhin eine menschliche Willensbetätigung sowie eine menschlich-individuelle Beurtei­ lung des Sachverhalts voraus222 – aber eben nur dann, wenn auch tatsächlich ein atypischer und nicht vorhergesehener (Sonder-)Fall dies verlangt.223 Für die Rechtsprechung wird im Ergebnis nichts anderes gelten. Allerdings blieb im Vergleich zwischen Verwaltungs- und Gerichtsverfahren ein elemen­ tarer Aspekt bislang ausgespart: Verwaltung und Rechtsprechung unterschei­ den sich besonders auch durch die „Art“ der zu entscheidenden Fälle. (2) Der „Regelfall“ vor Gericht? Automatisierte Verfahren sind – unter Berücksichtigung des Aufwands und der gegenwärtig bereits ausgereiften technischen Systeme – vor allem dort sinnvoll, wo das Gros der Fälle nach gleichem oder vergleichbarem Muster gestrickt ist und sich daher leicht standardisieren lässt. Das ist vor allem in (unechten)224 Massenverfahren wie dem Besteuerungsverfahren gegeben, die 220  So etwa Braun Binder, DÖV 2016, 891 (894); Martini/Nink, DVBl 2018, 1128 (1130); Schmitz/Prell, NVwZ 2016, 1273 (1276); Stelkens, Der vollautomatisierte VA, in: Hill/Kugelmann/Martini (Hrsg.), Digitalisierung in Recht, Politik und Verwal­ tung, 2018, S. 81 (111 f.). 221  Schmid, jurisPR-ITR 3/2017, Anm. 2; Beirat Verwaltungsverfahrensrecht beim Bundesministerium des Innern, NVwZ 2015, 1114 (1115). 222  Vgl. BT-Drs. 18/8434, S. 122. Die Passage ist auch nicht zurückhaltend oder offen formuliert, sodass nicht davon auszugehen ist, dass der (Bundes-)Gesetzgeber dies in naher Zukunft anders einschätzen wird. 223  Ebenso Stelkens, Der vollautomatisierte VA, in: Hill/Kugelmann/Martini (Hrsg.), Digitalisierung in Recht, Politik und Verwaltung, 2018, S. 81 (112). 224  Gemeint ist also nicht der Fall, den § 56a VwGO adressiert und der regelmäßig (nur) einen einheitlichen Verfahrensgegenstand enthält (echte Massenverfahren). „Un­



III. Technische Hürden einer automatisierten Rechtsfindung 193

nach dem immer gleichen Muster tabellenartig eingeordnet und beschieden werden können. Ein vorgefertigtes Prüfmuster und ein klares Konditionalge­ füge zwischen Tatbestand und Rechtsfolge ist gleichermaßen Ansatzpunkt wie Voraussetzung bisheriger Verfahrensautomation. Mit Recht ist daher auch eines der am weitesten fortgeschrittenen praktischen Automatisierungs­ beispiele in der Verwaltung, der vollständig automatisiert erlassene Steuerbe­ scheid, an die Voraussetzung geknüpft, dass die als „prüfungsbedürftig aus­ gesteuerten Sachverhalte“ durch (menschliche) Amtsträger bearbeitet und beschieden werden (können), vgl. § 88 Abs. 5 S. 3 Nr. 2 i. V. m. § 155 Abs. 4 S. 1 AO. Sofern keine langwierige Sachverhaltsaufklärung nötig ist und sich die entscheidungsrelevante Rechtsnorm in ein einfaches Konditionalschema („Wenn-dann“-Satz) übersetzen lässt, ist eine vorherige Antizipation – und damit Automation – prinzipiell möglich. Als einfache deterministische Sys­ teme mit widerspruchsfreien und eindeutigen Regeln, für eindeutig bestimmte Rechtsfolgen ohne Raum und Bedürfnis für Interpretation, gelangen automa­ tische Systeme dann zu guten Ergebnissen.225 Gegenstand gerichtlicher Verfahren sind indes nicht diese Art immer gleich gestrickter „Regelfälle“.226 Vor Gericht landen vor allem diejenigen Fälle, die rechtlich und tatsächlich gerade nicht eindeutig liegen. Im Strafprozess ergibt sich diese Individualität bereits aus der Tatsache, dass Menschen in ihrem Charakter und ihren Motiven unterschiedlich sind und daher auch „dieselbe“ Tat zweier Straftäter nicht standardisiert beurteilt werden kann, sondern einer Einzelfallbetrachtung bedarf. Auch im Zivilrecht bearbeitet der Richter zumeist keine Fälle, in denen der Tatbestand entscheidungsreif vor ihm liegt und eine eindeutig anzuwendende Norm „die eine richtige Rechts­ folge“ verlangt. Vielmehr sind es solche Streitigkeiten, in denen die Beteilig­ ten keine außer- und vorgerichtliche Einigung erzielen konnten und die ge­ rade nicht entscheidungsreif (Tatbestandsseite) sind bzw. die der materiellen Rechtslage entsprechende, vom Richter nur noch abzuurteilende Rechtsfolge klar ausweisen. Die Fälle, in denen der Sachverhalt „offenkundig“ oder „klar“ ist und die Rechtsfolge sich ohne Weiteres aus einem „Wenn-dann“Schema“ ergibt, sind also nicht der Regelfall vor Gericht. echte Massenverfahren“ meint dagegen eine größere Anzahl gleichartiger Verfahren bzw. gleichartiger Verwaltungsakte. Zur begrifflichen Unterscheidung zwischen ech­ ten und unechten Massenverfahren etwa Meissner, in: Schoch/Schneider/Bier (Hrsg.), VwGO, 14. Erg.-Lfg. (Februar 2007), § 56a, Rn. 6; Stelkens, NVwZ 1991, 209 (213). 225  Die Programmierung muss sich selbstverständlich an der materiellen Rechts­ lage ausrichten. 226  Vgl. auch Justizministerkonferenz 2019, Legal Tech: Herausforderungen für die Justiz, 1.7.2019, S. 65: „in der Mehrheit keine rechtlich eindeutigen und geklärten Fälle“.

194

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Oftmals stehen (auch) Sachverhaltsaufklärung und Beweisführung im Vor­ dergrund. Eine vollständige Automatisierung gerichtlicher Verfahren anzu­ denken, wäre daher von vornherein zum Scheitern verurteilt: Hat die Recht­ sprechung es grundsätzlich mit Einzelfällen und nicht mit Regelfällen zu tun, wäre der Zweck der Automatisierung, wie er jedenfalls in automatisierten Verwaltungsverfahren angestrebt wird – Bürokratieabbau, Verfahrensbe­ schleunigung, Kostenreduktion227 – in gerichtlichen Verfahren nicht ange­ schnitten. Denn räumt eine Norm Spielraum für Interpretationen ein, muss der Rechtsanwender alle möglicherweise relevanten Umstände des konkreten Falles prüfen. Nur theoretisch könnte der Normgeber jeden denkbaren Fall in allen Nuancen antizipieren und vorab in einem regelbasierten System pro­ grammieren. Diese Art der Schematisierung könnte indes dazu führen, dass das System untypische und Ausnahmefälle nicht erkennt und eine inhaltlich falsche, weil materiell-rechtlich unzutreffende Entscheidung trifft.228 Prak­ tisch ist nicht vorstellbar, jede mögliche Fallkonstellation in allen potenziell möglichen Nuancen vorab anzudenken und in ein Regelwerk zu pressen.229 Bisweilen folgt auch aus dem Zweck der gesetzlichen Ermächtigung, dass das Ermessen im Entscheidungszeitpunkt an den Aspekten des Einzelfalls auszurichten ist.230 (Solche) Ermessensentscheidungen sind ihrer Natur nach einzelfallbezogen zu treffen und können nicht ex ante programmiert werden, weil eine solche Vorwegnahme jedenfalls generalisierend wäre.231 Prima facie könnten Systeme Künstlicher Intelligenz, insbesondere künst­ liche neuronale Netze, hier eine mögliche Lösung bieten, weil sie mit Inter­ pretationsräumen durchaus umgehen können.232 Um Spielräume in Rechts­ normen auszufüllen, sind diese Technologien grundsätzlich besser geeignet als rein regelbasierte Systeme. Je mehr (Ermessens-)Spielraum eine Vorschrift dem Rechtsanwender gewährt,233 desto aufwendiger und komplizierter wäre die Übersetzung bzw. Umsetzung in passgenaue, detaillierte und klare Re­ etwa Martini/Nink, NVwZ-Extra 2017, 1 (1) m. w. N. Autonome Verwaltungsverfahren, 2017. 229  Siehe zu den Grenzen des Formalisierens auch Barth, Algorithmik für Einstei­ ger, 2. Aufl., 2013, S. 173 ff. 230  Vgl. Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 201. 231  Ebenso Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 201 f., der aber auch darauf hinweist, dass die Verwaltung im „typischen Einzelfall“ auch für eine einheitliche Ermessensausübung sorgen kann. Vgl. auch BGH, NJW 1997, 1380 (1381): „Ein Bußgeldbescheid kann wirksam nicht von einem Computer erlassen werden.“ Es ist davon auszugehen, dass der BGH diese Entscheidung mittlerweile nicht mehr in dieser Form träfe. 232  Dazu und zum Folgenden auch Bruns, Autonome Verwaltungsverfahren, 2017. 233  Diese Überlegungen gelten in ähnlicher Weise für unbestimmte Rechtsbegriffe (siehe dazu S. 213 f.) und parallel auch für Beurteilungsspielräume. Letztere stehen 227  Vgl.

228  Bruns,



III. Technische Hürden einer automatisierten Rechtsfindung 195

geln. Die Mustererkennungs- und Vorhersagefähigkeiten neuronaler Netze sind dann im Vorteil. Anhand historischer Daten aus realen Fällen der Recht­ sprechung könnte das intelligente System Muster der menschlichen Aus­ übung des Rechtsfolgenermessens erkennen. Ein Lernprozess befähigt die Maschine dann dazu, auch selbst die Ermessensausübung dem erkannten Muster bzw. der Fallanalyse entsprechend zu simulieren und diese Fähigkeit auf neue Fälle anzuwenden. Auf diese Weise lässt sich der Mechanismus bzw. der Prozess der menschlichen Ermessensausübung nachbilden.234 Die Funktionsweise künstlicher neuronaler Netze bringt aber auch rechtli­ che Probleme mit sich: Das Transparenzgebot als Prinzip staatlichen Han­ delns müsste aufgeweicht oder jedenfalls modifiziert werden.235 Denn die genaue Entscheidungsfindung künstlicher neuronaler Netze ist grundsätzlich nicht oder nur mit erheblichem Aufwand nachvollziehbar.236 Im Regelfall sind nur der (Daten-)Input und die Entscheidung als Ergebnis bekannt – aber nicht die genaue Vorgehensweise, die sich durch Lernen aus historischen Daten (etwa: vergangenen Entscheidungen) kontinuierlich an das erkannte Muster anpasst. Das liegt daran, dass leistungsfähige künstliche neuronale Netze aus mehreren Schichten bzw. Ebenen (engl. layers) bestehen: Zwi­ schen der Input- (Eingabe) und der Output-Schicht (Ergebnis) sind die „ver­ borgenen“ Schichten (engl. hidden layers), also deren Zustand und Verbin­ dungen, nicht offen einsehbar.237 Lernprozesse und die genaue Arbeitsweise des Gesamtsystems sind einer lückenlosen Nachvollziehbarkeit damit entzo­ gen. So kann ein künstliches neuronales Netz seine Funktion mit guten Er­ gebnissen erfüllen, aber es lässt nicht immer und nicht für jedermann erken­ nen, wie es die Ergebnisse erreicht hat. Richterliche Entscheidungen sind aber gerade dem verfassungsrechtlichen Transparenzgebot unterworfen: Ihr Zustandekommen insgesamt und auch die einzelnen Entscheidungsprozesse müssen nachvollziehbar sein.238 Wenn es den immer gleichgelagerten „Regelfall“, wie er in der Automatisierung von hier nicht weiter im Fokus der Betrachtung, weil Beurteilungsspielräume die Tatbe­ stands- und nicht die Rechtsfolgenseite betreffen. 234  Vgl. auch Oettinger, Data Science, 2017, S. 112 ff. 235  Zum verfassungsrechtlichen Gebot der Transparenz siehe im Einzelnen unten S. 331 ff. 236  Nauck/Klawonn et al., Neuronale Netze und Fuzzy-Systeme, 1994, S. 2 f.; zu den etwaigen Möglichkeiten, die Arbeitsweise des neuronalen Netzes interpretierbar zu machen und damit „Licht in die Black Box zu bringen“ a. a. O., S. 417 ff. 237  Kaplan, Künstliche Intelligenz, 2017, S. 46; Oettinger, Data Science, 2017, S. 113 ff. Vgl. bereits oben S. 149 f. 238  Zur Vertiefung des Konflikts zwischen der technischen Leistungsfähigkeit auf der einen und den Grundsätzen der Transparenz und Nachvollziehbarkeit auf der an­ deren Seite siehe unten S. 330 ff.

196

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Verwaltungsverfahren im Fokus steht, in der Rechtsprechung nicht gibt und daher rein deterministische Systeme keine adäquaten Ergebnisse erzielen könnten, gleichzeitig aber auch lernende Systeme Künstlicher Intelligenz Entscheidungen nicht bruchfrei und in ihrem Zustandekommen nachvollzieh­ bar treffen können, bleibt eine vollständige Automatisierung von Ermessens­ entscheidungen illusorisch. d) Zwischenergebnis Gerade wegen des technischen Status quo, dass Ermessen nicht vollständig automatisierbar ist, zieht der Gesetzgeber in § 35a VwVfG auch rechtlich die Grenze der Automatisierung. Langfristig unabänderlich ist das aber nicht. Wegen der theoretischen Möglichkeit für Fachgesetzgeber, diese Grenze neu zu justieren, fungiert § 35a VwVfG vor allem auch als Warnfunktion hin­ sichtlich rechtsstaatlicher Grundsätze.239 Eine Maschine könnte die Ermessensausübung als Teil der Rechtsfindung theoretisch simulieren und durchaus zu materiell-rechtlich vertretbaren Ent­ scheidungen kommen, nicht aber die menschliche Ermessensausübung subs­ tituieren.240 Einzelfallgerechtigkeit lässt sich schon begrifflich und seinem Wesen nach nicht in eine Automatisierung zwängen. Was insoweit im Ver­ waltungsverfahren eine klare Grenze hat, kann auch im gerichtlichen Verfah­ ren nicht zulässig, erst recht nicht gewollt sein. Für gerichtliche Entscheidun­ gen bleibt unerlässlich, dass der Entscheider den Einzelfall und all seine Aspekte verstehen und bewerten kann. Die entscheidende Hürde ist hierbei dann nicht „Ermessen“, sondern die Komplexität der Entscheidungslage241 oder anders: „Individualgerechtigkeit“. Denn Ermessen ist kein Selbstzweck, sondern zielt stets auf eine Einzelfallberücksichtigung. Die Realisierbarkeit dieses Anspruchs bei einer gedachten Vollautomatisierung beleuchtet der nachfolgende Abschnitt. 3. Einzelfälle und Ausnahmen – Individualgerechtigkeit Wie gesehen, bearbeiten und entscheiden Richter keine „Regelfälle“, son­ dern Einzelfälle: individuelle Fallkonstellationen und Lebenssachverhalte Schmitz/Prell, NVwZ 2016, 1273 (1276). Ergebnis ebenso Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 203. Ähnlich auch bereits Tönsmeyer-Uzuner, Expertensysteme in der öffentlichen Verwaltung, 2000, S. 112 ff., 248, zum Einsatz behördlicher Expertensysteme in Er­ messensfragen (keine „vollständige Programmierung von Ermessensnormen“). 241  Ähnlich (für das Sozialverwaltungsverfahren nach dem SGB X) Luthe, SGb 2017, 250 (254 f.). 239  Vgl. 240  Im



III. Technische Hürden einer automatisierten Rechtsfindung 197

jedweder Couleur, die sich, anders als in unechten Massenverfahren der Verwaltung, nicht ohne Weiteres in Muster und Schemata ordnen lassen. Dass Richter stets über den konkreten Einzelfall richten, ergibt sich bereits aus der Verfassung, insbesondere aus dem Anspruch auf rechtliches Gehör sowie dem Recht auf effektiven Rechtsschutz.242 Eine Automatisierung rich­ terlicher Entscheidungen stünde also unter der Bedingung, dass automatische Systeme in der Lage sind, alle (relevanten) Aspekte eines jeden Einzelfalls in einer individualisierten Einzelfallentscheidung zu berücksichtigen. a) Automatisierung und Einzelfallgerechtigkeit – ein Widerspruch? Automatisierte Verfahren bergen immer die Gefahr, dass sie den Sachver­ halt nicht in allen Facetten erfassen und aufklären und dann auch einzelne relevante Aspekte nicht in die Sachentscheidung einfließen lassen. Auch die Verwertung großer Datensätze als Erfahrungswissen kann dies nicht aus­ schließen.243 Die dabei gewonnenen Erfahrungssätze erlauben zwar Rück­ schlüsse auf verschiedene Fallkonstellationen: Ein automatisches System ließe sich etwa an echten, rechtskräftigen Urteilen ausrichten. Jede Routini­ sierung vernachlässigt aber die Individualität eines Sachverhalts zugunsten einer Typisierung.244 Rechtliche Entscheidungen – und das gilt für richterli­ che Entscheidungen in besonderem Maße – sind indes nicht an gleichförmi­ gen Merkmalen auszurichten, sondern an allen Besonderheiten und Details, die den konkreten Fall erst zum Einzelfall machen. Nur mit dieser Art der (auch gedanklichen) Individualisierung kann der Rechtsanwender die in Frage kommenden rechtlichen Konsequenzen vor dem Rechtsunterworfenen und der Gesellschaft rechtfertigen.245 Grundsätzlich wäre es möglich, anhand programmierter Entscheidungspa­ rameter vom „typischen Einzelfall“ abzuweichen und einen konkreten Fall zur händischen Bearbeitung und Entscheidung aus dem automatisierten Ver­ fahren auszusondern.246 Solche Aussteuerungsregeln zwingen indes dazu, ihre Voraussetzungen bereits im Zeitpunkt der Implementierung des Systems bzw. der Technikgestaltung (ex ante) festzulegen. Dies wäre zwangsläufig mit einer Schematisierung verbunden, die auf Statistik und Spekulationen 242  Vgl.

dazu unten S. 302 ff. DVBl 2017, 409 (416). 244  So bereits im Jahr 1967 Simitis, Automation in der Rechtsordnung – Möglich­ keiten und Grenzen, 1967, S. 18. 245  Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S. 18. 246  Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 203; Lazaratos, Rechtliche Auswirkungen der Verwaltungsautomation auf das Verwaltungsverfahren, 1990, S.  225 ff. 243  Bull,

198

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

basiert, was dem Grundverständnis der Einzelfallbewertung bzw. -entschei­ dung nicht entspricht.247 Weil jede Automatisierung auf Schematisierung angewiesen ist, kann ein schematisches, prüfrasterorientiertes Vorgehen individuelle Fallkonstellatio­ nen nur so weit berücksichtigen, wie diese bei der Programmierung des Programms bzw. der Konfiguration antizipiert werden (können).248 Auch das Fortschreiten der technischen Möglichkeiten – möglicherweise gepaart mit einem Rationalisierungsdruck der öffentlichen Hand – darf nicht dazu füh­ ren, dass für den Betroffenen gewichtige Entscheidungen an Einzelfallge­ rechtigkeit einbüßen, weil der konkrete, individuelle Sachverhalt mit all sei­ nen Besonderheiten aufgrund der Schematisierung keine ausreichende Be­ rücksichtigung mehr findet.249 In einem Gerichtsverfahren haben Beteiligte, Parteien und Angeklagte ohnehin immer Anspruch auf rechtliches Gehör.250 Individueller Vortrag, Ausnahmen und Besonderheiten des Einzelfalls sind zwingend zu berücksichtigen. Für die von einer maschinellen Entscheidung betroffene Einzelperson be­ steht immer die Gefahr, dass algorithmische Prognosen und Entscheidungen sie auf die Zugehörigkeit zu bestimmten Gruppen reduzieren. Die Arbeits­ weise eines Algorithmus ist nicht vorstellbar ohne Klassifizierung, Eintei­ lung, Eingruppierung. Genau dies kann aber ein Spannungsverhältnis zwi­ schen individueller Fairness bzw. Gerechtigkeit und einer „Gruppenfairness“ aufbauen – etwa dann, wenn die Datenbasis einer Software auf einer vorab definierten Gruppe beruht und der algorithmische Entscheidungsprozess den Einzelnen „generalisiert“. Grundlage einer gerichtlichen Entscheidung muss hingegen allein das Individuum sein, nicht dessen Zugehörigkeit zu einer Klasse oder Gruppe. Rechtliche Schlussfolgerungen sind immer eine Art „Kompromissversuch“ zwischen der abstrakt-generellen Vorschrift und den Eigenarten des konkre­ ten Falles.251 Der Bezug auf das Individuelle ist allen Gerichtsbarkeiten ei­ 247  Lazaratos, Rechtliche Auswirkungen der Verwaltungsautomation auf das Ver­ waltungsverfahren, 1990, S. 229; Laue, Vorgangsbearbeitungssysteme der Verwal­ tung, 2010, S. 203. 248  Martini/Nink, DVBl 2018, 1128 (1129) m. w. N.; Prell, apf 2017, 237 (240). 249  So auch Prell, apf 2017, 237 (240), in Bezug auf den Untersuchungsgrundsatz im Verwaltungsverfahren und den neuen § 24 Abs. 1 S. 3 VwVfG. Im Verwaltungs­ verfahren stellt § 24 Abs. 1 S. 3 VwVfG sicher, dass die Behörde alle (für den Einzel­ fall bedeutsamen) tatsächlichen Angaben des Beteiligten, die im automatischen Ver­ fahren nicht ermittelt werden, berücksichtigt. 250  Dazu unten S. 300 ff. 251  Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S.  20 f.



III. Technische Hürden einer automatisierten Rechtsfindung 199

gen: In der Strafzumessung bspw. muss der Richter die (ungewöhnlichen) Eigenheiten des Falles, besonders auch die Motive des Angeklagten in die Entscheidung einfließen lassen; auch im Besteuerungsverfahren hängt die Ermittlung der individuellen Steuerlast von einer Vielzahl individueller Um­ stände ab, sowohl im Einkommensteuerbescheid als auch in der finanzge­ richtlichen Überprüfung. Ausgangs- und Ansatzpunkt der Rechtsprechung kann und darf stets nur der Einzelfall sein. Richterliche Entscheidungen, die den Einzelfall nicht in seiner Besonderheit erfassen, werden ihrer besonderen Verantwortung nicht gerecht. Algorithmen und automatische Systeme arbeiten hingegen mit Statistiken, Stigmata und Gruppenzugehörigkeiten, aus denen sie Rückschlüsse ableiten. Regelmäßig sind die Ergebnisse umso genauer, je größer die zur Verfügung stehende Vergleichsdatenmenge ist – dies läuft jedoch dem Erfordernis einer umfassenden Einzelfallbetrachtung grundsätzlich ebenso zuwider wie dem Schutz des Rechts auf informationelle Selbstbestimmung des Einzelnen.252 Das Herauslösen des Rechtsunterworfenen aus dem konkreten Einzelfall hi­ nein in ein generalisierendes Vergleichsbecken kann zu einer statistischen Diskriminierung führen.253 b) Menschliche versus maschinelle Entscheidung aa) Chancen – Was Technik kann Moderne Technik weckt in vielerlei Kontexten die Begehrlichkeit, mensch­ liche Schwächen zu überwinden oder jedenfalls abzufedern. Das ist auch für die juristische Entscheidungsfindung grundsätzlich denkbar. Denn ebenso wie Computer beziehen auch Menschen nie die gesamte objektive Wirklich­ keit in ihre Entscheidungsfindung ein. Bereits die Informationsbeschaffung und -gewichtung ist selektiv und vielfach subjektiv: Der Confirmation Bias, Vorurteile, persönliche Sympathien für eine Partei bzw. einen Angeklagten, die Tagesform des Entscheiders, all dies kann eine menschliche Entschei­ dung verzerren.254 Auch Menschen entscheiden – nicht zuletzt wegen ihrer 252  Zum Diskriminierungspotenzial maschineller Entscheidungsfindung siehe oben S. 167 ff. 253  Vgl. zu den verfassungsrechtlichen Grenzen einer solchen statistischen Diskri­ minierung – mit einem Fokus auf die Gleichheitsgrundrechte – Britz, Einzelfallge­ rechtigkeit versus Generalisierung, 2008, S. 138 ff. Nach Britz bestehen drei Wir­ kungsebenen der statistischen Diskriminierung: die Benachteiligung aufgrund statisti­ scher Fehlannahmen, die gruppenzugehörigkeitsbedingte Benachteiligung (ohne spezifisch statistische Effekte) und die sachlich unangemessene Benachteiligung. 254  Dazu ausführlich oben S. 45 ff.

200

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Lebens- und Berufserfahrung255 – anhand von Vergleichen bzw. Vergleichs­ fällen und Kategorien. Generalisierung und Typisierung sind keine Nova der digitalen Sphäre. Die Annahme, ein Rechtsanwender könnte isoliert ausschließlich den konkreten Einzelfall bewerten, ist eine utopische. Im Vergleich dazu können Algorithmen grundsätzlich eine Vielzahl an objektiv vorhandenen, bislang möglicherweise verborgenen Kriterien berück­ sichtigen; das ermöglicht Entscheidungen, die ein vollständiges und hochauf­ lösendes Bild des Sachverhalts zeichnen. Im algorithmischen Prozess ist al­ lerdings nicht allein der Einzelfall maßgeblich, sondern dieser erscheint im­ mer im Vergleich mit anderen Situationen.256 Indem Algorithmen große Mengen personenbezogener Daten mit den Daten anderer Personen verglei­ chen können, ermöglichen sie prima facie maßgeschneiderte Einzelfallent­ scheidungen.257 Individualgerechtigkeit verlangt, dass alle relevanten Um­ stände des Einzelfalls ermittelt und bewertet werden. Das setzt (bislang) ei­ nen erheblichen Einsatz geistiger Ressourcen bzw. menschlicher Arbeitskraft voraus. Moderne IT-Systeme sind hingegen in der Lage, in kurzer Zeit auf der Grundlage großer Datenmengen individualisierte Lösungen zu erarbeiten. Algorithmen lassen dabei die Trennlinie zwischen Einzelfallbetrachtung und Typisierung verschwimmen. Sie sind aber durchaus in der Lage, Entschei­ dungen im Einzelfall zu treffen, indem sie die Umstände des Einzelfalls ihrer Entscheidung unterlegen; ob diese aber „besser“ oder „schlechter“ als menschliche Entscheidungen sind, ist damit nicht gesagt.258 Indem sie sich am Durchschnitt der Fälle in der vorhandenen Datenbasis orientieren können, fällt es ihnen leicht, Abweichungen vom Durchschnitt zu erfassen und mit einem „Distanzmaß“, also dem Grad der Abweichung, zu versehen. Ab ei­ nem bestimmten Abweichungsgrad könnte das System dann wiederum hu­ mane Intelligenz einbinden und den Fall zur menschlichen Entscheidung aussortieren.

255  Oder aber: Gerade wegen mangelnder Berufserfahrung wird der Berufsanfän­ ger dazu neigen, sich in den Einzelfallentscheidungen an Vergleichsfällen (insbeson­ dere obergerichtlicher Rechtsprechung) und Leitlinien zu orientieren. 256  Ernst, Selbstentfaltung und Algorithmeneinsatz, in: Klafki/Würkert/Winter (Hrsg.), Digitalisierung und Recht, 2017, S. 63 (67). Auf der Grundlage von Korrela­ tionen und Statistiken entscheidet nicht primär die Individualität des Betroffenen, sondern die Zugehörigkeit zu Gruppen, vgl. Lenk, Verwaltung und Management 22 (2016), 227 (230 f., 233). 257  Ernst, Selbstentfaltung und Algorithmeneinsatz, in: Klafki/Würkert/Winter (Hrsg.), Digitalisierung und Recht, 2017, S. 63 (72). 258  Ernst, Selbstentfaltung und Algorithmeneinsatz, in: Klafki/Würkert/Winter (Hrsg.), Digitalisierung und Recht, 2017, S. 63 (77).



III. Technische Hürden einer automatisierten Rechtsfindung 201

bb) Risiken – Was Technik nicht kann (1) Grundsätzliches Maschinelle Entscheidungen können immer nur das Modell menschlichen Verhaltens abbilden anhand der Daten, mit denen sie gefüttert wurden – nicht hingegen den Menschen selbst. Individuelle Merkmale, die nicht bereits im verfügbaren Datenpool liegen, finden keine Berücksichtigung. Eine Maschine sucht Zusammenhänge zwischen Variablen und trifft konkrete Entscheidun­ gen grundsätzlich mittels deduktiver Methodik.259 Weil sie eine Vielzahl an Kriterien und große Datenmengen berücksichtigen kann, sehen ihre Ent­ scheidungen auf den ersten Blick aus, als wiesen sie einen höheren Grad an Individualisierung auf. Jedoch beruhen algorithmenbasierte Entscheidungen nicht zuvorderst auf dem konkreten Sachverhalt selbst: Es fließen nur dieje­ nigen Umstände und Kriterien in die Entscheidung ein, die typischerweise in dieser Art von Fall bedeutsam sind. Atypische Umstände, Ausnahmen oder gänzlich unvorhersehbare Wendungen sind dem maschinellen Arbeitsvorgang grundsätzlich fremd.260 Mit ihren prima facie klaren und eindeutigen Regeln und Schemata eignet sich die Rechtsanwendung zwar grundsätzlich gut zur Automatisierung: In der Regel lassen sich Rechtsnormen in Entscheidungsbäumen abbilden, so­ dass ein Automat an jedem Entscheidungsknotenpunkt eine eindeutige Zu­ ordnung treffen könnte. Das gilt jedenfalls für Konditionalrechtssätze, die ohne unbestimmte Rechtsbegriffe und Generalklauseln auskommen (bspw. § 1004 Abs. 1 S. 1 BGB: Wenn das Eigentum in anderer Weise als durch Entziehung oder Vorenthaltung des Besitzes beeinträchtigt, dann kann der Eigentümer von dem Störer die Beseitigung der Beeinträchtigung ver­ lan­ gen).261 Mitnichten lassen sich aber auch die Lebenssachverhalte, die den Regelungen unterfallen, konsequent und ausnahmslos in Nullen und Einsen, in Schwarz oder Weiß einpflegen. Konflikte – die zu vermeiden und zu lösen Ziel des Rechts insgesamt ist – vollziehen sich oft im Graubereich, sind nicht

259  Mit Deduktion bzw. deduktiver Methode bezeichnet man eine Schlussfolgerung (vor)gegebener Prämissen auf die logisch zwingenden Konsequenzen (vom Allgemei­ nen zum Besonderen); der Begriff ist vor allem in der Logik und der Philosophie gebräuchlich. Zum Folgenden Ernst, JZ 2017, 1026 (1028). 260  In Systemen maschinellen Lernens bzw. künstlichen neuronalen Netzwerken kann das in gewissen Grenzen anders sein. Das Grundproblem bleibt jedoch beste­ hen. 261  Zu den Problemen der Formalisierung natürlicher (Rechts-)Sprache, die sich durch unbestimmte Rechtsbegriffe und Generalklauseln noch verschärfen, sogleich unten S. 210 ff.

202

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

eindeutig, sondern vielschichtig.262 Aber auch die Regelanwendung selbst ist auf Sinndeutung angewiesen; soweit Normen als interpretationsoffen konzi­ piert sind, ist auch die Rechtsanwendung nicht vollständig durch eindeutige Vorgaben determiniert, jedenfalls aber keine „allein den Prinzipien formaler Logik folgende Subsumtion“.263 Eine Maschine könnte uneindeutige Ent­ scheidungssituationen allenfalls bspw. als „entspricht nicht dem antizipierten Konditionalprogramm“ ausweisen und zur menschlichen Prüfung aussortie­ ren.264 Eine Vollautomatisierung müsste jedoch eine qualitativ adäquate Rechtsfindung ohne menschliches Dazwischentreten garantieren können. Automatische Systeme hangeln sich verlässlich an den ihnen immanenten Regeln entlang zu ihrer Prognose bzw. Entscheidung. Sie bearbeiten und entscheiden grundsätzlich jeden Fall gleich, ihnen fehlt aber die Flexibilität, auf unvorhergesehene relevante Aspekte individuell zu reagieren.265 Wegen ihrer Regelfixierung entscheiden Maschinen grundsätzlich konsistenter – aber bei Fehlern oder Unvollständigkeiten in den Trainingsdaten bzw. den Entscheidungsparametern eben auch konsistent falsch.266 (2) Statische Entscheidungsfindung – rein regelbasierte Systeme Um Einzelfälle adäquat berücksichtigen und beurteilen zu können, müss­ ten automatische Systeme die Relevanz von ursprünglich nicht einprogram­ mierten und antizipierten Aspekten erkennen und in die Entscheidungsfin­ dung einbinden können. Denn die Gerechtigkeit des Einzelfalls lässt sich „nicht axiomatisieren und kaum formalisieren“.267 Der Rechtsanwender muss sie als Zielvorgabe anstreben und anhand konkreter Bewertungsakte herstel­ 262  Aus diesem Grund müssten auch Bestrebungen, das Recht insgesamt vollstän­ dig zu „algorithmisieren“, um auch seine Anwendung und Durchsetzung automatisie­ ren zu können, zwangsläufig scheitern. 263  Hoffmann-Riem, AöR 142 (2017), 1 (26 f.). Siehe ergänzend auch Leuenberger/ Schafer, Reasoning about Exceptions in Legal AI, in: Schweighofer/Kummer/Hötzen­ dorfer et al. (Hrsg.), IRIS 2017 Tagungsband, 2017, S. 131 (131 ff.). 264  Vgl. auch Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 203; Lazaratos, Rechtliche Auswirkungen der Verwaltungsautomation auf das Verwal­ tungsverfahren, 1990, S. 225 ff. 265  Lischka/Klingel, Wenn Maschinen Menschen bewerten, Mai 2017, S. 37. 266  Zudem ist der Anwendungsbereich einer Software potenziell um ein Vielfaches größer als die Entscheidungseigenheiten und -strategien eines Richters: Die (ex ante) programmierte, geformte Entscheidungslogik greift in weit mehr Fällen als die Ent­ scheidungslogik eines einzelnen Richters, vgl. das Zwischenfazit oben S. 176 f. so­ wie Lischka/Klingel, Wenn Maschinen Menschen bewerten, Mai 2017, S. 11. 267  Kilian, Juristische Expertensysteme, in: Nickel/Roßnagel/Schlink (Hrsg.), Frei­ heit und Macht, 1994, S. 201 (211).



III. Technische Hürden einer automatisierten Rechtsfindung 203

len. Statische, regelbasierte Systeme268 können nur berücksichtigen, was ihre Entwickler ihnen einprogrammiert haben. Einprogrammieren lässt sich aber nur das, was man zuvor auch antizipieren kann: Entscheidend ist dabei, mög­ lichst viele denkbare Fallkonstellationen zu subsumieren, an jede Eventualität zu denken und sie dann in Programmzeilen zu gießen. Somit sind besonders die kognitiven Fähigkeiten algorithmenbasierter Systeme technischen Be­ grenzungen unterworfen, aufgrund derer sie potenzielle Gesichtspunkte einer sachgerechten Einzelfalldifferenzierung und -gerechtigkeit nicht oder nur unzureichend erfassen können: Das System kann nur solche Aspekte in die Entscheidungsfindung einfließen lassen, die über seine Sensorik bzw. Schnittstelle in den Daten-Input fließen. Alle anderen Einzelfallparameter gehören nicht zur Umwelt des Systems und werden in der Gesamtbetrach­ tung vernachlässigt.269 Ob solche Systeme Einzelfallgerechtigkeit erreichen und Ausnahmekons­ tellationen korrekt einordnen können, hängt schließlich davon ab, wie detail­ liert die Entscheidungsbäume des Programms ausgestaltet sind und ausge­ staltet werden können. Insbesondere für normativ bewusst eingeräumte Ent­ scheidungsspielräume gilt indes: Es lassen sich eben nicht alle Umstände und Besonderheiten eines jeden Einzelfalls in programmierbare Raster pressen.270 Algorithmisierung bedeutet Normierung – den Einzelfall, der (trotz mögli­ cher Abweichungstoleranzschwellen) nicht der Norm entspricht, trifft die Gefahr fehlerhafter Bewertung. Umgekehrt lässt sich in automatischen Syste­ men auch nicht gänzlich verhindern, dass sachlich irrelevante Gesichtspunkte unterschwellig in die Entscheidungsroutine einfließen. Auch weil IT-Syste­ men nur sehr begrenzte Möglichkeiten zur Verifizierung eines Sachverhalts offenstehen, sie etwa keine Ortsbesichtigung vornehmen können, besteht die Gefahr, dass sie atypische Sachverhalte als typisch bzw. als Regelfall einstu­ fen.271 Statische, nicht-lernende regelbasierte Algorithmen sind, alles in al­ lem, nicht in der Lage, unvorhergesehene Ausnahmefälle zuverlässig zu be­ werten und Einzelfallgerechtigkeit zu garantieren. 268  Vgl.

die begriffliche Einordnung oben S. 149 f. gilt jedenfalls für sog. Closed-World-Assumption-Programmierungen, wenn also die Arbeitsweise des automatischen Systems auf der „Annahme der Welt­ abgeschlossenheit“ beruht, vgl. Kirn/Müller-Hengstenberg, MMR 2014, 225 (228). Alle Aspekte, die in einem solchen Modell nicht (ex ante) modelliert sind, existieren im Modell auch nicht und können keine Berücksichtigung finden. Die Aussage ist aber freilich nicht verallgemeinerungsfähig und gerät etwa bei maschinellen Lernver­ fahren ins Wanken, siehe dazu sogleich. 270  So auch das Fazit bei Martini, Blackbox Algorithmus, 2019, S. 335. 271  Guckelberger, Automatisierte Verwaltungsakte, in: van Oostrom/Weth (Hrsg.), FS Herberger, 2016, S. 397 (404); Lazaratos, Rechtliche Auswirkungen der Verwal­ tungsautomation auf das Verwaltungsverfahren, 1990, S. 109. 269  Das

204

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(3) Dynamische Entscheidungsfindung – lernende Systeme und Künstliche Intelligenz Systeme maschinellen Lernens verfügen mittels spezieller Algorithmen über eine dynamische, sich entwickelnde Art der Entscheidungsfindung. An­ hand von Trainingsdaten und Beispielen lernen sie nicht lediglich Einzelfälle auswendig, die sie dann reproduzieren. Vielmehr erkennen sie Muster und Gesetzmäßigkeiten in den Daten und können auf diese Weise auch unbe­ kannte Daten erfassen und beurteilen (Lerntransfer). Die Regeln, nach denen das System lernt, definieren Menschen. Gleiches gilt für die Auswahl der Trainingsdaten. Maschinelle Lernverfahren sind dann in der Lage, relevante (Sachverhalts-)Informationen zu finden und zu ordnen, darauf basierte Vor­ hersagen zu treffen, Wahrscheinlichkeiten für bestimmte Ereignisse zu be­ rechnen und Prozesse auf Basis erkannter Muster zu optimieren.272 Der Lernprozess selbst erfolgt (beim überwachten Lernen) anhand einer ständigen Rückmeldung der Programmierer und Anwender, insbesondere der nachträglichen Einordnung einer jeden Prognose bzw. Entscheidung in „rich­ tig“ und „falsch“: Erfahrung generiert Wissen. Im Gegensatz zu statischen, rein regelbasierten Systemen sind Machine-learning-Verfahren in der Lage, auch mit neuen, vom Programmierer nicht vorhergesehenen Konstellationen umzugehen. Das ist gerade der „klassische Anwendungsfall“ maschinellen Lernens.273 Damit sind sie in der Theorie grundsätzlich geeignet, alle rele­ vanten Aspekte eines Sachverhalts zu erfassen und in ihre Entscheidung einfließen zu lassen – und damit auch grundsätzlich besser geeignet, Einzel­ fälle und Ausnahmen adäquat einzuordnen. In einem komplexen und hochva­ riablen Regelsystem, wie es die (auf natürlicher Sprache274 basierende) richterliche Entscheidungsfindung darstellt, sind die stochastisch-induktiven Verfahren dynamischer Entscheidungssysteme gegenüber der statischen Her­ angehensweise deterministischer Programme im Vorteil.275

272  Vgl. Reitmaier, Aktives Lernen für Klassifikationsprobleme unter der Nutzung von Strukturinformationen, 2015, S. 1 f. Künstliche neuronale Netze nehmen hier eine gewisse Sonderstellung ein: In manchen Computerprogrammen ist es nicht einmal mehr notwendig, dem System die Regeln, nach denen der Lernprozess erfolgen soll, vorzugeben – so etwa bei dem autodidaktischen Programm AlphaZero. Die Vorge­ hensweise des Systems richtet sich dann ausschließlich an der Zielvorgabe aus. Ent­ scheidend ist also jeweils, was der Mensch der Maschine als Ziel vorgibt. 273  Vgl. bereits oben S. 147 f. 274  Zu den Schwierigkeiten der Formalisierung natürlicher Sprache sogleich unten S. 210 ff. 275  Vgl. Wischmeyer, AöR 143 (2018), 1 (14).



III. Technische Hürden einer automatisierten Rechtsfindung 205 Beispiel: Angenommen, ein System maschinellen Lernens analysiert alle rechts­ kräftigen Urteile der letzten 30 Jahre zu Verurteilungen nach § 263 StGB (Betrug). Die Musteranalyse speist alle Eckdaten und Falldetails als Daten-Input in den Lernprozess ein. Nach Eingabe oder Erfassung eines neuen, aktuell zu entschei­ denden Falles könnte das System neben der Sachentscheidung auch eine Art „Subsumtion“ leisten. Es „versteht“ zwar die Rechtsbegriffe der Vorschrift nicht, ebenso wenig die Motive des Angeklagten oder die psychischen Folgen beim Opfer der Straftat. Aber dieses Verständnisses bedarf es im Gros der Fallkonstel­ lationen auch nicht, um nach dem Muster des historischen Datensatzes eine juris­ tisch vertretbare Entscheidung oder Empfehlung zu finden: Musteranalysen und maschinelles Lernen können ein System jedenfalls dazu befähigen, auch Ausnah­ mefälle sowie abweichende und bislang nicht im Datensatz enthaltene Fälle kor­ rekt einzuordnen.

Dem lässt sich entgegen, dass eine Musteranalyse mit anschließender Einbzw. Zuordnung des konkret zu entscheidenden Sachverhalts keine wirkliche Einzelfallentscheidung darstellt. Denn ein automatisches System betrachtet den Betroffenen immer nur als Teil einer bestimmten oder bestimmbaren Gruppe, nicht jedoch als Individuum. Die Funktionsweise von Maschinen ist zudem grundsätzlich quantitativ; richterliche Rechtsfindung ist aber auf ein qualitatives Vorgehen angewiesen. So bedarf es etwa bereits einer wertenden Betrachtung, ob  ein bestimmter (neuer) Aspekt in einem von den Trainings­ daten abweichenden Einzelfall relevant ist oder nicht. Zwar zieht auch der Mensch in ähnlicher Weise (bewusst oder unbewusst) Vergleiche mit anderen Fällen und ordnet den konkret zu entscheidenden Sachverhalt in den Kontext vergleichbarer Konstellationen und bisheriger Rechtsprechung ein. Der menschliche Richter geht aber stets vom Einzelfall aus; er nimmt diesen als Anfangspunkt und Gegenstand seines Entscheidungsprozesses. Mustererken­ nung hingegen ist gerade keine Individualgerechtigkeit. Entscheidend ist also nicht nur, welche Aspekte ein automatisches Rechtsfindungssystem berück­ sichtigen kann, sondern vor allem auch, welche Zielvorgabe es verfolgen sollte. cc) Maßstab der Zielbestimmung – Vorgaben an die gerichtliche Entscheidungsfindung Die abstrakte Zielvorgabe für ein automatisches Rechtsfindungssystem müsste eine „Entscheidung nach geltendem Recht“ sein, was jedoch einen weiten Spielraum offenließe. Innerhalb dessen böte sich als weitere Zielvor­ gabe „Orientierung an der bisherigen Judikatur zu vergleichbaren Fällen“ an. Konkrete Vorgaben der Rechtsordnung an den gerichtlichen Entscheidungs­ prozess sind:276 Es darf kein Verstoß gegen formelles (Verfahrens-)Recht 276  Vgl.

oben S. 109 ff.

206

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

vorliegen, die Sachentscheidung muss der materiell-rechtlichen Rechtslage entsprechen und es bedarf einer nachvollziehbaren Entscheidungsbegrün­ dung. Anhand historischer Daten (einer großen Anzahl vergleichbarer Fälle) eine rechtlich vertretbare Entscheidung zu treffen und aus Textbausteinen eine diese tragende Begründung zusammensetzen, scheint technisch nicht ausge­ schlossen. Vor ihrem Einsatz in praxi könnte die Software eine Art „rechtli­ chen Turing-Test“ ableisten:277 Wenn ein Volljurist nicht sicher sagen kann, ob eine begründete Entscheidung von einer Maschine oder einem menschli­ chen Richter stammt, hat die Software den Test bestanden. Ein solcher Test wäre allerdings nur schwer umsetzbar, weil die Kriterien seines Bestehens unklar und ihrerseits subjektiv sind. Es bestünde zudem die Gefahr eines Zirkelschlusses: Denn Rechtsanwendung bedeutet bereits Einzelfallanalyse, konkrete Bewertungsakte und qualitatives Vorgehen, wohingegen die Identi­ fikation der Zielvorgaben beim maschinellen Lernen nach (rein) quantitativen Kriterien erfolgt, um den Lernprozess des Systems messbar zu machen. Aus rechtstheoretischer Sicht stellt sich die Frage, ob es für die Beurtei­ lung einer gerichtlichen Entscheidung nur auf das Ergebnis des Rechtsan­ wendungs- und Rechtsfindungsprozesses ankommt, einschließlich einer nachvollziehbaren Begründung, oder auch auf den Prozess der Entschei­ dungsfindung selbst und das methodische Vorgehen. Der Betroffene will die Entscheidung inhaltlich nachvollziehen können; dazu dient ihm die Ent­ scheidungsbegründung. Er will aber auch erkennen, wie die Entscheidung zustande kam. Solange kein Verstoß gegen Verfahrensvorschriften erfolgt, hat er allerdings keine rechtliche Handhabe, den Prozess der Entscheidungs­ findung (im Kopf des Richters) nachzuvollziehen. Gleiches müsste grund­ sätzlich auch für eine algorithmisch-maschinelle Entscheidungsfindung gel­ ten. Eine solche Schlussfolgerung ist aber unzulässig, weil, wie gesehen, schon die jeweilige Herangehensweise eine gänzliche andere ist: Menschen gehen eher vom Einzelfall aus, Maschinen hingegen von Korrelationen und Mustern. Der Prozess der Entscheidungsfindung und die Entscheidung selbst sind außerdem nicht strikt trennbar. Schon während des Verfahrens gewichtet und wertet der Entscheider einzelne Informationen. Gerade deswegen ist ein (hu­ manoider) „Prozessführungsroboter“ nicht denkbar.278 Es wäre dann aller­ dings realitätsfremd zu glauben, man könne den Gerichtsprozess nur zur Sachverhaltsaufklärung durchführen, bevor eine Software dann den aufberei­ teten Sachverhalt gleichsam auf dem Silbertablett serviert erhält, den sie nur 277  Vgl. 278  Vgl.

Adrian, Rechtstheorie 48 (2017), 77 (80 f.). bereits oben S. 177 ff.



III. Technische Hürden einer automatisierten Rechtsfindung 207

noch aburteilen muss. Denn worüber eine Rechtsfolge zu verhängen und was zu entscheiden ist, ist bereits Teil der Entscheidung – etwa die Beweis­ würdigung oder die Entscheidung, ob der Fall nun entscheidungsreif ist (Zi­ vilrecht) bzw. ob die Beweisaufnahme abgeschlossen ist. c) Zwischenergebnis Stützt sich eine maschinelle Entscheidung (nur) auf Mustererkennung so­ wie eine auf Textbausteinen basierenden Begründung, besteht die Gefahr, dass die Software neue (unbekannte, nicht in den Trainingsdaten enthaltene bzw. nicht mit diesen vergleichbare) Sachverhalte und Konstellationen feh­ lerhaft einordnet und begründet. Es stellt ein grundlegendes Problem dar, dass Maschinen eine prognostizierende, berechnende Arbeitsweise nutzen, aber wertende Einzelfallentscheidungen ihnen grundsätzlich fremd sind. Sys­ teme maschinellen Lernens bspw. entscheiden den konkreten, neuen Fall auf Grundlage ihres Trainings und der Datenbasis, also anhand einer rückbli­ ckend beschränkten Vorgehensweise: Der Entscheidungsalgorithmus kann grundsätzlich nur solche Sachverhaltsgestaltungen erfassen (und einordnen), die zumindest in ähnlicher Weise bereits in den Trainingsdaten enthalten waren.279 Der gerichtlichen Entscheidung, die auf Einzelfallgerechtigkeit zielt, steht eine solche Einschränkung entgegen. Der Anteil der Formalisierung und Mechanisierung für den Entscheidungs­ prozess ist umso schwächer, je mehr individuelle oder außergewöhnliche Einflussfaktoren für die Entscheidungsfindung berücksichtigt werden (müssen).280 Die Möglichkeiten der Automatisierung sind umso enger be­ grenzt, je individueller der Lebenssachverhalt ist, welcher der juristischen Entscheidung zugrunde liegt. Die (gedachte) Automatisierung richterlicher Entscheidungen stünde also vor der Herausforderung, jeden Einzelfall zu­ nächst daraufhin zu prüfen, ob er signifikant von anderen Fällen abweicht und ob deshalb eine automatisierte Entscheidung ausgeschlossen ist. Juristische Gerechtigkeit ist individualisiert. Richterliche Entscheidungen müssen ausschließlich auf den Umständen des Einzelfalls sowie dem gelten­ den Recht beruhen – und nicht auf einer Ähnlichkeit zu Normgruppen.281 Im Ergebnis erzeugt Automatisierung immer die Gefahr, dass die Maschine den konkreten (atypischen) Einzelfall nicht korrekt einordnet und erkennt und 279  Vgl. Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (462 f.). 280  Kilian, Juristische Expertensysteme, in: Nickel/Roßnagel/Schlink (Hrsg.), Frei­ heit und Macht, 1994, S. 201 (206). 281  Lischka/Klingel, Wenn Maschinen Menschen bewerten, Mai 2017, S. 11.

208

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

sodann eine materiell-rechtlich unrichtige Entscheidung trifft. Trotz enormer technischer Fortschritte können Menschen nach wie vor besser auf Einzelund Ausnahmefälle eingehen als (menschengemachte) Algorithmen. Sofern insbesondere in den USA bereits Algorithmen in Gerichtsverfahren zum Einsatz kommen,282 begründen das dortige Case-law-System bzw. das Feh­ len einer Präjudizienbindung in Deutschland strukturelle Unterschiede, so­ dass sich aus etwaigen aktuellen Anwendungsbeispielen kein konträres Fazit ergibt. Individualgerechtigkeit hat zudem immer eine qualitative Komponente. Die quantitative Vorgehensweise einer Maschine kann dem nicht genügen: Statistik sagt nichts über den Einzelfall aus. Zu jeder Rechtsfrage, in jeder Rechtsmaterie, kann es durchaus einen Normalfall geben, den ein Algorith­ mus korrekt greifen kann. Es ist unserem Rechtssystem hinsichtlich der richterlichen Entscheidungsfindung jedoch grundsätzlich nicht um den Nor­ malfall bestellt, sondern um den Einzelfall, um das einzelne Individuum und seine konkreten Rechtsprobleme.283 Weil die mittels maschinellen Lernens trainierten Modelle zudem statistische Verfahren darstellen, wäre immer eine gewisse – sei es noch so geringe – Quote an falsch-positiven und falsch-ne­ gativen Entscheidungen hinzunehmen;284 für die der Einzelfallgerechtigkeit verschriebenen Justiz wäre dies nicht akzeptabel. 4. Automatisierung und Sprache Eine der größten Hürden automatisierter Rechtsfindung ist die (juristische) Sprache. Wie komplex unsere natürliche Sprache ist, kann erahnen, wer die Geschichte des Google-Übersetzers verfolgt hat. Der Online-Dienst basiert auf einer statistischen Übersetzungsmethode, die zu Beginn kuriose Ergeb­ nisse erzeugte.285 Die stetig verbesserte Künstliche Intelligenz dahinter konnte aber zuletzt enorme Fortschritte erzielen: Die seit 2016 eingesetzten künstlichen neuronalen Netze übersetzen nicht mehr Wort für Wort, sondern die eingegebenen Sätze als Ganzes.286 Übersetzen können Systeme Künstli­ 282  Etwa der COMPAS-Algorithmus in der Strafrechtspflege (dazu unten S. 375 ff.) oder der ROSS-Chatbot, vgl. auch Europarat/Europäische Kommission für die Effi­ zienz der Justiz (CEPEJ), Ethical Charter on the Use of AI, 2018, S. 17 f. Vgl. auch die Einsatzbeispiele im Strafprozess in Großbritannien bei The Law Society of England and Wales, Algorithms in the Criminal Justice System, Juni 2019, S. 33 ff. 283  Kotsoglou, JZ 2014, 1100 (1102). 284  Wischmeyer, AöR 143 (2018), 1 (24). 285  So wurde z. B. aus der deutschen „Kernseife“ die mit Vorsicht zu genießende „nuclear soap“. 286  Walter, Google Translate is tapping into neural networks for smarter language learning, PC World Online vom 16.11.2016.



III. Technische Hürden einer automatisierten Rechtsfindung 209

cher Intelligenz mittlerweile ebenso gut wie Menschen.287 Um Lebenssach­ verhalte bewerten und juristische Entscheidungen treffen zu können, ist aber eine umfassendere Abbildung der Sprache erforderlich. a) Zum Sprachverständnis Verstehen von Sprache gelingt immer nur mit einem gewissen Vorverständ­ nis – dem Kontext.288 Am Beispiel des „LEX-Projekts“289 lässt sich (wenn­ gleich das dort entwickelte System nicht den aktuellen Stand der Technik widerspiegelt) erkennen, welche Probleme diese Kontextabhängigkeit mit sich zieht. Ein Satz wie z. B. „Person X. stürzte und verlor dabei einen Zahn.“ erschließt sich erst im Zusammenhang; ohne diesen bleiben insbesondere die Bedeutung des Satzes und dessen Informationsgehalt verborgen. Auch ohne den Zusammenhang zu kennen, geht der durchschnittliche Leser oder Zuhö­ rer als erste natürliche Reaktion anhand des (menschlichen) Vorverständnisses davon aus, dass X. den Zahn aus seinem Gebiss und nicht etwa aus einer Hosentasche heraus verlor. Dieses Kontext- bzw. Vorwissen muss – damit der Kommunikationspartner eine sprachliche Aussage vollständig verstehen kann – umso größer sein, je unterschiedlicher der kontextuelle Rahmen der Aussage ist.290 Das LEX-System verfügte insoweit über ein sehr beschränktes „Weltbild“ und hätte für den Beispielssatz etwa per Voreinstellung automa­ tisch vermutet, dass der Zahn im Rahmen eines Verkehrsunfalls verloren ging.291 Denn die Entwickler hatten solcherlei Vermutungen für Fälle, in de­ nen der Text zu wenige Informationen enthielt, im System implementiert. Vermutungen basieren wiederum auf den Ideen und Einstellungen der Ent­ wickler bzw. Programmierer. Die Notwendigkeit, solche Vermutungen zu implementieren, ist jedoch nicht per se nachteilig. Erst recht sollte sie nicht dazu führen, die Möglichkeiten juristischer Expertensysteme bzw. der (Teil-) Automatisierung insgesamt zu unterschätzen. Rechtsanwender und Experten­ 287  So jedenfalls das Fazit bei Hassan/Aue et al., Achieving Human Parity on Au­ tomatic Chinese to English News Translation, 2018; siehe dazu auch Pluta, KI über­ setzt so gut wie ein Mensch, golem.de vom 15.3.2018. Bei sarkastischen oder ähnli­ chen Aussagen lässt sich freilich hieran zweifeln. 288  Vgl. dazu Jandach, Juristische Expertensysteme, 1993, S. 36. 289  Das Projekt hatte zum Ziel, ein System zu entwickeln, das einen Strafrechtsfall nach § 142 StGB (Unerlaubtes Entfernen vom Unfallort) bearbeiten kann, vgl. Haft/ Lehmann (Hrsg.), Das LEX-Projekt, 1989; zur Linguistik und damit verbundenen Problemen s. Bläser/Lehmann, Ansätze für ein natürlichsprachliches juristisches Kon­ sultationssystem, in: Haft/Lehmann (Hrsg.), Das LEX-Projekt, 1989, S. 43 (69 f.). 290  Jandach, Juristische Expertensysteme, 1993, S. 36. 291  Sulz, LEX1 – Prototyp eines juristischen Expertensystems, in: Haft/Lehmann (Hrsg.), Das LEX-Projekt, 1989, S. 77 (109).

210

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

system könnten sich gegenseitig kontrollieren und ergänzen: Stützt das Ex­ pertensystem eine Entscheidung bzw. einen Entscheidungsvorschlag wegen Informationsmangels auf eine implementierte Vermutung, muss der (mensch­ liche) Letztentscheider stets die Möglichkeit haben, die programmierte Ver­ mutung zu überstimmen. Der Anwender bzw. Entscheider muss dann neben der Korrektheit der Vermutung im konkreten Fall auch prüfen, ob er anhand zusätzlicher Informationen oder mit eigenem Hintergrundwissen eine fun­ diertere, abweichende Entscheidung treffen kann. Denn Maschinen können zwar mit Sprache arbeiten, indem sie sie als Da­ tenpakete erfassen, die Häufigkeit von Wörtern und Sätzen messen und deren Stellung zueinander analysieren, Muster erkennen und Wahrscheinlichkeiten berechnen.292 Den Inhalt dieser Datenpakete – ihre Aussage und ihren Sinn – verstehen können sie jedoch nicht.293 b) Natürliche und formale Sprache aa) Einführung – Formalisierung der Rechtssprache? Wenngleich der Gesetzgeber aus gutem Grund darauf bedacht ist, Vor­ schriften möglichst präzise und objektiv zu fassen, damit sie leicht verständ­ lich und auf konkrete Lebenssachverhalte anwendbar sind, zeichnet sich un­ sere natürliche Sprache nicht durch Exaktheit aus.294 Die Rechtssprache ist Teil der natürlichen Sprache und als solche bisweilen mehrdeutig, subjektiv 292  Siehe dazu (aus der Fülle an Publikationen) ergänzend auch die Arbeiten von Ashley und Grabmair, insbesondere Grabmair/Ashley, Towards Modeling Systematic Interpretation of Codified Law, in: Moens/Spyns (Hrsg.), Proceedings of the 2005 conference on Legal Knowledge and Information Systems: JURIX 2005, 2005, S. 107 (107 ff.); Grabmair/Ashley et al., Introducing LUIMA: an experiment in legal concep­ tual retrieval of vaccine injury decisions using a UIMA type system and tools, in: Sichelman/Atkinson (Hrsg.), Proceedings of the 15th International Conference on Artificial Intelligence and Law, 2015, S. 69 (69 ff.); Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 38 ff. 293  Zum Ganzen auch Mainzer, Künstliche Intelligenz, 2016, S. 55 ff. Vgl. auch das inzwischen berühmte „Chinesisches Zimmer“-Argument bzw. -Gedankenexperi­ ment von Searle, Behavioral and Brain Sciences 3 (1980), 417 (420 ff.). Siehe zu den Unterschieden zwischen künstlicher und menschlicher Intelligenz sowie der Un­ gleichheit von Statistik und Denken noch Merkert, c‘t 2018, 134 (135 ff.). Die rechts­ theoretischen Probleme der Entwicklung juristischer Expertensysteme hat bereits Ladeur, JurPC 1988, 379 ff. (Teil 1) bzw. JurPC 1988, 1988, 416 ff. (Teil 2), mit Blick auf die Sprache insbesondere in Teil 1, JurPC 1988, 379 (383 f.), beeindruckend knapp dargestellt. 294  Vgl. dazu Kaplan, Künstliche Intelligenz, 2017, S. 112 f. Ein Plädoyer dafür, permanent eine logische und formalere Sprache zu verwenden (unabhängig vom Recht), findet sich bereits in der Philosophie Wittgensteins, vgl. etwa Wittgenstein,



III. Technische Hürden einer automatisierten Rechtsfindung 211

und unpräzise. Um „Recht“ und Rechtssprache zu automatisieren, müsste sie hingegen vollständig formalisiert werden295 – und dazu zunächst überhaupt vollständig formalisierungsfähig sein. Erst eine formale Beschreibung von Anforderungen, Beschränkungen und Prozeduren eröffnet automatischen Systemen die Möglichkeit der Interpretation und Problemlösung296 – und damit letztlich der Anwendung und Umsetzung normativer Vorgaben. Rechts­ folgen flächendeckend automatisiert zu ermitteln, setzte zudem die Übertra­ gungsmöglichkeit juristischer Arbeit auf Maschinen voraus. Die Übertragung des Subsumtionsvorgangs ist dabei kein Problem der Logik, sondern der Semantik.297 Mindestvoraussetzung dafür, „die Rechtsfindung“ zu automati­ sieren, wäre also die Standardisierung, mithin die maschinenlesbare Be­ schreibung der Rechtsnormen.298 Dazu bedürfte es in jedem Rechtsgebiet einer restlosen Aufspaltung und Präzisierung jeder Norm, wobei sowohl die Norm selbst als auch das Gesamt­ gesetz logisch aufgebaut sein müssten.299 Jedes noch so kleine Detail wäre vorab zu berücksichtigen und in den Code einzuspeisen. Natürliche und Rechtssprache in reine Logik-Abfolgen zu übersetzen, ist aber nicht in allen Bereichen gleichermaßen praktisch möglich. Im Steuerrecht etwa ist eine ge­ naue, logikbasierte Präzisierung leichter denkbar als in stark von Interpretatio­ nen und Wertungen geprägten Bereichen, etwa dem Strafprozess oder bei Pa­ tentstreitigkeiten. Auch für die Beweiswürdigung (in allen Gerichtsbarkeiten) ist eine solche präzise Vorabbestimmung schwer vorstellbar. Geeignete An­ wendungsfälle liegen hingegen überall dort, wo der Rechtsanwender (nach den Sachverhaltsfeststellungen) die Rechtsfolge durch formallogische Deduktion aus strikten Rechtssätzen, also präzise formulierten Vorschriften ermittelt.300 Logisch-philosophische Abhandlung – Tractatus logico-philosophicus, 2. Aufl., 2001, passim. 295  Kotsoglou, JZ 2014, 451 (452). 296  Kaplan, Künstliche Intelligenz, 2017, S. 113. 297  Über diese Prämisse besteht weitgehend Einigkeit, vgl. etwa Raabe/Wacker et al., Recht ex machina, 2012, S. 6. Nimmt man also an, dass Maschinen Texte zwar verarbeiten, nicht aber inhaltlich verstehen können, ließe sich im Gegenzug fragen, ob das menschliche Verständnis eines Textes nicht auch lediglich eine Einbildung ist, weil Verstehen nicht objektiv stattfindet, sondern immer subjektiv und individuell konstruiert wird. Siehe zum Aspekt der Semantik auch unten S. 217 f. 298  Vgl. auch Raabe/Wacker et al., Recht ex machina, 2012, S. 172 ff. Siehe zur formalen Sprache ergänzend Adrian, Grundprobleme einer juristischen (gemein­ schaftsrechtlichen) Methodenlehre, 2009 S. 690 f. 299  Fiedler, JZ 1966, 689 (693); Polomski, Der automatisierte Verwaltungsakt, 1993, S. 55; vgl. auch bereits OLG Frankfurt, NJW 1976, 337 (338) zum EDV-ge­ stützten Bußgeldbescheid. 300  Fiedler, JZ 1966, 689 (693). Diese Überlegungen haben auch über 50 Jahre später nichts an ihrer Stimmigkeit verloren.

212

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Automationsgeeignet erscheinen auch Rechtsbegriffe, die keiner Auslegung bedürfen und gewissermaßen für sich selbst stehen. Gleiches gilt für Rechts­ sätze, die auf einem strikten Konditionalgefüge („Wenn-Dann“-Satz) ohne Notwendigkeit einer Interpretation basieren. Kotsoglou301 ist beizupflichten, wenn er betont, dass Gebote, Verbote und Erlaubnisse weder wahr noch falsch sein können und sich rechtlichen Nor­ men daher kein Wahrheitswert zuschreiben lässt. Jedoch erscheint es für die Formalisierung von Rechtssätzen auch nicht notwendig, den Normen selbst einen Wahrheitswert zuzuschreiben und diese als Wahrheitswertträger zu betrachten. Relevant ist vielmehr, dass die Beziehung einer Norm zu einem Lebenssachverhalt entweder wahr oder falsch sein kann: Entweder der Tatbe­ stand X ist erfüllt oder er ist nicht erfüllt, und wenn er erfüllt ist, muss die Rechtsfolge Y greifen.302 Allerdings enthalten juristische Regeln oftmals einen Spielraum oder be­ dürfen der Auslegung und Interpretation. Das Recht besteht nicht nur aus einfachen Konditionalsätzen, welche sich relativ problemlos in Maschinen­ sprache umsetzen ließen – und kann es auch nicht.303 Es ist auf mehrdeutige Begriffe, Wertungen und Unschärfen angewiesen. So kann bspw. ein Begriff verschiedene Bedeutungen innehaben, ebenso kann es auch mehrere Begriffe für eine Bedeutung geben.304 Menschen können solchen Unwägbarkeiten dank ihrer allgemeinen Lebenserfahrung aus dem Kontext meist mühelos begegnen und die möglicherweise fehlenden Sachverhaltsanteile schnell er­ gänzen.305 Auch aus diesem Grund kann sich eine (Teil-)Automatisierung juristischer, insbesondere richterlicher Entscheidungen in absehbarer Zukunft immer nur auf die Subsumtion und die Entscheidung, nicht aber auf die Ver­ fahrensleitung – insbesondere die Sachverhaltsermittlung – beziehen. 301  Kotsoglou,

JZ 2014, 451 (453) m. w. N. Kritik an Raabe et al., nach deren Auffassung sich aufgrund der Regelhaftigkeit von Rechtssätzen „die Familie der formalen Logiken“ am besten für die Abbildung von Normen eignet (vgl. Raabe/Wacker et al., Recht ex machina, 2012, S. 71), geht daher teilweise fehl. 303  So auch Zippelius, Methodenlehre, 2012, S. 88: Es fehle bereits an einer exak­ ten Semantik, weil Rechtsnormen „weitgehend Erfahrungsinhalte“ bezeichneten (Hervorhebung nicht im Original) und daher keinen exakten Bedeutungsumfang, sondern einen „Bedeutungsspielraum“ aufwiesen. Siehe auch Buchholtz, JuS 2017, 955 (956 f.). 304  Vgl. auch Hoffmann-Riem, AöR 142 (2017), 1 (27): „Die Interpretationsoffen­ heit von Begriffen und der mit solchen Begriffen umschriebenen Normen sowie die Notwendigkeit der kontextbezogenen Sinndeutung und der Zurichtung der Normen auf den jeweiligen Einzelfall bedingen Möglichkeiten der Kontingenz von Ergebnis­ sen: Sie könnten häufig auch anders ausfallen, ohne dass dies Ausdruck von Beliebig­ keit sein muss“. 305  Vgl. bereits Polomski, Der automatisierte Verwaltungsakt, 1993, S. 54 f. 302  Kotsoglous



III. Technische Hürden einer automatisierten Rechtsfindung 213

bb) Unbestimmte Rechtsbegriffe und Generalklauseln Die normativen Grundlagen rechtlicher Entscheidungen sind auslegungsfä­ hig und -bedürftig.306 Erst recht trifft das auf unbestimmte Rechtsbegriffe und Generalklauseln zu. Unbestimmte Rechtsbegriffe sind Formulierungen innerhalb einer Rechtsquelle (z. B. eines gesetzlichen Tatbestands), die der Gesetzgeber uneindeutig, unpräzise oder nicht abschließend fasst, sodass der Wortlaut nicht aus sich heraus das Telos der Norm und ihren maßgeblichen Inhalt ergibt, sondern der Auslegung bedarf.307 Damit verwandt und nicht immer trennscharf zu unterscheiden sind Generalklauseln, die der Rechtsan­ wender konkretisieren muss. Unbestimmte Rechtsbegriffe und Generalklauseln sind verfassungsrecht­ lich zulässig. Das aus dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) folgende Gebot hinreichender Bestimmtheit der Gesetze308 zwingt den Gesetzgeber nicht, den Tatbestand mit genau erfassbaren Maßstäben zu umschreiben: Die Vielschichtigkeit der denkbaren und zu regelnden Lebenssachverhalte macht es oftmals unvermeidbar, auslegungs- und wertausfüllungsbedürftige Begriffe zu verwenden.309 Beispiele sind etwa das „öffentliche Interesse“, „grob fahr­ lässig“, die „arglistige Täuschung“, die „Würde des Menschen“; Beispiele speziell für Generalklauseln sind etwa „Treu und Glauben“ oder die „guten Sitten“. Im Gegensatz zum Ermessen setzen unbestimmte Rechtsbegriffe auf der Tatbestandsseite einer Rechtsnorm an; die Auslegung der Begriffe auf Tatbestandsebene und ihre entsprechende Einordnung gehört aber bereits zum Entscheidungsprozess des Rechtsanwenders dazu. Der Versuch, unbestimmte Rechtsbegriffe und Generalklauseln vollständig automatisiert anzuwenden und auszulegen, lässt die Barrieren zwischen na­ türlicher und formaler Sprache unüberwindbar erscheinen.310 Allerdings bie­ ten neue Möglichkeiten des maschinellen Lernens besonders in Fällen, in denen der Gesetzgeber nicht alle Outputs zu Fallgestaltungen einer Rechts­ norm antizipieren kann oder aber der Output wandelbar sein soll,311 Potenzial für eine gleichmäßige Rechtsanwendung: Systeme maschinellen Lernens können theoretisch auch Tatbestandsmerkmale ausfüllen und insoweit auch unbestimmte Rechtsbegriffe deuten und einordnen.312 306  Rüthers/Fischer

et al., Rechtstheorie, 10. Aufl., 2018, S. 411 ff. aber Sachs, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 40, Rn. 147: strikte Rechtsbindung sowie volle gerichtliche Kontrolle. 308  Vgl. etwa BVerfGE 21, 245 (260 f.); 49, 168 (181); 59, 104 (114). 309  BVerfGE 78, 205 (212 f.). 310  Vgl. auch Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 203 ff. 311  Vgl. Russell/Norvig, Künstliche Intelligenz, 3. Aufl., 2012, S. 809. 312  So (für Verwaltungsentscheidungen) auch Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (456) m. w. N. 307  Vgl.

214

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

cc) Herangehensweise und Kontrolle Zur vollständigen Lösung komplexer Rechtsfälle können Maschinen, die nur auf „einfachen“ Konditionalprogrammen basieren, nicht ausreichen. Da­ mit jedoch leistungsfähige, insbesondere Machine-learning-Systeme sinn­ volle Ergebnisse erzeugen können, bedürfte es jeweils einer ausreichend vollständigen und aufbereiteten Datenbasis. Dazu müssten die Entwickler eines solchen Entscheidungssystems alle Rechtstexte aufbereiten, die für die Lösung eines Falles relevant sind – also Gerichtsentscheidungen für sämtli­ che vergleichbaren Fälle (bei rein fallbasierten Vorhersagesystemen) bzw. Gerichtsentscheidungen und einschlägige Rechtsvorschriften (bei hybriden Systemen, die zusätzlich rechtliche, zuvor händisch einprogrammierte As­ pekte einbinden).313 Die Aufbereitung des Textkorpus wäre also sehr aufwen­ dig, kleinteilig sowie zeitintensiv und forderte disziplinübergreifendes Exper­ tenwissen. Sog. Vektorraummodelle sollen die Semantik in Texten erfassen:314 Dabei werden Textdaten tokenisiert315, normalisiert und annotiert.316 Sodann prüft ein Algorithmus, wie häufig ein Wort oder Merkmal in einem Textdokument vorkommt, um einen Vergleich mit anderen Dokumenten anzustellen und Muster zu erkennen. Software, die zudem auf Natural Language Processing (Verarbeitung natürlicher Sprache) basiert, kann Texte in natürlicher mensch­ licher Sprache lesen und bis zu einem bestimmten Grad auch Verstehen nachbilden.317 Auf diese Weise kann sie nicht nur Schlagworte oder konkrete Formulierungen verwerten und mit anderen Texten abgleichen, sondern den 313  Vgl. Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 236 f.; Turney/ Pantel, JAIR 37 (2010), 141 (146 ff.): Um die Semantik der Rechtstexte ideal zu er­ fassen, werden die Textdaten tokenisiert sowie vereinheitlicht und der Textkorpus auf diese Weise in einen sog. Vektorraum transformiert. Die technische Umsetzung soll hier nicht näher beleuchtet werden. Vgl. auch Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (457 ff.). Siehe zu Möglichkeiten der technischen Ausgestaltung auch unten S. 390 ff. 314  Stand der Forschung und Chancen bei Turney/Pantel, JAIR 37 (2010), 141 (141 ff.). Haupt-Kritikpunkt an den Vektorraummodellen ist, dass die Systeme in der Regel nur die Wortwahl in einem Text, nicht aber die Wortreihenfolge in ihre Analyse einbeziehen, siehe a. a. O., 174 m. w. N. 315  Tokenisierung meint die Segmentierung eines Textes in Einheiten der Wortoder Satzebene, vgl. dazu etwa Ebert/Ebert, Kapitel 3: Methoden, in: Carstensen/ Ebert/Ebert et al. (Hrsg.), Computerlinguistik und Sprachtechnologie, 3. Aufl., 2010, S.  169 (264 ff.). 316  Turney/Pantel, JAIR 37 (2010), 141 (154 f.). 317  Relevant ist dabei insbesondere das Text Mining, das ein Teilgebiet des Natural Language Processing ist. Voraussetzung für erfolgreiche Text-Mining-Verfahren sind hinreichend große Datenmengen, damit die Systeme lernen können.



III. Technische Hürden einer automatisierten Rechtsfindung 215

Inhalt auch ungeachtet des genauen Wortlauts verarbeiten und dabei sogar den Kontext einbeziehen.318 Ein erster Ansatzpunkt zur Frage, ob eine Maschine über ein dem mensch­ lichen Gehirn gleichwertiges oder jedenfalls vergleichbares Sprach- und Denkvermögen verfügt, ist der Turingtest.319 In Rede steht dabei jedoch im Kern nicht Intelligenz (denn die Konstruktion einer falschen Identität ist kein Merkmal von Intelligenz), sondern Täuschung und reine Funktionalität: Die Maschine muss nicht verstehen, was sie sagt bzw. schreibt. Sie kann Wörter mit anderen Wörtern und Häufigkeiten abgleichen, hat aber keine Vorstellung davon, was die Worte bedeuten. Die Winograd Challenge testet hingegen, ob eine Maschine die Beziehungen der Wörter in einer Aussage korrekt einord­ net.320 Menschen nutzen routinemäßig ihr Wissen über die Welt, wenn sie z. B. das Bezugswort für ein Pronomen erkennen. Eine typische Winograd Challenge ist etwa die Frage, worauf sich das „sie“ bezieht: „Die Polizeikräfte verweigerten den Demonstranten den Durchgang, weil sie Ge­ walt befürchteten.“ „Die Polizeikräfte verweigerten den Demonstranten den Durchgang, weil sie Ge­ walt befürworteten.“

Sprachassistenten und (andere) Systeme Künstlicher Intelligenz sind bis­ lang nicht in der Lage, solche Fragen ähnlich präzise wie Menschen zu be­ antworten. Auch Stilmittel, Ironie und Sarkasmus, Übertreibungen und an­ dere Subtilitäten bzw. Eigenarten menschlicher Sprache sind nicht automati­ siert erfassbar oder lösen beim Versuch der Formalisierung zumindest eine hohe Fehlerquote aus.321 Beim Übersetzen an das andere Ufer – die formale Sprache – gehen Deklinationen, Satzbau und Konjugationen bisweilen über Bord. Maschinen können durchaus aufgrund maschinellen Lernens die Regeln der Gesprächsführung beherrschen, sie verstehen aber keine Gesprächs­ Boden, AI, 2016, S. 57 ff. bspw. Turing, Computing Machinery and Intelligence, in: Epstein/Beber/ Roberts (Hrsg.), Parsing the Turing Test, 2009, S. 23 (23 ff.). Ein menschlicher Frage­ steller führt dabei eine Unterhaltung mit zwei ihm unbekannten Gesprächspartnern – einem Menschen und einer Maschine – die jeweils versuchen, den Fragesteller ob ihrer Identität (Mensch oder Maschine) zu täuschen. Sofern der Fragesteller nach der intensiven Befragung nicht eindeutig beantworten kann, welcher Gesprächspartner die Maschine ist, hat die Maschine den Test bestanden. 320  Vgl. etwa Davis/Morgenstern et al., The Winograd Schema Challenge, https:// cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html (10.6.2020); Davis, ­Winograd Schemas and Machine Translation, 4.10.2016. Geläufig ist auch die Be­ zeichnung Winograd Schema Challenge. 321  Das mag freilich auch an der Mehrdimensionalität (Stimmlage, Betonung, Ges­ tik, Mimik) liegen. Rein anhand des geschriebenen Wortes ist etwa Sarkasmus bis­ weilen auch für Menschen nicht leicht zu erkennen. 318  Vgl.

319  Siehe

216

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

inhalte.322 Zudem wandelt sich Sprache im Laufe der Zeit und reagiert auf eine sich verändernde Umwelt. Gesetze, Schriftsätze, Aussagen und Sachver­ haltsschilderungen der Beteiligten und Gutachten sind in dieser sich wan­ delnden natürlichen Sprache verfasst. Die Computerlinguistik ist bislang nicht in der Lage, komplexere Verträge oder Rechtsquellen wie Gesetze in Code abzubilden.323 Für die Exekutive könnte eine mögliche Lösung darin bestehen, dass der Gesetzgeber bereits bei der Formulierung von Gesetzen deren Vollzug in den Fokus nimmt, insbesondere eine prozessorientierte Sicht auf die Formulie­ rung der Vollzugsvorschriften einnimmt: Eine semantikbasierte und prozess­ orientierte E-Gesetzgebung könnte Annotationen des Gesetzestextes durch Transformationsschritte in Prozessmodelle überführen, mit denen der Geset­ zesvollzug simuliert werden kann.324 Denn ein softwarebasierter Gesetzes­ vollzug ist auf eine prozessorientierte Rechtssprache angewiesen. Es ist re­ geltechnisch möglich, einzelne Textpassagen und Wörter bspw. mit Hilfe semantischer Annotationen um zusätzliche Informationen zu erweitern, wel­ che die anschließende Weiterverarbeitung unterstützen. Im Sinne einer automationsgestützten bzw. automatisierten Rechtsumset­ zung ist es auch durchaus sinnvoll, die sprachliche Logik der an der dedukti­ ven menschlichen Rechtsanwendung orientierten Rechtstexte zu ändern.325 Eine prozess- und wirkungsorientierte Rechtssprache ließe sich präziser in Software übersetzen als die abstrakten Begriffe vieler Gesetzestexte. Ein Vor­ teil ergäbe sich zumindest auf Ebene des Gesetzesvollzugs – also in der Ver­ waltung bzw. im E-Government – sowie für diejenigen Fälle, die ohnehin als automationsgeeignet identifiziert sind. Nicht für Ermessen, Beurteilungsspiel­ räume und wertungsbasierte (richterliche) Entscheidungen bieten derlei Auto­ mationsbestrebungen einen Mehrwert, sondern für Verwaltungsentscheidun­ gen ohne komplexe Entscheidungsmaßstäbe und mit geringem Realanteil – etwa reine Rechenoperationen, z. B. Geldleistungen der Verwaltung.326 Ein Problem induktiver, datenbasierter Systeme ist es daneben, dass die potenziellen Trainingsdokumente in nicht standardisierten und auch nicht Wischmeyer, AöR 143 (2018), 1 (17). auch Schuhr, Rechtsprechungsdatenbanken als Format rechtlicher Infor­ mation – Hilfsmittel oder Ersatz für Kommentare?, in: Funke/Lachmayer (Hrsg.), Formate der Rechtswissenschaft, 2017, S. 161 (173). 324  Off/Kühn et al., E-Gesetzgebung, in: Rätz/Breidung/Lück-Schneider et al. (Hrsg.), Digitale Transformation, 2016, S. 35 (38 ff.). 325  Berger, NVwZ 2018, 1260 (1264). 326  Ähnlich Berger, NVwZ 2018, 1260 (1264). Eine prozess- und vollzugsorien­ tierte Gesetzgebung ist jedenfalls nicht generell erstrebenswert: Abstrakte, unscharfe und ausfüllungsbedürftige Formulierungen bleiben vielfach unverzichtbar. 322  Ebenso 323  Siehe



III. Technische Hürden einer automatisierten Rechtsfindung 217

ohne Weiteres standardisierbaren Datensätzen vorliegen.327 Die gewinnbrin­ gende Analyse natürlicher Sprache gelingt aber umso eher, je homogener die Daten – also die juristischen Argumentationen in Urteilen und anderen Tex­ ten – zur Verfügung stehen. c) Möglichkeiten der Fuzzy-Logik Hinsichtlich der Sprachbarrieren und der theoretischen Möglichkeiten, den Graben zwischen natürlicher und formaler Sprache zu füllen, sticht ein Kon­ zept hervor: Fuzzy-Logik (engl. fuzzy: unscharf, verschwommen, verwischt). Die Fuzzy-Logik ermöglicht semantische Interpretationen solcher Aussagen, die sich nicht (ohne Vergleich oder Zusatzinformation) als eindeutig wahr oder falsch einstufen lassen – etwa „Der verursachte Schaden ist hoch“. In der Fuzzy-Logik ersetzt ein stetiger Bereich (etwa ein Intervall von 0 bis 10) die diskreten Wahrheitswerte (wahr und falsch; 1 und 0).328 Systeme, die FuzzyLogik nutzen, können starren „schwarz-weiß“-Mustern entfliehen, weil eine Aussage darin auch „teilweise wahr“ sein kann.329 Besonders in juristischen Entscheidungen, welche nicht auf mathematischen Problembeschreibungen, sondern auf in natürlicher Sprache gehaltenen verbalen Annäherungen beru­ hen, kann die Fuzzy-Logik ihr Potenzial entfalten: Mit ihr lässt sich aus verbal formulierten Regeln eine mathematische Beschreibung extrahieren; zudem ermöglicht sie auch bei Informationslücken passgenaue Ergebnisse.330 d) Semantik und Syntax – rechtstheoretische Überlegungen Es ist nicht strukturell, also grundsätzlich ausgeschlossen, dass eine Ma­ schine außergewöhnliche Details und ausfüllungsbedürftige Normen bei sei­ ner Prüfung berücksichtigt: Sie einzubeziehen, erhöht zwar die Komplexität Dreyer/Schmees, CR 2019, 758 (761 f.). Stichwort: Fuzzy Logic, in: Springer Gabler (Hrsg.), Gabler Wirt­ schaftslexikon, 2018. 329  Munte, Rechtstheorie 32 (2001), 533 (534 f.). 330  Philipps, Unbestimmte Rechtsbegriffe und Fuzzy Logic, in: Haft/Hassemer/ Neumann et al. (Hrsg.), Strafgerechtigkeit, 1993, S. 265 (267 ff.): „Für Fuzzy Logic gilt das Entweder-Oder der Klassenzugehörigkeit nicht“ (S. 267). Für Philipps ist die Fuzzy-Logik daher die „natürliche Logik“ des Juristen, vgl. Philipps, Ein bißchen Fuzzy Logic für Juristen, in: Tinnefeld/Philipps/Weis (Hrsg.), Institutionen und Ein­ zelne im Zeitalter der Informationstechnik, 1994, S. 219 (222). Explizit die richter­ liche Urteilsfindung als Anwendungsbeispiel der Fuzzy-Logik in Betracht zieht auch einer der prägenden Wissenschaftler auf diesem Gebiet: Kosko, Fuzzy-logisch, 1995, S. 213. Ein auf Fuzzy-Logik basierendes Entscheidungsunterstützungssystem für die Strafzumessung hat Giannoulis, Studien zur Strafzumessung, 2014, S. 368 ff., skiz­ ziert; dazu näher unten S. 402 ff. 327  Vgl.

328  Gillenkirch,

218

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

der Programmierung, es besteht aber keine logische Hürde, weil die Fallprü­ fung jederzeit innerhalb des juristischen Prüfschemas bleibt und dieses bei ausfüllungsbedürftigen Normen und Generalklauseln durch eine differenzierte Kasuistik strukturiert wird.331 Es bleibt aber ein technikspezifisches Risiko, dass eine vollständig automatisierte Auslegung unbestimmter Rechtsbegriffe gegen die Gesetzesbindung verstoßen könnte.332 Jedenfalls bei neuartigen Fallgestaltungen, Rechtsfortbildung oder Analogien gelangen Maschinen an ihre Grenzen.333 Ein entscheidungsvorbereitender oder -unterstützender Ein­ satz durch die Ermittlung vorläufiger Ergebnisse sowie unverbindliche Ent­ scheidungsvorschläge erscheinen aber durchaus möglich und sinnvoll.334 Der Blick in die rechtstheoretische Literatur ergänzt die Aspekte der Forma­ lisierung um den Fokus auf die Semantik. Gegenstand der Semantik sind die Beziehungen zwischen sprachlichen Zeichen (Wörter, Sätze) und ihrer Bedeu­ tung sowie zwischen Zeichen und Bezeichnetem.335 Inwieweit Rechtstexten in natürlicher Sprache semantische Bedeutungen zukommen und ob deren Ver­ ständnis Voraussetzung der Formalisierung ist, harrt einer Klärung. Nach Adrian336 etwa enthalten Wörter und Sätze der natürlichen Sprache überhaupt keine semantische Bedeutung – diese werde erst durch den Leser des Textes „konstruiert“. Wenn Menschen also lediglich „simulieren, seman­ tische Bedeutung auszutauschen, müssen dies auch Maschinen simulieren können“.337 Denn formale logische Systeme haben zwar keinen originären Bezug zu Phänomenen der realen Welt, sie sind nicht unmittelbar mit dieser 331  Engel,

JZ 2014, 1096 (1098). (für die Verwaltung) auch Laue, Vorgangsbearbeitungssysteme der Verwal­ tung, 2010, S. 206. 333  Fiedler, Computers and the Humanities 25 (1991), 141 (144). 334  Ebenso Engel, JZ 2014, 1096 (1098). Vgl. die Vorschläge der technischen Ent­ scheidungsunterstützung unten S.  359 ff. 335  Thommen, Stichwort: Semantik, in: Springer Gabler (Hrsg.), Gabler Wirt­ schaftslexikon, 2018. 336  Adrian, Grundzüge einer allgemeinen Wissenschaftstheorie auch für Juristen, 2014, S.  77 ff.; Adrian, Rechtstheorie 48 (2017), 77 (91): „Menschen simulieren also nur, dass die natürliche Sprache eine semantische Bedeutung hätte. Damit sollten wir aber auch […] zugeben, dass alle Anstrengungen […], eine zutreffende semantische Bedeutung der natürlichen Sprache mit bestimmten Auslegungs- oder Interpretations­ methoden ermitteln zu wollen, vergeblich sein müssen. Diese Aussage wird einerseits zwar möglicherweise die Rechtswissenschaft schockieren, aber andererseits hat dieses Ergebnis in der Beurteilung des juristischen Denkens und Sprechens einen großen Nutzen für die Computerwissenschaftler, da Maschinen nur mit semantisch bedeutungslosen, rein syntaktischen Strukturen arbeiten können und müssen, und dies in der Tat alles ist, was auch uns Menschen am Ende zur Verfügung steht“ (Hervor­ hebung nicht im Original). 337  Adrian, Rechtstheorie 48 (2017), 77 (91). Adrian schließt daraus etwas über­ spitzt bereits im Titel, dass ein „Richterautomat“ grundsätzlich möglich sei. Er ver­ 332  So



III. Technische Hürden einer automatisierten Rechtsfindung 219

verbunden.338 Aber auch die natürliche Sprache ist nicht etwa über logische Strukturen mit den Gegebenheiten der Realität verbunden, eben weil sie praktisch-assoziativ und damit individuell erlernt wird.339 Sofern Maschinen formallogisches, juristisches Denken mit axiomatischdeduktiven Prozessen durchführen oder zumindest simulieren sollen, muss zunächst der Mensch die jeweils in natürlicher Sprache formulierten Sach­ verhaltsmerkmale einer jeden (anwendbaren und anzuwendenden) Rechts­ norm mit einer formalen, maschinenlesbaren Syntax verknüpfen340 – und ihr eine Bedeutung, einen Wert zuweisen. Eben diese Übertragung ist aber nicht in objektiver, eindeutiger und zwingender Art und Weise durchführbar, weil jeder Mensch seine eigene, individuelle, assoziativ erlernte Sprache hat.341 Das birgt Fehlerquellen für die Formalisierung: Das Sprachverständnis des Programmierers entspricht nicht unbedingt dem Normverständnis des Ge­ setzgebers. Zudem stellt sich das Problem der „offenen Semantik“342. Eine exakte Übersetzung der natürlichen in eine formale (Maschinen-)Sprache scheitert daran, dass natürliche Sprache kontextbasiert ist, formale Sprache aber stets kontextinvariant sein muss.343 Ausdrücke oder Begriffe in Sätzen der Logik müssen sich immer auf exakt dasselbe beziehen, der Bezugspunkt darf nicht mit dem Kontext variieren.344 Ziele dieses Grundsatzes sind Stabilität und Konsistenz. Die juristische Sprache als Teil der natürlichen Sprache kann diese Kontextinvarianz hingegen nicht garantieren – und sie darf es auch nicht. Mit Recht fördert erst der Kontext Bedeutung und Bezugspunkt man­ cher Rechtsbegriffe zu Tage – etwa bei der „Ladung“ (vgl. § 22 StVO und § 217 StPO) oder der „verfassungsmäßigen Ordnung“ (vgl. Art. 2 Abs. 1, Art. 9 Abs. 2, Art. 20 Abs. 3 GG).345 Daher muss ein intelligenter (menschli­ meidet in seiner Theorie indes eine klare Trennung zwischen Sachverhaltsfeststellung und Rechtsnormkonkretisierung mit anschließender Subsumtion, vgl. a. a. O., 110. 338  Adrian, Rechtstheorie 48 (2017), 77 (85). 339  Adrian, Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Metho­ denlehre, 2009, S. 305, 482 ff.; Adrian, Rechtstheorie 48 (2017), 77 (85). 340  Adrian, Rechtstheorie 48 (2017), 77 (85 f.). 341  Adrian, Rechtstheorie 48 (2017), 77 (86). „Assoziativ erlernt“ meint hierbei, dass Menschen beim Erlernen von Sprache Wörter mit Gegenständen und Phänome­ nen der realen Welt verknüpfen, die Wörter aber nicht selbst bereits eine semantische Bedeutung haben; diese erhalten erst durch Kommunikation und Assoziation Sinn. 342  Kotsoglou, JZ 2014, 451 (453). 343  Kotsoglou, JZ 2014, 451 (453 f.). Das Kontextinvarianzprinzip formaler Spra­ chen ist ein festes Prinzip der Logik. 344  Bühler, Einführung in die Logik, 3. Aufl., 2000, S. 41. 345  Beispiele übernommen von Kotsoglou, JZ 2014, 451 (454); ähnlich Hagemann, Automatische Datenverarbeitung in der Rechtsfindung, 1978, S. 82 ff., 137.

220

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

cher) Rechtsanwender die jeweils sachgerechte Bedeutung einer Rechtsnorm ermitteln, jedenfalls aber stets das „letzte Wort“ haben. Dagegen lässt sich anführen, dass es kein „absolutes“ Problem der Auto­ matisierung ist, wenn ein Begriff unterschiedliche Bedeutungen je nach Kontext hat: Es ist zwar aufwendig, aber die einzelnen Bedeutungen lassen sich je nach Kontext auch einzeln definieren und mit dem Sachzusammen­ hang verknüpfen.346 Allerdings ist jeder Versuch, die natürliche Sprache „objektiv“ und unvoreingenommen zu betrachten, seinerseits ein normatives Vorgehen mit dem Ziel, eine Formulierung gerade so und nicht anders zu gebrauchen.347 Ohne vollständige Formalisierung kann es keine (voll-)automatisierte Rechtsfolgenermittlung – Entscheidungsprozess einschließlich Subsumtion – geben. Die Kontextabhängigkeit, die Mehrdeutigkeit, die Bestreitbarkeit einzelner Deutungen, die Vagheit der natürlichen und damit der juristischen Sprache sind keine überflüssigen Störsignale im jeweiligen Kommunikati­ onskanal: Diese „Unsicherheiten“ der natürlichen Sprache zu entfernen, ver­ besserte die Kommunikation nicht, sondern machte sie unmöglich.348 Inso­ weit scheinen die Differenzen zwischen einer vollständig formalisierten und der natürlichen Sprache unüberwindbar. Aus diesen Gründen sind nicht alle juristisch relevanten Problemlösungsbzw. Entscheidungsaspekte maschinell abbildbar349 und ist die vollständige Formalisierung der Rechtsquellen, jedenfalls der Rechtsnormen, weder (be­ grifflich) möglich noch wünschenswert.350 Lediglich für begrenzte Teilberei­ 346  Vgl. Ring, Computergestützte Rechtsfindungssysteme, 1994, S. 146  f.; siehe auch Engel, JZ 2014, 1096 (1098); im Hinblick auf die Umsetzbarkeit ausdrücklich a. A. Kotsoglou, JZ 2014, 1100 (1101): Die umfassende Darstellung des faktischen Nacheinanders von „Sachverhalt“ und „Urteil“ sei schon (mindestens) zweimal ge­ scheitert – sowohl das Allgemeine Landrecht für die Preußischen Staaten (ALR) als auch die „positive Beweistheorie“. Ob sich Normen überhaupt ein objektiv feststell­ barer Bedeutungsgehalt zuweisen lässt, ist hier nicht zu beantworten. Vgl. auch Engel, JZ 2014, 1096 (1098) m. w. N., der etwa den Umfang der juristischen Kommen­ tarliteratur als Hinweis darauf ansieht, „wie konkret die Rechtsprechung in der Er­ mittlung der Normbedeutung bereits fortgeschritten und wie weit die Formalisierung der Rechtssprache damit bereits möglich ist“ (Hervorhebung nicht im Original). 347  Kotsoglou, JZ 2014, 1100 (1101). 348  Kotsoglou, JZ 2014, 451 (454); auch eine vollständig kongruente Rücküberset­ zung der formalen Fassung in die natürliche Rechtssprache scheint ausgeschlossen. 349  Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (460). 350  Kotsoglou, JZ 2014, 451 (454); ähnlich bereits Searle, Behavioral and Brain Sciences 3 (1980), 417 (420 ff.), wonach es schon begrifflich unmöglich sei, eine Maschine zu schaffen, die denken und Rechtsfolgen ermitteln kann.



III. Technische Hürden einer automatisierten Rechtsfindung 221

che kann es möglich und sinnvoll sein, „eine Art Rechtsfindung“ durch Formalisierung der Rechtssätze zu simulieren bzw. zu automatisieren.351 Denn jede Rechtsnorm fügt sich zudem in ein Gesamtsystem, eben die Rechtsordnung, ein. Die automatisierte Anwendung (nur) der einzelnen, zu­ vor standardisierten Norm wird dem Anspruch an Rechtsfindung – nämlich die Rechtsordnung zu verstehen und die Rechtsdogmatik zu beherrschen – nicht gerecht.352 Besonders für die Subsumtion als Teil des Entscheidungs­ prozesses und für den Umgang mit ausfüllungsbedürftigen Rechtsbegriffen sowie im Gesetz nur vertypt genannten Fallgruppen (etwa Regelbeispiele) ist häufig eine spezifisch juristische Wertung notwendig, die weit über eine rein „mechanische“ Subsumtion, etwa anhand eines Entscheidungsbaums, hinaus­ geht.353 Der Rechtsanwender muss alle Tatbestandsmerkmale in einem „Prozess des Voraus- und Zurückblickens“ synoptisch betrachten sowie auch rechtli­ che Grundsätze außerhalb der konkret geprüften Rechtsnorm berücksichti­ gen.354 Die algorithmische, beschränkte Arbeitsweise einer Maschine kann dem nicht in Gänze gerecht werden, sondern allenfalls – aber immerhin – vertretbare Ergebnisse in begrenzten Teilbereichen erzeugen.355 e) Widerspruchsfreiheit Richterliche Entscheidungen i. S. eines „mechanischen Richters“ vollstän­ dig zu automatisieren, setzte zudem voraus, dass das Recht selbst – gleich den Naturgesetzen, die die Arbeitsweise des Automaten determinieren – wi­ derspruchsfrei sein muss.356 Recht ist jedoch menschengemacht, Widersprü­ 351  Vgl. etwa Raabe/Wacker et al., Recht ex machina, 2012, S. 11 ff.: Das dort er­ arbeitete Programm bearbeitet einen Beispielsfall aus dem Datenschutzrecht. Ein Al­ gorithmus soll prüfen, ob die Erhebung und Übermittlung von Daten durch einen Online-Dienst zulässig ist oder nicht. 352  Kotsoglou, JZ 2014, 451 (455). 353  Vgl. das Beispiel bei Raabe/Wacker et al., Recht ex machina, 2012, S. 60; siehe zu Entscheidungsbäumen bei maschinellen Lernverfahren noch Ashley, Artifi­ cial Intelligence and Legal Analytics, 2017 S. 110 f., 239, 296 f. 354  Larenz, Methodenlehre der Rechtswissenschaft, 6. Aufl., 1991, S. 207 f. 355  Ähnlich Engel, JZ 2014, 1096 (1097): „Eine mechanische Rechtsprüfung ohne diese Wechselschritte kann zwar nicht alle, aber doch manche juristischen Fragen befriedigend beantworten“. Ähnlich auch Bünau, Legal Revolution 2018, 80 (82): „[S]elbst der strukturierteste Schriftsatz [bleibt] für einen Algorithmus ein Wust aus unstrukturierten Daten […], wenn es nicht gelingt, die im Text kodierte Bedeutung in eine maschinell verarbeitbare Repräsentation zu überführen. Diese enorme Herausfor­ derung ist heute aber noch weitestgehend ungelöst“. 356  Schuhr, Rechtstheorie 46 (2015), 225 (258).

222

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

che und Inkonsistenzen lassen sich nicht gänzlich ausschließen. Die unzähli­ gen Querverbindungen und -verweise innerhalb des (geschriebenen) Rechts wie auch der Rechtsprechung stellen jeden Versuch, juristische Subsumtion zu automatisieren, vor kaum unlösbare logische und praktische Herausforde­ rungen. Sind zudem (wie fast immer) verschiedenartige soziale Interessen und soziale Konflikte im Spiel, kann es regelmäßig schon keine wider­ spruchsfreien Prämissen geben;357 die Interessen und Konflikte sind vielmehr gerade durch eine hoheitliche Einzelfallentscheidung auszugleichen. 5. Wertungen und Filter Juristische Entscheidungen basieren auf Lebenssachverhalten – umgekehrt betreffen und formen sie diese auch anschließend. Lebenssachverhalte sind Tatsachen, Vorgänge, Umstände der Außenwelt und als solche zwar grund­ sätzlich – theoretisch – vollständig erfassbar und quantifizierbar. Juristischen Entscheidungen gehen aber immer auch Bewertungen voraus. a) Bewertungen als Teil der Informationsverarbeitung – Wertung und Realität Bei der Übersetzung von Informationspaketen aus der tatsächlichen Welt in einen Programmcode findet bereits eine Wertung statt. Diese Wertung er­ folgt nicht vordergründig oder planmäßig, aber sie legt bereits den Grund­ stein für die Funktionsweise eines Programms oder eines Algorithmus. De­ tails werden gefiltert, Informationen gewichtet und weggelassen. Theoretisch gibt es unendlich viele Informationen – bis zur atomaren Ebene und noch darüber hinaus. Für juristische Entscheidungen spielen aber nicht alle theore­ tisch verfügbaren Informationen eine Rolle. Die (Entscheidungs-)Relevanz von Sachverhaltsinformationen bzw. Tatsa­ chen ergibt sich immer erst aus dem konkreten Fall.358 Sie lässt sich nicht für 357  Rüggeberg,

VerwArch 1970, 189 (203). Gedankenspiel verdeutlicht dies: Angenommen, ein Supercomputer mit speziellen Sensoren erfasst und speichert alle Informationen und Vorgänge in der re­ alen Welt. Mit Hilfe der gesammelten Daten soll er einen juristischen Fall aus dem Mietrecht entscheiden: Ist die Miethöhe in diesem speziellen Fall rechtmäßig? Erfasst der Computer tatsächlich alle Informationen und Vorgänge, so wird er neben dem Mietvertrag, den jeweils geltenden Vorschriften des Mietrechts, den Hintergründen des Vertragsschlusses etc. auch Informationen speichern, die nichts mit der zu beant­ wortenden juristischen Frage zu tun haben, etwa die, ob der Vermieter am Vorabend der Fragestellung im Kino war. Der Computer wird diese Information speichern – und das, obwohl die Rechtsfrage offensichtlich nicht davon abhängt. Für einen Rechtsanwalt, dem der Mandant die Fakten des Falles mitteilt, wäre die Information 358  Ein



III. Technische Hürden einer automatisierten Rechtsfindung 223

jeden Einzelfall und jede theoretisch denkbare Konstellation antizipieren. Eine strenge Programmbindung und damit verbunden eine jeweils vorwegge­ nommene Wertung könnte daher den Vorgaben an eine kontextbasierte Ein­ zelfallwertung kaum genügen. Eine juristische Entscheidung ohne jegliche vorherige Informationswer­ tung oder -filterung ist ausgeschlossen. Aufgrund der nicht greifbaren Viel­ zahl an vorhandenen Informationspaketen bis hin zur molekularen, atomaren, subatomaren Ebene erscheint auch eine „absolute Informiertheit“ nicht mög­ lich. Es ist eine Verkürzung des Tatsächlichen, wenn man die Welt als Ganzes mit der erfahrbaren und messbaren Realität gleichsetzt – und dabei Data Mining umstandslos als Reality Mining versteht:359 Daten sind nicht die Welt an sich, sondern stets lediglich ein Modell derselben. Es wäre bereits mit nicht absehbarem Aufwand verbunden, alle nur potenziell juristisch bedeut­ samen Fakten zu formalisieren.360 Künstliche Intelligenzen sind bei großen Datenmengen und deren Auswer­ tung, (vor-)strukturierten Problemen und mathematisch-folgerichtigem Vor­ gehen („small world problems“) nützlich oder sogar überlegen; Komplexität aus Lebens- und Lernerfahrungen heraus zu reduzieren, gelingt ihnen jedoch nicht.361 Insbesondere soziale und emotionale Bedeutungen zu erfassen so­ wie Lebens- und Lernerfahrungen einzubeziehen („large world problems“), bringt Maschinen und Computer an ihre Grenzen.362 Gerade diese Aspekte sind aber ein untrennbarer Teil richterlicher Entscheidungen im Einzelnen und der Rechtsfindung im Allgemeinen. Denn es sind immer Lebenssachver­ halte betroffen: Jede richterliche (End-)Entscheidung wirkt sich regelnd auf reale soziale Vorgänge aus. irrelevant – er würde sie also herausfiltern. Anders liegt es aber z. B. dann, wenn der vermeintlich irrelevante Vorgang noch weitere Informationen verzahnt. Der Vermieter könnte etwa im Kino auf den Mieter getroffen sein und dort eine mündliche Verein­ barung zur Miethöhe getroffen haben. In diesem Fall wäre das Ereignis „Vermieter war im Kino“ indirekt ausnahmsweise doch indirekt relevant für die Falllösung. Men­ schen filtern und werten Informationen permanent. Ob bspw. der Täter einer Körper­ verletzung ein weißes oder ein blaues Hemd trug, ist eine objektiv feststellbare Infor­ mation der realen Welt, aber sie hätte in einer juristischen Subsumtion und der darauf aufbauenden Entscheidung keine Bewandtnis. Bereits die Darstellung eines Lebens­ sachverhalts kann Wertungen beinhalten und das Ergebnis von Filterprozessen sein. 359  Lenk, Verwaltung und Management 22 (2016), 227 (230). 360  Vgl. auch Raabe/Wacker et al., Recht ex machina, 2012, S. 11 ff. Die Formali­ sierung ganzer Rechtsgebiete ist damit noch Zukunftsmusik; Formalisierung kann derzeit lediglich für einzelne Teilfragen und -bereiche gelingen. 361  Vgl. Hock, „Unser Hirn kann nicht mit Geld umgehen“, FAZ vom 11.1.2017, S. 25. 362  Vgl. Hock, „Unser Hirn kann nicht mit Geld umgehen“, FAZ vom 11.1.2017, S. 25.

224

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

b) Wertungen und Filter als Teil des Rechtsfindungsprozesses Die Prüfung, ob ein Tatbestandsmerkmal einer Norm verwirklicht ist oder nicht, bedarf grundsätzlich eines „Auslotens“ zwischen den beiden „Extrem­ werten“ Tatbestandsverwirklichung oder keine Tatbestandsverwirklichung.363 Der Rechtsanwender muss den Lebenssachverhalt anhand einer wertenden Betrachtung dem Tatbestandsmerkmal zuordnen, wobei es im Zwischenbe­ reich stets auch „Mehr“ oder „Weniger“ geben kann – also verschiedene „Grautöne“, die für manche Fallkonstellationen eine Subsumtion unter die Norm bedingen und für andere nicht. Der Jurist wendet dabei verschiedene Auslegungskriterien und -methoden an, die entweder für das eine oder das andere Ergebnis sprechen und sich zum Teil wechselseitig bestärken oder auch abschwächen. Er lotet die unterschiedlichen Wertungen und Wertigkei­ ten aus und bezieht auch eventuelle (soziale und Rechts-)Folgen in seine Entscheidungsfindung ein. Jedenfalls dieser Teil der juristischen Tätigkeit lässt sich daher systembedingt nicht in eindimensionalen Zuordnungen („richtig“ oder „falsch“, „ja“ oder „nein“, „Strom“ oder „kein Strom“) abbil­ den.364 Nicht zuletzt der Umfang der rechtswissenschaftlichen Kommentarli­ teratur sowie die Vielzahl voneinander abweichender Entscheidungen in den Instanzenzügen der einzelnen Rechtsgebiete geben Zeugnis darüber ab. Zudem dienen juristische Entscheidungen in der Regel (auch) dazu, eine Übereinstimmung mit höherrangigen Normen zu erzielen.365 Das gilt beson­ ders für Verwaltungsakte, aber auch für richterliche Entscheidungen. Durch seine Entscheidung bestimmt der Richter ein zukünftiges Handeln vor und definiert die Sachlage; er muss dafür manche Aspekte ausblenden, andere priorisieren.366 Er nimmt dem Lebenssachverhalt der realen Welt auf diese Weise ein Stück seiner Komplexität und kann sodann die wesentlichen – und zwar nur die wesentlichen – Aspekte und Informationen in seine Entschei­ dung einfließen lassen. In einer rein digitalen Logik und einer Welt ubiquitärer Daten(verfügbarkeit) spielt manche Grenze keine Rolle mehr.367 Das Recht als Institution in einer lebendigen und pluralistischen Gesellschaft stellt hingegen seinerseits eine Grenzziehung dar, insbesondere durch Legislative und Judikative: Sowohl bei der Rechtsetzung als auch der Rechtsanwendung kommt es im Kern dar­ auf an, Relevantes von Irrelevantem zu trennen.368 Ohne Wertungen und und zum Folgenden Enders, JA 2018, 721 (725). JA 2018, 721 (725); siehe auch bereits oben S. 201 f. 365  Hill, DÖV 2017, 433 (437). 366  Vgl. Hill, DÖV 2017, 433 (438). 367  Vgl. Boehme-Neßler, NJW 2017, 3031 (3032). 368  Boehme-Neßler, NJW 2017, 3031 (3032). 363  Dazu

364  Enders,



III. Technische Hürden einer automatisierten Rechtsfindung 225

(Vor-)Filter ist dieser Vorgang denklogisch ausgeschlossen. Eine Subsum­ tions- und/oder Entscheidungsmaschine könnte Rechtsfälle also nur mithilfe derjenigen Informationen und Daten bearbeiten, die ihr gerade für diesen Zweck zur Verfügung gestellt wurden. Dann ist aber zweifelhaft, wo über­ haupt der Mehrwert einer solchen Maschine liegen könnte. Sie kann Daten auswerten und Prognosen erstellen, nicht aber selbst Bewertungen vor­ nehmen:369 Wertende Entscheidungen und schlussfolgerndes Denken über­ fordern Maschinen nach wie vor. c) Wertungen bis ins Detail? – Strukturelle Grenzen Details können Rechtsfragen entscheiden – z. B. bei der Frage der persön­ lichen Schuld (§ 46 StGB), bei der Auslegung von Willenserklärungen (§§ 133, 157 BGB), oder für die Prüfung der Sittenwidrigkeit gem. § 138 Abs. 1 BGB. Die unzähligen möglichen Details des Lebens, die eine Rechts­ frage theoretisch entscheiden können, in digitalen Code zu pressen, erscheint bestenfalls unrealistisch. Die wertungs- und ausfüllungsbedürftigen Begriffe, die unser Rechtssystem vorhält370 und auf die es auch angewiesen ist, sind im Regelfall nicht selbsterklärend im Verständnis rein deduktiver Logik, sondern ihre sinnvolle Anwendung hängt gerade davon ab, dass sie ausgefüllt und gewertet werden. Selbst fortschrittliche Systeme Künstlicher Intelligenz sind immer durch ihre (digitale und) mathematische Natur begrenzt. Auch eine vollständige Informations- und Wissensbasis kann nicht aus sich heraus rationale, gerechte, gute Entscheidungen garantieren. Es bedarf stets eines Transfers der reinen Informationslage in juristisch relevante Beur­ teilungszusammenhänge.371 Den für eine Entscheidung relevanten Schritt der 369  Das gilt nach wie vor auch für Systeme Künstlicher Intelligenz, vgl. Spielkamp, AlgorithmWatch, 3. Arbeitspapier: Unsere Antworten zur Anhörung zu „Künst­ licher Intelligenz“ des Ausschusses Digitale Agenda, 22.3.2017, 8. Punkt. Vgl. aber auch Luthe, SGb 2017, 250 (255), nach dem es „derzeit offen (ist), ob der wertende Umgang mit den Umständen des Einzelfalls tatsächlich eine Kognitionsleistung ist, die bis auf Weiteres von Maschinen nicht geleistet werden kann“. Siehe auch Heckelmann, NJW 2018, 504 (509 f.): „Speicherplatz und Bewertungsalgorithmen sind ge­ nau die Bausteine, aus denen Automaten entwickelt werden, die Schach spielen, Auto fahren, Texte übersetzen oder medizinische Diagnosen stellen. Warum soll Software nicht imstande sein, eines Tages auch die Rolle eines Richters zu übernehmen?“ (dort allerdings ohne weitere Begründung, da auch nicht primäres Thema des Beitrags). 370  Bspw. „im öffentlichen Interesse“ in Art. 6 Abs. 1 UAbs. 1 lit. e DSGVO; „er­ hebliche Gefahren“ in § 12a Abs. 1 S. 1 VersG; „ein wichtiges Glied des Körpers“ in § 226 Abs. 1 Nr. 2 StGB. 371  In früheren Projekten zu juristischen Experten- und Entscheidungsunterstüt­ zungssystemen verwendete man dafür sog. Interferenzmechanismen, die auf formaler Logik sowie formaler Sprache basierten, vgl. Kilian, Juristische Expertensysteme, in:

226

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Wertung und gegebenenfalls des (Vor-)Filterns sind nach wie vor nur Men­ schen zu leisten im Stande. 6. Auslegung Ebenso wie eine qualitative Wertung lässt sich auch die Auslegung und Anwendung einer Rechtsnorm im konkreten Einzelfall als Kernbereich juris­ tischer Tätigkeit nicht adäquat in Automatismen abbilden. Der Auslegungs­ kanon372 basiert auf einem Verständnis der juristischen Sprache, und ohne Sprachverständnis373 ist auch kein Inhaltsverständnis vorstellbar: Hermeneu­ tik als Theorie des Verstehens374 ist eine menschliche Eigenart. Die Ausle­ gung durch den Richter ist ein Akt der Erkenntnis, der gerade dadurch, dass er sich in der Person des Richters vollzieht, notwendig subjektbezogen ist.375 Innerhalb des Auslegungskanons erscheint es immerhin möglich, die grammatische Auslegung des Wortlauts durch Big-Data-Analysen und Mus­ tererkennung zu simulieren. Auch die systematische Auslegung, die ihrerseits darauf beruht, eine Vorschrift in einen Kontext einzuordnen, gewissermaßen zu kategorisieren, und mit anderen Abschnitten zu vergleichen, zeigt sich einer Automation nicht gänzlich verschlossen. Die an der Historie sowie am Telos einer Rechtsnorm ansetzenden Auslegungstopoi bieten hingegen kaum Anknüpfungspunkte für Automatisierungspotenzial. Maschinen hegen keine grundsätzlichen Wertvorstellungen; sämtliche im Einzelfall in Betracht zu ziehenden Prinzipien müssten zuvor einprogrammiert worden oder auf an­ dere Weise sichergestellt sein. Im Zivilrecht ist etwa an Aspekte wie Umge­ hungsgefahr, Verbraucherschutz, Interessenlage, Risikosphäre, Schutzbedürf­ Nickel/Roßnagel/Schlink (Hrsg.), Freiheit und Macht, 1994, S. 201 (206); Suhr (Hrsg.), Computer als juristischer Gesprächspartner, 1970. Ein solcher Interferenzme­ chanismus soll dazu dienen, die vorhandenen und gesammelten Informationen (das Wissen) für die Lösung eines Entscheidungsproblems widerspruchsfrei zu verknüpfen und Ableitungszusammenhänge herzustellen. Spätere Ansätze setzten wegen der hö­ heren Flexibilität weniger auf vorgegebene Entscheidungspfade als auf objektorien­ tierte Dialog-Modelle, z. B. das „LEX-Projekt“, vgl. dazu Haft/Lehmann (Hrsg.), Das LEX-Projekt, 1989, sowie Jandach, Juristische Expertensysteme, 1993, S. 35. 372  Siehe bereits oben S. 115 ff. 373  Vgl. auch oben S. 209 f. sowie 217 ff. 374  Vgl. allgemein zur Natur der juristischen im Vergleich zur literaturwissen­ schaftlichen Hermeneutik Bleich, NJW 1989, 3197 (3197 ff.). Laut Duden ist Herme­ neutik die „Lehre von der Auslegung und Erklärung eines Textes oder eines Kunstoder Musikwerks“ sowie auch das „Verstehen von Sinnzusammenhängen in Lebens­ äußerungen aller Art aus sich selbst heraus“ (Duden, Online-Wörterbuch, www. duden.de (10.6.2020), Stichwort: „Hermeneutik“). 375  Heusch, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 97, Rn. 38.



III. Technische Hürden einer automatisierten Rechtsfindung 227

tigkeit, insbesondere Minderjährigenschutz, und viele weitere zu denken; im Strafrecht muss die Strafzumessung auch den Strafzwecktheorien genügen; im öffentlichen Recht zeichnen insbesondere Verfassung und Völkerrecht Prinzipien und Grundlinien vor. Mangels Empathie376 verbleibt Algorithmen auch eine Unfähigkeit, die (sozialen) Folgen einer Entscheidung im Leben des von ihr Betroffenen adäquat abzuschätzen. Die juristische Auslegung, die (auch) darauf zielt, in einem in natürlicher Sprache erstellten Rechtssatz einen Sinn zu erkennen, einen Zweck bzw. ein Ziel sowie den (realen oder objektivierten) Willen des Normgebers, können Maschinen nicht leisten. Sie vollführen eine andere Art der Entscheidungs­ findung, die nicht a priori schlechter als die menschliche ist. Ihnen fehlt je­ doch die Fähigkeit, rechtsprinzipiengeleitet abzuwägen. Spätestens dort, wo ein Abgleich eines (schematisch gefundenen) Ergebnisses mit übergeordneten Prinzipien notwendig ist (bspw. Grundrechte, Zwecke staatlichen Strafens, nicht kodifizierte Rechtsgrundsätze), ist die Grenze des IT-Einsatzes in der juristischen Entscheidungsfindung erreicht. Im Übrigen kann die Subsumtion als Teil des Entscheidungsfindungspro­ zesses nicht nur aus einem einzigen Blickwinkel heraus i. S. einer linearen Rechtsanwendung stattfinden, sondern die Norm beeinflusst den Sachverhalt und der Sachverhalt die Norm. Dabei wohnt jeder Subsumtion ein Element der Auslegung inne – diese Interpretation ist insofern auch für zukünftige Auslegungen und Subsumtionen von Relevanz. Diese zukunftsgerichtete Gestaltungsaufgabe können Automatismen nicht lösen.377 Kein noch so detail­ liertes Regelwerk ist in der Lage, alle möglichen Sachverhalte treffend zu bewerten und zu entscheiden; überdies benötigt jedes Regelwerk grundsätz­ lich einen unabhängigen Dritten, der die Regeln auslegen kann und sie „retro­grad auf den konkreten Fall anwendet“378.

376  Dazu

sogleich unten S. 232 ff. Schuhr, Subsumtion und Automatisierung, 20.1.2017, Folien 7–13; Schuhr, Rechtsprechungsdatenbanken als Format rechtlicher Information – Hilfsmit­ tel oder Ersatz für Kommentare?, in: Funke/Lachmayer (Hrsg.), Formate der Rechts­ wissenschaft, 2017, S. 161 (173); vgl. auch Schuhr, Datenbanken gerichtlicher Ent­ scheidungen als Zugang zu juristischer Semantik?, in: Vogel (Hrsg.), Zugänge zur Rechtssemantik, 2015, S. 93 (95 ff.). 378  So zu Konflikten bzgl. der Blockchain-Technologie Heckelmann, NJW 2018, 504 (509); ähnlich das Plädoyer von Kolain, Wieso Smart Contracts die Erwartungen enttäuschen müssen, golem.de vom 7.9.2016. 377  Ähnlich

228

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

7. Die Begründung juristischer Entscheidungen Die Begründung als zwingender Bestandteil gerichtlicher Entscheidun­ gen379 muss erkennen lassen, welche juristischen Gründe für die Entschei­ dung maßgebend, kausal und grundlegend waren. Sie muss verständlich, widerspruchsfrei sowie konsistent sein und darf nicht, sachlich inhaltslos, nur Floskeln oder den reinen Gesetzestext wiedergeben. Es ist zwar (technisch) durchaus vorstellbar, dass eine Software mit Textbausteinen aus vergleichba­ ren bisherigen Gerichtsentscheidungen einen Text erstellen kann, der eine juristische Begründung simuliert. Unabhängig von der Frage, ob es zwingend eines inhaltlichen Verständnisses bedarf, um eine juristische Begründung zu erstellen, stellt sich aber auch insoweit das Problem der Schematisierung des Einzelfalls380 sowie der Reduzierung des betroffenen Individuums auf die Vergangenheit.381 Zudem unterscheidet sich die Erklärbarkeit und Erklärung einer aus einer Datenanalyse folgenden Prognose immer von der Erklärung eines auf juristisches Wissen gegründeten argumentativen Ergebnisses:382 Auch eine mathematisch-statistisch saubere und logisch erklär- und nachvoll­ ziehbare maschinelle (Prognose-)Entscheidung genügt gleichsam nicht auto­ matisch den Anforderungen an eine juristisch-methodisch ausreichende Be­ gründung. Maschinen, insbesondere die bisherigen Legal-Tech-Anwendungen, kön­ nen nicht selbstständig zwischen rechtlicher und technischer Signifikanz un­ terscheiden.383 Ihre Funktionsweise lässt sich zwar durch Kenntnis der Sys­ temeigenschaften, der Methode sowie der Datenbasis technisch erschließen (wenngleich dies aufwendig, zeit- und ressourcenintensiv sein kann); jedoch sind die statistischen Zusammenhänge, auf denen der maschinelle Lernpro­ zess aufbaut, nicht notwendig identisch mit denjenigen Aspekten, die ein Jurist in die Entscheidungsfindung einfließen lässt.384 Auf diese Weise kann es dazu kommen, dass das System (aufgrund tatsächlicher Signifikanz) in rechtlich unzulässiger Weise an ein Merkmal anknüpft, dessen Einfluss auf eine Entscheidung die Diskriminierungsvorschriften (insbesondere Art. 3 Abs. 1 und 3 GG) gerade verbieten. Eine quantitative Erklärung darüber, in­ wieweit ein Ergebnis technisch korrekt errechnet wurde, ist nicht kongruent 379  Siehe

zum Begründungserfordernis bereits oben S. 122 ff. bereits oben S. 191 ff., 196 ff. 381  Vgl. bereits oben S. 170 f. 382  Vgl. Herberger, NJW 2018, 2825 (2828). 383  Dazu und zum Folgenden Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (461 f.). 384  Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 111; vgl. auch Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Trans­ formationen, 2018, S. 453 (461). 380  Vgl.



III. Technische Hürden einer automatisierten Rechtsfindung 229

mit der qualitativ-rechtlichen Begründung. Besonders im Urteilsstil gerichtli­ cher Entscheidungen darf die Begründung nur juristisch relevante Aspekte enthalten und muss andererseits alle im Einzelfall juristisch relevanten As­ pekte umfassen. Es ist bislang kein Programm ersichtlich, das den rechtsme­ thodischen Vertretbarkeitsanforderungen an die Begründungstiefe genügt. Eine Unterscheidung zwischen Herstellung und Darstellung einer juristi­ schen Entscheidung mag auch beim Richter faktisch vorkommen,385 der Rechtsordnung ist sie aber nicht normativ immanent: „Gute Argumente für eine Entscheidung sind zugleich Gründe, die Entscheidung so und nicht an­ ders zu treffen.“386 Gehören Entscheidung und Begründung aber zusammen und lässt sich die juristische Begründung nicht in Gänze automatisieren, kommt eine vollständig automatisierte gerichtliche Entscheidungsfindung auch aus diesem Grund nicht in Betracht. 8. Automatisiertes Richterrecht? Es erhöht die Komplexität der Rechtsordnung, dass das geschriebene Recht nicht die einzige Quelle für den Vorgang der juristischen Entschei­ dungsfindung darstellt.387 Wo die Auslegung an ihre Grenzen stößt oder zu keinem eindeutigen Ergebnis kommt, beginnt der Bereich der Rechtsfortbil­ dung und des Richterrechts.388 Insbesondere Analogien – hier ist der zu ent­ scheidende Fall zwar nicht vom Wortlaut einer Norm gedeckt, wohl aber von deren Normzweck; der Normtatbestand einer Norm wird also erweitert – und teleologische Reduktionen – hier ist ein Fall zwar vom Wortlaut erfasst, je­ doch nicht vom Normzweck; der Tatbestand einer Norm wird also verkleinert bzw. unterschritten – bereiten Entscheidern Fallstricke.389 Weil der Gesetzge­ 385  Vgl. zu dieser Divergenz der Herstellungs- und der Darstellungseben mit Blick auf die Strafzumessung Hörnle, Tatproportionale Strafzumessung, 1999, S. 35 f., die insbesondere kritisiert, dass die Spielraumtheorie der h. M. die Richter zur Verwen­ dung von Floskeln über spezial- und generalpräventive Erforderlichkeiten, die keinen Bezug zur tatsächlichen Entscheidungsfindung hatten, drängt. 386  Neumann, Juristische Methodenlehre und Theorie der juristischen Argumenta­ tion, in: Krawietz/Morlok (Hrsg.), Vom Scheitern und der Wiederbelebung juristi­ scher Methodik im Rechtsalltag – ein Bruch zwischen Theorie und Praxis?, 2001, S. 239 (255). 387  Graevenitz, ZRP 2018, 238 (239); Hirsch, ZRP 2009, 61 (62). 388  Vgl. bereits oben S. 110  ff., siehe ergänzend Jachmann, in: Maunz/Dürig (Begr.), GG, 63. Erg-Lfg. (Okt 2011), Art. 95, Rn. 14, sowie BVerfGE 34, 269 (287 f.). 389  Hinzu kommen Rechtsprinzipien, unbestimmte Begriffe, Generalklauseln und weite, abstrakte Formulierungen, die sich regulatorisch nicht vollständig vermeiden lassen, sowie Rechtslücken, die deutlich machen, dass „Richterrecht nicht nur unser Schicksal, sondern einfach unausweichlich ist“, vgl. Pavčnik, Jusletter IT 23.2.2017,

230

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

ber „weder omnipräsent noch omnipotent“390 ist, kann er nicht jeden Lebens­ sachverhalt bis in Detail, nicht jeden möglichen Kontext einer Rechtsnorm antizipieren. Vollzieht sich Rechtsfortbildung jenseits eines strikt vorgegebenen Rahmens,391 lässt sie sich nicht automatisieren, jedenfalls nicht mit rein de­ duktiven Systemen.392 Bei einer Analogie bspw. wendet der Richter Recht an, aber er schafft auch (neues) Recht (Richterrecht), indem er die Rechts­ norm in den Gesamtkontext der Rechtsordnung einordnet und auf diese Weise eine Rechtskonkretisierung für den Einzelfall vornimmt. Eine Soft­ ware kann einen solchen Schaffensprozess nicht selbstständig und selbstver­ antwortlich leisten. Die Rechtsordnung wandelt und modernisiert sich per­ manent. Gleiches gilt auch für die Rechtsprechung. Eine Software, die nur auf vorgegebenen Pfaden wandelt und retrospektiv vorgeht, ließe Moderni­ sierungs- und Wandlungsprozesse kaum zu. Rechtsfindung beinhaltet und verlangt auch Rechtsdogmatik: die Konkre­ tisierung des geschriebenen (und ungeschriebenen) Rechts. Das mechanische Vorgehen einer Maschine ist dazu nicht geeignet, weil dabei ein Kategorien­ fehler aufträte: Die Maschine müsste Recht anwenden, das sie selbst zuvor gesetzt hat.393 Dies spricht allerdings prima facie nicht gegen eine Teilauto­ matisierung i.  S. einer Vorbereitung oder Unterstützung der richterlichen Entscheidung, denn insbesondere an den erstinstanzlichen Gerichten ist der Anteil an Rechtserzeugung und reiner Dogmatik deutlich geringer als an den Obergerichten.394 Teilautomatisierung kann sich insbesondere für solche Fälle eignen, die „einfach“ liegen und „leicht“ zu entscheiden sind, etwa weil sie neben einem massenhaft vorkommenden durchschnittlichen Fall keine 1 (3); ähnlich Rüthers, Die heimliche Revolution vom Rechtsstaat zum Richterstaat, 2. Aufl., 2016, S. 106. 390  Kotsoglou, JZ 2014, 451 (455). 391  Vgl. Adrian, Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Me­ thodenlehre, 2009, S. 890 ff. 392  Aber auch induktive Systeme stünden vor dem gewichtigen Problem zu gerin­ ger Trainingsdatenmengen: Es stehen zu wenige geeignete Trainingsdokumente zur Verfügung, auch ändert sich die gerichtliche Spruchpraxis; jeder Änderung der mate­ riellen Rechtslage wäre überdies mit einem neuen Trainingsprozess zu begegnen. Vgl. dazu instruktiv Dreyer/Schmees, CR 2019, 758 (759 f.); siehe auch unten S. 442 f. 393  Kotsoglou, JZ 2014, 451 (455 f.); ähnlich Grundmann, Juristische Expertensys­ teme – Brücke von (Rechts)informatik zu Rechtstheorie, in: Erdmann/Fiedler/Haft et al. (Hrsg.), Computergestützte juristische Expertensysteme, 1986, S. 97 (107 f.): „Versteinerung des Rechts“. 394  Vgl. Engel, JZ 2014, 1096 (1098), der mit Blick auf Legal-Tech-Angebote auch darauf hinweist, dass die Bedeutung der Rechtsdogmatik in der Rechtsberatung sowie in der Fallprüfung durch Laien noch einmal deutlich geringer als in der Recht­ sprechung ist.



III. Technische Hürden einer automatisierten Rechtsfindung 231

Besonderheiten aufweisen. Dieser Schluss trügt aber zumindest teilweise, denn ob ein Fall „leicht“ und daher potenziell (teil-)automationsgeeignet ist, ist erst das Ergebnis einer juristischen Bewertung – und damit erst das Er­ gebnis rechtsdogmatischer Systematisierung und Konkretisierung.395 9. Judiz Nach derzeitigem Verständnis sind komplexe und wertende (juristische) Entscheidungen noch immer Menschen vorbehalten. Erst ein Bewusstsein und die Fähigkeit zur Willensbildung und -betätigung ermöglichen autonome Ent­ scheidungen. Nicht alles ist zudem mess- und quantifizierbar; nicht für jedes (qualitative) Problem gibt es einen (grundsätzlich quantitativ vorgehenden) Algorithmus. Unser Recht basiert darauf, wie wir Menschen die Welt sehen; Algorithmen „sehen“ und analysieren die Welt aber gänzlich anders. Neben der juristischen Methodik und Zielsetzung zeichnet sich rechtsprechende Tä­ tigkeit auch durch originär menschliche Parameter aus – Empathie (nachfol­ gend a), Kreativität (b), Ethik (c) sowie das Judiz im engeren Sinne (d). a) Empathie aa) Grundlagen Empathie meint die Fähigkeit und Bereitschaft, die Emotionen, Motive und Persönlichkeitsmerkmale anderer Personen zu erkennen und zu verste­ hen: Es handelt sich um das (aktive) Hineinversetzen in die mentalen Zu­ stände (also Gefühle, Gedanken, Intentionen) eines anderen.396 Abzugrenzen ist die Empathie insbesondere vom Werturteil: Empathie zu zeigen, bedeutet nicht notwendig, dass man z. B. eine schädigende Handlung auch moralisch verurteilt; so können wir etwa mit einem verurteilten Straftäter mitempfinden und seine Haftstrafe dennoch als gerecht ansehen.397 Wenngleich in den ver­ schiedenen Disziplinen, die Empathie thematisieren, keine einheitliche Defi­ nition des Empathiebegriffs herrscht, lassen sich dennoch drei grundsätzliche Formen unterscheiden:398 die emotionale, die kognitive und die soziale Em­ 395  Kotsoglou,

JZ 2014, 1100 (1101 f.). dazu Harbou, Empathie als Element einer rekonstruktiven Theorie der Menschenrechte, 2014, S. 33 ff. m. w. N., der einen Überblick über die unterschiedli­ chen Definitionen des Empathiebegriffs gibt. 397  Harbou, Empathie als Element einer rekonstruktiven Theorie der Menschen­ rechte, 2014, S. 32; vgl. auch Mahlmann, German Law Journal 8 (2006), 577 (586). 398  Lawrence/Shaw et al., Psychological Medicine 34 (2004), 911 (911 ff.); Segal, Journal of Social Service Research 37 (2011), 266 (267 ff.). 396  Vgl.

232

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

pathie. Emotionale Empathie ist die Fähigkeit, das Gleiche zu empfinden wie andere Menschen. Die kognitive Empathie beschreibt die Fähigkeit, nicht nur Gefühle, sondern auch Gedanken und Motive anderer Personen nachzuvoll­ ziehen, sodass sich daraus Schlussfolgerungen zu ihrem Verhalten ableiten lassen. Soziale Empathie ist hingegen die Fähigkeit, das Verhalten komplexer sozialer Systeme zu verstehen und zu beeinflussen, also etwa Situationen mit Menschen unterschiedlicher Kulturen und Wertmaßstäbe zu erfassen und sich mit ihnen konstruktiv auseinanderzusetzen.399 bb) Maschinen und Empathie? Maschinen sind nicht der Lage, menschliche Emotionen vollständig nach­ zuvollziehen. Sie können anhand rationaler Datenanalysen und Sensoren, die die Umgebung wahrnehmen, möglicherweise die Emotionen und Motive ei­ nes Menschen grob erkennen, beschreiben, klassifizieren und vergleichen. Immer häufiger sind Algorithmen und Programme Menschen in einzelnen, speziellen Bereichen überlegen.400 Die bereichsspezifische technische Über­ legenheit hat auch „typisch menschliche“ Domänen erfasst: So wollen For­ scher bspw. nachgewiesen haben, dass künstliche neuronale Netzwerke die sexuelle Orientierung von Personen auf Fotos deutlich besser erkennen kön­ nen als Menschen.401 Jedoch verfügen Maschinen nicht über Emotionen, Motive und Persönlichkeit. Sie können sich nicht in die Erlebniswelt, also den mentalen Zustand eines Menschen, hineinversetzen, weil sie selbst kei­ nen mentalen Zustand besitzen. cc) Empathie in der Rechtsfindung Empathie ist relevant und bisweilen unabdingbar für das gelingende menschliche Zusammenleben im Alltag, vor allem in sozialen Beziehungen wie Familie, Beruf und Freizeit. Aber ist sie auch in der Rechtsfindung not­ wendig? Kann ein empathieloser Richter ein guter Richter sein? Empathie ist zumindest hilfreich, wie Beispiele zeigen: 399  Vgl. die anschaulichen Darstellungen bei Pelz, Empathie: Menschen und Grup­ pen besser verstehen, http://www.managementkompetenzen.de/empathie.html (10.6. 2020). 400  Vgl. oben S. 146 ff. 401  Vgl. Kosinski/Wang, Journal of Personality and Social Psychology 114 (2017), 246 (246 ff.). Virtuelle Assistenten scheinen jedenfalls teilweise bereits in der Lage zu sein, auf die Emotionen ihres menschlichen Gegenübers adäquat zu reagieren, vgl. Wolfangel, Die Maschinen tun, als hätten sie Gefühle, Süddeutsche Zeitung (Online) vom 20.2.2018.



III. Technische Hürden einer automatisierten Rechtsfindung 233

– Nach § 46 Abs. 1 S. 1 StGB ist die Schuld des Täters Grundlage für die Strafzumessung. Entscheidend ist nicht, welche Reaktionen die Straftat in Öffentlichkeit und Medien hervorruft oder welches Maß an Schuld einen durchschnittlichen Menschen in der Situation des Täters träfe, sondern relevant ist das Maß an Schuld, das dem konkreten Täter im Einzelfall zukommt. Dabei muss der Richter auch die Motive und Gefühlslage des Täters (evtl. auch die des Opfers) erfassen. § 46 Abs. 2 S. 2 StGB nennt ausdrücklich die „Beweggründe“, die „Gesinnung“ und den „Willen“ als in der Strafzumessung zu berücksichtigende Aspekte. Dies gänzlich ohne Empathie zu leisten, ist schwer vorstellbar. – Beim entschuldigenden Notstand (§ 35 StGB) kommt es besonders auf die Motive des Täters an. Insbesondere die Subsumtion unter den Passus „eine ihm nahestehende Person“ bedarf eines gewissen Verständnisses sozialer und emotionaler Vorgänge, mitunter: Empathie. – Beruft sich ein Angeklagter auf Notwehr (§ 32 StGB), muss der Richter ebenfalls dessen Motive und Affekte beachten und in seine Entscheidung einfließen lassen. Noch deutlicher macht dies § 33 StGB (Überschreitung der Notwehr: „Überschreitet der Täter die Grenzen der Notwehr aus Ver­ wirrung, Furcht oder Schrecken, so wird er nicht bestraft“). Ein Entschei­ der, der hier nur die nüchternen Fakten des Falles analysiert, ohne sich in den Angeklagten hineinzuversetzen, wird der Ratio des Gesetzes an dieser Stelle nicht gerecht. – Die Neuregelung des § 44 StGB ermöglicht ein Fahrverbot auch bei ver­ kehrsunabhängigen Delikten, wenn die Verhängung einer Freiheitsstrafe unverhältnismäßig wäre und die Geldstrafe keine Wirkung zeitigt (z. B. bei sehr vermögenden Verurteilten). So könnte bspw. bei Verstößen gegen eine Unterhaltsverpflichtung (§ 170 StGB) die Geldstrafe direkt oder mittelbar auch dem Unterhaltsempfänger schaden. Andererseits könnte ein Fahrver­ bot einem Berufskraftfahrer die wirtschaftliche Existenzgrundlage nehmen. Der Richter muss in diesen Konstellationen die sozialen Implikationen seiner Entscheidung genau im Auge behalten und die Auswirkungen auf das soziale Leben der Beteiligten, ihre Beziehungen untereinander und weitere Aspekte möglichst genau antizipieren. Sich in die Beteiligten hin­ einzuversetzen, kann ihn dabei unterstützen. – Im Jugendstrafrecht steht der Erziehungsgedanke für jede einzelne Ent­ scheidung immer im Vordergrund. § 2 Abs. 1 JGG legt fest, dass die An­ wendung des Jugendstrafrechts „vor allem erneuten Straftaten eines Ju­ gendlichen oder Heranwachsenden entgegenwirken“ soll, und dass zur Erreichung dieses Ziels „die Rechtsfolgen und unter Beachtung des elter­ lichen Erziehungsrechts auch das Verfahren vorrangig am Erziehungsge­ danken auszurichten“ sind. § 37 JGG verlangt daneben in gerichts-organi­

234

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

satorischer Hinsicht, dass die Jugendrichter und Jugendstaatsanwälte „er­ zieherisch befähigt und in der Jugenderziehung erfahren sein“ sollen. Auch hier ist schwer vorstellbar, wie sich ohne Empathie dem Erziehungs­ gedanken, also der einzelfallgenaue, „passenden“ Einwirkung auf Jugend­ liche, Genüge tun ließe. – Auch in familienrechtlichen Verfahren sowie in Erbstreitigkeiten ist ein Verständnis emotionaler Zustände und sozialer Wirkungsmechanismen von hoher Relevanz. Ein zufriedenstellender Interessenausgleich und letzt­ lich Rechtsfrieden lassen sich besser erreichen, wenn der Richter die Mo­ tive, Probleme und Emotionen der Parteien nachvollziehen und einordnen kann. Ähnlich wie bei § 37 JGG setzt der Gesetzgeber auch im Familien­ recht darauf, dass ein unerfahrener Berufsanfänger noch nicht geeignet ist, die oftmals sozial komplexen Streitigkeiten umfassend zu befrieden: Nach § 23b Abs. 3 S. 2 GVG darf ein Richter auf Probe im ersten Jahr nach seiner Ernennung keine Geschäfte des Familienrichters wahrnehmen. In diesen und vielen anderen Fällen kann Empathie dem Richter helfen, eine dem Einzelfall gerecht werdende und rational begründbare Entscheidung zu treffen.402 Selbstredend darf dies nicht dazu führen, dass der Richter ge­ genüber einer Partei im Zivilprozess oder dem Opfer im Strafprozess „zu viel Empathie“ aufbringt und infolgedessen seine Verpflichtung zur inneren Unabhängigkeit (vgl. Art. 97 Abs. 1 GG, § 25 DRiG)403 verletzt oder seine Befangenheit zu besorgen ist (vgl. etwa § 42 ZPO, § 24 StPO, § 54 VwGO i. V. m. § 42 ZPO). Die mögliche „verborgene Befangenheit“ durch „bewusste oder unbewusste Empathie“404 ist die denklogische Konsequenz daraus, dass Richter Menschen mit sozialer Prägung, Meinungen und Wertmaßstäben sind. „Empathie“ ist für die Rechtsfindung im deutschen Recht nicht explizit vorausgesetzt. Der Begriff findet sich weder in den Verfahrensordnungen noch im GVG. Einen Anknüpfungspunkt für ihre Relevanz bietet § 9 Nr. 4 DRiG: Voraussetzung, um jemanden zum Richter zu berufen, ist (u. a.), dass die Person „über die erforderliche soziale Kompetenz verfügt“. Dies umfasst die zusätzlich zur fachlichen Eignung erforderliche Fähigkeit, mit Menschen in gerichtlichen Verfahren oder innerhalb der Justiz angemessen umgehen zu können, und meint insbesondere ein grundsätzliches soziales Verständnis.405

402  Siehe ergänzend Justizministerkonferenz 2019, Legal Tech: Herausforderungen für die Justiz, 1.7.2019, S. 66 f. 403  Vgl. dazu oben S. 103 ff. 404  Graßnack, in: Prütting/Gehrlein (Hrsg.), 11. Aufl., 2019, § 42, Rn. 4. 405  Staats, DRiG, 2012, § 9 Rn. 13.



III. Technische Hürden einer automatisierten Rechtsfindung 235

dd) Empathie als unverzichtbarer Bestandteil? Denkt man sich den Richter indes als reinen Automaten, wäre die Alterna­ tive dazu, die Empathie in die richterliche Rechtsfindung einzubeziehen, eine Entscheidungsentität, die nüchtern-rational Fakten sammelt, Informationen anhand von Vergleichsfällen und sonstigen Daten gewichtet sowie Muster erkennt. Die Emotionen und Motive im Einzelfall ließen sich so zwar be­ schreiben, aber nicht exakt nachvollziehen und damit bewerten. Versteht man die Empathie als hilfreichen – und vom Gesetzgeber gewoll­ ten – Bestandteil im richterlichen Entscheidungsfindungsprozess, könnten Maschinen die menschliche Rechtsfindung auch insoweit nicht deckungs­ gleich ersetzen: Möglicherweise kämen sie auf dieselben Ergebnisse, ihr Weg dorthin wäre jedoch grundlegend verschieden.406 Jenen Grad und jene Qualität an (menschlicher) Empathie, die das Recht selbst und auch die Ge­ meinschaft der Rechtsunterworfenen vom Rechtsanwender erwarten, sind Maschinen nicht zu leisten im Stande. b) Kreativität Kreativität bezeichnet im allgemeinen Sprachgebrauch die Fähigkeit, schöpferisch oder gestalterisch tätig sein zu können. Voraussetzung dafür sind Einfallsreichtum, Fantasie, Findigkeit sowie die Bereitschaft und Fähig­ keit zu originellen Verhaltensweisen. Im Rechtswesen kann Kreativität von Vorteil sein: Besonders in der Rechtsberatung ist vielfach „juristische Krea­ tivität“ gefragt – verstanden als die Fähigkeit, juristisch gestalterisch tätig zu sein, originell und strategisch vorzugehen sowie neue Lösungswege zu fin­ den, die sinnvoll und zielführend sind. Aber auch in der Justiz kann Kreati­ vität hilfreich sein. Im zivilrechtlichen Verfahren kann der Richter etwa beim Hinwirken auf einvernehmliche Lösungen, zufriedenstellende Verglei­ che und Vorschläge zur Güte gestalterisch und schöpferisch, mithin kreativ agieren. Gleiches gilt grundsätzlich auch im verwaltungsgerichtlichen Ver­ fahren. Im Strafrecht sind kreative Lösungen ebenfalls nicht ausgeschlos­ sen – man denke etwa an die Fülle der Möglichkeiten, welche die §§ 153a ff. StPO Gerichten und Staatsanwaltschaften eröffnen. Kreative, auch unge­ wöhnliche Maßnahmen schließt das Gesetz nicht aus, müssen diese doch exakt auf den Angeklagten zugeschnitten sein. Ähnliches gilt im Jugend­ strafrecht (vgl. §§ 8 ff. JGG). Jedoch ist Kreativität im Sinne neuer, originel­ ler Herangehensweisen im Strafverfahren insgesamt weniger relevant und weniger wünschenswert: Zu Recht sind dem kreativen Rechtsanwender hier 406  Die Frage verschiebt sich sodann vom rechtlichen bzw. rechtstheoretischen in den politischen Bereich.

236

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

eher die Hände gebunden; zu nennen ist insbesondere das strafrechtliche Analogieverbot (Art. 103 Abs. 2 GG, § 1 StGB).407 Prinzipiell gilt für alle Rechtsgebiete, dass etwa Analogien nur unter engen Voraussetzungen zuläs­ sig sind.408 Maschinen können nicht „von sich aus“ kreativ oder schöpferisch sein. Sie handeln nur aufgrund ihrer Funktionsweise sowie ihrer Befehle und Vorga­ ben. Auch ungewöhnliche Lösungen lassen sich grundsätzlich auf die Ein­ gangsparameter zurückführen; in Systemen maschinellen Lernens ersetzen die Trainingsdaten und -beispiele die Eingangsparameter. Bislang geben Menschen den technischen Systemen, Programmen und Maschinen vor, was sie zu tun haben. In einem solchen, engen, Verständnis verfügen Maschinen nicht über Kreativität. Maschinen sind aber andererseits auch nicht per se unkreativ. Sie können „berechenbare Kreativität“409 generieren. Dafür gibt es durchaus Beispiele: maschinengemachte Musik und Gemälde, Romane ver­ fassende Schreibcomputer oder Programme, die anhand gewisser Vorgaben eigenständig Schriftsätze generieren können.410 Auch insoweit beruhen die Ergebnisse aber auf Mustererkennung und Interpretation statt auf „echter“ Kreativität. Bemüht man jedoch erneut den Vergleich Mensch-Maschine, wird deut­ lich, dass auch menschliche Fähigkeiten das Produkt von Genen, Umweltein­ flüssen, Erziehung und Ereignissen sind. Menschliche Kreativität entsteht nicht „im luftleeren Raum“, sondern ist Ergebnis vielfältiger Einflussfakto­ ren – strukturell eben vergleichbar mit Eingangsparametern eines Algorith­ mus oder Trainingsdaten beim maschinellen Lernen. Der Satz „Kreativität beginnt mit Kopieren“411 widerspricht zwar auf den ersten Blick dem übli­ chen Begriffsverständnis der Kreativität. Im Vergleich mit der menschlichen erscheint aber „maschinelle Kreativität“ nicht länger ausgeschlossen. Auch der Jurist schöpft kreative Lösungen nicht aus dem Nichts. Er orientiert sich an anderen Fällen, bildet gedankliche Verknüpfungen und Vergleiche, verbin­ 407  Das Analogieverbot gilt grundsätzlich für Eingriffe des Staates in die Rechts­ sphäre des Bürgers, also insbesondere auch im Verwaltungs- und im Steuerrecht, vgl. nur BVerfG, NJW 1985, 1891 (1891 f.); 1996, 3146 (3146). 408  Namentlich sind dies: das Vorliegen einer planwidrigen Regelungslücke sowie die Vergleichbarkeit der Interessenlage, jeweils in Bezug auf den konkreten Sachver­ halt; vgl. auch oben S. 229 ff. 409  Begriff von Wolfangel, Können Maschinen kreativ sein?, Stuttgarter Zeitung (Online) vom 24.4.2017. 410  Vgl. die vielen Beispiele und Interviews bei Volland, Die kreative Macht der Maschinen, 2018, S. 9 ff.; Volland verwendet den Begriff „Kreative Künstliche Intel­ ligenz“. Siehe auch May, Die Kunst wird künstlich, Märkische Allgemeine Online vom 28.4.2017. 411  Volland, Die kreative Macht der Maschinen, 2018, S. 13.



III. Technische Hürden einer automatisierten Rechtsfindung 237

det die Besonderheiten des konkreten Falles mit seinem Wissen über gesetz­ liche Vorgaben sowie über in der Vergangenheit erfolgreiche (oder erfolg­ lose)412 Strategien. Gleiches könnte auch ein System maschinellen Lernens zu jedenfalls strukturell vergleichbaren „kreativen“ juristischen Lösungswe­ gen befähigen. Die Kreativität erscheint damit jedenfalls nicht per se als unüberwindbare technische Hürde einer maschinellen Entscheidungsfindung in der Justiz. c) Ethik der Algorithmen? Algorithmen haben kein Weltbild, kein mit dem menschlichen Erfahrungs­ wissen vergleichbares Verständnis der Welt, keine Moral. Durch diese Wert­ neutralität verbietet sich, Algorithmen ein Attribut der Kategorie „gut oder böse“ zuzuschreiben. Allein maßgeblich ist ihr Einsatz, ihre konkrete Ver­ wendung. Gerade der Staat darf in seinen Entscheidungen nicht blind auf Statistiken und Zahlenlogik vertrauen. „Gerechtigkeit“ ist zum großen Teil nicht rational greifbar und objektiv-eindeutig, sondern auch von subjektiven Vorstellungen abhängig – dem Gerechtigkeitsempfinden. Insoweit kann ein Computerprogramm unsere Vorstellung von Gerechtigkeit nicht verstehen und seine Entscheidungen auch nicht danach ausrichten. In Ermangelung der Fähigkeit zum (im ursprünglichen Sinne)413 vollständig autonomen Handeln haben Algorithmen weder eine eigene Ethik noch Verantwortlichkeit.414 Eine Maschine kann allenfalls anhand von in der Vergangenheit getroffener und für gerecht befundener bzw. als gerecht definierter Entscheidungen ihre eige­ nen Entscheidungsparameter anpassen. Sie wird Gerechtigkeit nicht erlernen können, aber sie kann Ergebnisse liefern, die aus menschlicher Sicht durch­ aus als gerecht gelten können. Im Fokus ethischer Diskussionen zur Automa­ tisierung sollte daher nicht eine „Ethik der Algorithmen“ oder „Ethik der Maschinen“ stehen, sondern die gesellschaftlich ausgehandelte Ethik, welche 412  „Erfolgreich“ aus Sicht eines Anwalts ist insbesondere eine Strategie, die zum Obsiegen im Rechtsstreit führt. Aus Sicht eines Richters könnte „erfolgreich“ bspw. eine Entscheidung bezeichnen, die von den Beteiligten akzeptiert oder einem Instanz­ gericht bestätigt wurde. 413  Vgl. European Group on Ethics in Science and New Technologies, Statement on Artifcial Intelligence, Robotics and ‚Autonomous‘ Systems, 2018, S. 9. 414  A. A. wohl Ananny, Science, Technology, & Human Values 41 (2016), 93 (107): „Starting from an admittedly simplistic notion of ethics as ‚the study of what we ought to do‘, my aim has been to sketch an ethics of NIAs [networked informa­ tion algorithms, Erl. d. Verf.]. Specifically, how algorithms convene a ‚we‘, judge similarity, and create time“ (Hervorhebung nicht im Original). Ähnlich wie hier Schuhr, Willensfreiheit, Roboter und Auswahlaxiom, in: Beck (Hrsg.), Jenseits von Mensch und Maschine, 2012, S. 43 (44 ff.).

238

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

kollektiv als Maßstab zur Bewertung (unternehmerischen wie auch) staatli­ chen Handelns anzulegen ist.415 d) Das Judiz im engeren Sinne, Intuition und emotionale Kompetenz In der bisherigen Diskussion um Entscheidungsautomatisierung eher stief­ mütterlich behandelt findet sich der Aspekt der emotionalen Kompetenz. Ju­ ristische Entscheidungen betreffen die Menschen nicht abstrakt „auf dem Papier“. Betroffen sind stets soziale Lebenssachverhalte und -umstände – sei es im Straf- oder Bußgeldverfahren, im Nachbarschafts- oder Scheidungs­ rechtsstreit, im verwaltungsrechtlichen Genehmigungsverfahren oder im Be­ amtenrecht. Ein empathieloser, ausschließlich rational agierender Entschei­ dungsträger ist regelmäßig nicht in der Lage, die (sozialen) Auswirkungen seiner Entscheidung auf die Lebensumstände der betroffenen Person vollends abzusehen. Vor dem Entscheidungsprozess laufen viele Prozesse der Informationsver­ arbeitung im menschlichen Gehirn unbewusst ab: Neue Informationen werden zusammengefügt und mit bereits vorhandenen kombiniert. Ein Ergebnis die­ ser ablaufenden Prozesse ist oftmals ein „Gefühl“, sich in eine bestimmte Richtung hin zu entscheiden bzw. entscheiden zu müssen, ohne um die Her­ kunft dieses Gefühls zu wissen.416 Dieser Art der Intuition kommt im juristi­ schen Kontext besondere Bedeutung zu – als „Rechtsgefühl“ bzw. „Judiz“.417 Da Richter weder Methodenapparate noch Subsumtionsautomaten sind, be­ gleitet (bei geschulten Juristen) regelmäßig die Intuition – verstanden als Ju­ diz oder Urteilskraft – den (kognitiven) Vorgang der Subsumtion und kontrol­ liert ihn sogar.418 Richterliche Intuition ist daher nicht lediglich unvermeidli­ che Begleiterscheinung, sondern hilfreiches Charakteristikum.419 415  Im Ergebnis ähnlich Zweig, Algorithmische Entscheidungen: Transparenz und Kontrolle, Januar 2019, S. 9 ff. („sozio-informatische Gesamtanalyse“); ebenso Zweig/ Krafft, Transparenz und Nachvollziehbarkeit algorithmenbasierter Entscheidungspro­ zesse, 2019, S. 10 ff. Siehe auch Jaume-Palasí/Spielkamp, Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung, 2017, S. 6 ff. 416  Glöckner/Towfigh, DRiZ 2015, 270 (272). 417  Glöckner/Towfigh, DRiZ 2015, 270 (272). Vgl. zur Bedeutung des Rechtsge­ fühls und der Rechtsintuition juristischer Entscheidungsträger ausführlich Hänni, Vom Gefühl am Grund der Rechtsfindung, 2011, S. 124 ff.; siehe dazu auch bereits oben S. 41  ff. Siehe in diesem Zusammenhang auch Neupert, JuS 2016, 489 (489 ff.) zur Frage, wann eine Rechtsauffassung (noch) vertretbar ist. 418  Wenzel, NJW 2008, 345 (347); Foerste, JZ 2007, 122 (123). 419  Foerste, JZ 2007, 122 (123); vgl. auch Wenzel, NJW 2008, 345 (347). Hilfs­ mittel wie Datenverarbeitungsprogramme oder Suchmaschinen können das Judiz nicht vollständig ersetzen. Die Informationsauswertung durch Algorithmen setzt dabei an quantitativen Maßstäben an: Suchmaschinen listen Informationen aufgrund der



III. Technische Hürden einer automatisierten Rechtsfindung 239

Dabei darf selbstverständlich das Judiz als „Gespür für die richtige bzw. gerechte Lösung“ die Orientierung an Gesetz und Methodik nicht ersetzen. Denn das Judiz ist nur dann richtig, wenn es sich zugleich methodisch veri­ fizieren lässt.420 Der Rückgriff auf „metajuristische Argumentationshilfen wie Billigkeit, Natur der Sache oder Wesen eines Begriffs“421 kann nur der Absicherung eines Urteils dienen.422 Die juristisch saubere Begründung einer gerichtlichen Entscheidung ersetzt dies hingegen nicht. Es offenbart sich somit ein ambivalenter Befund: Bar jeder Intuition, jedes Judiz, oder allgemeiner, des „gesunden Menschenverstandes“, sollte keine richterliche Entscheidung ergehen. Allerdings wächst das Judiz eines Ent­ scheidungsträgers besonders auch mit dessen Lebens- und Berufserfahrung – diese kann schon deshalb nicht unerlässlicher Bestandteil der Rechtsprechung sein, weil sie insbesondere Berufsanfängern fehlt und niemand per se be­ haupten wollte, Berufsanfänger sprächen insgesamt schlechtere Urteile als ihre erfahrenen Kollegen. Zudem sind auch Phänomene wie Intuition oder Bauchgefühl letztlich (u. a. biochemische) Prozesse, die eine Ursache haben und prinzipiell erklärbar sind. Dann kann aber (theoretisch) auch ein System maschinellen Lernens „Bauchentscheidungen“ einer Musteranalyse unterzie­ hen und sich eine entsprechende Entscheidungsintuition aneignen. 10. Zwischenfazit a) Wo Maschinen im Vorteil sind Algorithmische Entscheidungssysteme unterliegen keinen unmittelbaren Einschränkungen durch Müdigkeit, Voreingenommenheit oder Befangenheit, (eigene) Denkfehler oder Emotionen. Ist es, jenseits qualitativer Wertungen, das Ziel, sehr viele Informationen in kurzer Zeit strukturiert und nach klaren Regeln zu verarbeiten, sind sie dem Menschen regelmäßig überlegen. b) Maschinentheoretische Hürde Eine vollständige Automatisierung juristischer Entscheidungen unterliegt maschinentheoretischen Bedenken. Menschliche Entscheidungen – das schließt gerichtliche Entscheidungen ein – sind grundsätzlich nicht-trivial, Anzahl ihrer Verlinkungen und Querverbindungen sowie gewisser Schlüsselbegriffe, die aber ihrerseits gestaltbar und die Anzeigenergebnisse daher manipulationsanfällig sind. Qualitative Wertungen sind ihnen grundsätzlich fremd. 420  Wenzel, NJW 2008, 345 (347 f.). 421  Wenzel, NJW 2008, 345 (348). 422  Foerste, JZ 2007, 122 (123).

240

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

also nicht sicher vorhersagbar.423 Die gerichtliche Begründungspflicht ver­ mag diese strukturelle Unerklärbarkeit und Unsicherheit zwar abzumildern. Allerdings ist es nicht abschließend möglich, ein „wahrheitsgetreues“ Modell juristischen Entscheidens bzw. Denkens zu erstellen, welches als Vorbild für die Programmierung einer Entscheidungsmaschine dienen könnte.424 Für die maschinelle Abbildung juristischer Entscheidungen sind daher zwei Wege denkbar:425 In der ersten Möglichkeit müsste das Recht insgesamt und die Methoden seiner Anwendung der Vorgehensweise einer trivialen, rein logik­ basierten Maschine angepasst werden. Die zweite Möglichkeit bestünde da­ rin, dass die Maschine die Entscheidungsvorgänge eines menschlichen Rechtsanwenders bzw. Entscheiders imitiert und nachbildet – also von ihnen lernt –, obgleich diese Vorgänge für den Entwickler selbst nicht vollständig erklärbar sind. Die erste Herangehensweise setzte also voraus, das Recht und seine An­ wendungsmethoden extrem zu vereinfachen, sodass sich eine Rechtsfolge immer vollständig schematisiert aus den vorgegebenen Voraussetzungen er­ gibt; das Gesetz müsste alle denkbaren Lebenssachverhalte hinreichend de­ tailliert standardisieren und vollumfänglich für Konditionalsätze („Wenn, dann“-Struktur) präparieren – dies erscheint in menschlicher Arbeit nicht möglich.426 Eine „Rundum-Kodifikation“ ist zum Scheitern verurteilt, wie etwa das Allgemeine Landrecht für die Preußischen Staaten (ALR) sichtbar gemacht hat.427 Ein solches Vorgehen führte notgedrungen zu Pauschalisie­ rungen. Die Entscheidungsqualität wäre durch Pauschalisierung und „Verein­ fachung“ im Ergebnis nicht gesteigert. Die zweite Möglichkeit besteht darin, dass lernende Systeme (Künstlicher Intelligenz) die Herangehensweise menschlicher Entscheider nachbilden mit dem Ziel einer möglichst objektiven, rationalen, unverzerrten und von menschlichen Fehlern „befreiten“ Entscheidungsfindung.428 Die Maschine könnte dazu Strukturen in bisherigen Urteilen – alle potenziellen „Präzedenz­ fälle“, also vergleichbare Entscheidungen – analysieren und Aussagen der einschlägigen Kommentarliteratur auswerten.429 Auch bei dieser Herange­ 423  Vgl. oben S. 45 ff. sowie Foerster/Pörksen, Wahrheit ist die Erfindung eines Lügners, 11. Aufl., 2016, S. 54 ff. Dazu und zum Folgenden Graevenitz, ZRP 2018, 238 (239 ff.). 424  Vgl. Adrian, Rechtstheorie 48 (2017), 77 (84 f.). 425  Vgl. Graevenitz, ZRP 2018, 238 (239 f.); siehe auch bereits oben S. 201 ff. 426  Adrian, Rechtstheorie 48 (2017), 77 (86  f.); Graevenitz, ZRP 2018, 238 (239 f.). Ähnlich BT-Drs. 18/8434, S. 120 (mit Blick auf Verwaltungsentscheidungen). 427  Vgl. bereits oben S. 94 f. 428  Vgl. Graevenitz, ZRP 2018, 238 (240) m. w. N. 429  Vgl. Fries, NJW 2016, 2860 (2862 f.).



III. Technische Hürden einer automatisierten Rechtsfindung 241

hensweise verbliebe jedoch ein menschlicher Einfluss: Wie die Maschine Sachverhalte erfasst, auf welche juristischen (Erkenntnis-)Quellen sie zu­ greift, wie der Lernprozess insgesamt ausgestaltet sein soll und die Frage, nach welchen Kriterien einzelne Aspekte gewertet und gewichtet werden sollen – menschliche Handlungen haben immensen Einfluss auf die Ma­ schine. Sie sind aber ihrerseits nicht absolut rational und vorhersagbar, so­ dass auch eine Maschine, die etwa in einem Testlauf verlässlich gute, juris­ tisch „richtige“ Ergebnisse erzielt hat, durch den ursprünglichen und beglei­ tenden menschlichen Einfluss nach wie vor selbst nicht-trivial bleibt und ihre Entscheidungen daher weiterhin nicht sicher vorhersehbar sind.430 Auch die „typisch menschlichen“ Fehler, bspw. kognitive Verzerrungen, die sich in den bisherigen gerichtlichen Entscheidungen (menschlicher Entscheider) ausgewirkt haben, verfestigten sich bei einer vollständigen Automatisierung in der maschinellen Entscheidungspraxis. c) Fehler maschineller Entscheidungsfindung Als typische Fehlerquellen maschineller bzw. algorithmischer Entschei­ dungsfindung lassen sich identifizieren:431 erstens fehlerhafte Algorithmen, also Problemlösestrategien für ein gegebenes (mathematisches) Problem, welche das Problem nicht vollständig korrekt lösen; zweitens die fehlerhafte Implementierung eines an sich korrekten Algorithmus; drittens die fehler­ hafte Modellierung der zu beantwortenden Frage auf ein passendes mathe­ matisches Problem; viertens fehlerbehaftete oder unpassende Daten, insbe­ sondere bei lernenden Algorithmen; und fünftens gesellschaftlich uner­ wünschte Nebenwirkungen, die erst durch Interaktion des Entscheidungssys­ tems mit menschlichem Verhalten, also den Nutzern bzw. Anwendern, auftreten. Daraus entspringen folgende Fehler bzw. Fehlerarten:432 Abweichungen von den Zielen des Entscheiders oder von normativen Anforderungen; Unzu­ lässigkeit der (algorithmischen) Beurteilung; Intransparenz (bei Entscheidun­ gen, die öffentlich oder öffentlich überprüfbar sein müssen; eine fehlende Begründung stellt dann bereits einen Fehler dar); Fehler bei der Entschei­ dungsfindung bzw. im Beurteilungsverfahren; Fehler in der Entscheidungs­ grundlage; sowie Fehler bei der Würdigung der Entscheidungsgrundlagen. 430  Graevenitz, ZRP 2018, 238 (240) m. w. N.; Boehme-Neßler, NJW 2017, 3031 (3033). 431  Nach Zweig, AlgorithmWatch, 2. Arbeitspapier: Überprüfbarkeit von Algorith­ men, 7.6.2016. 432  Nach Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S.  81 ff.

242

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Maschinelle Entscheidungen sind im Vergleich zu menschlichen also nicht notwendig „richtiger“; in beiden Fällen kann es zu Entscheidungsfehlern und Diskriminierungen kommen. Ein die Rationalität und den Nutzen mehrender Einsatz algorithmischer Verfahren hängt u. a. von den eingesetzten Algorith­ men, der Datenbasis, der Implementierung, der Interaktion mit dem Anwen­ der und weiteren Umstände ab. Automatisiert getroffene Entscheidungen und Entscheidungsvorschläge weisen im Vergleich aber eine deutlich größere Breitenwirkung auf. Höhere Fallzahlen, in denen ein und dasselbe algorith­ mische Entscheidungssystem zum Einsatz kommt, führen zu ungleich mehr (potenziell) von Fehlern und Diskriminierung Betroffenen: Sofern ein diskri­ minierendes Element erst einmal (unbemerkt oder bemerkt) Einzug gehalten hat in den Entscheidungsprozess eines automatischen Systems, wirkt es sich um ein Vielfaches mehr aus als wiederholte Fehler eines einzelnen mensch­ lichen Entscheiders. Weil Maschinen zuvorderst problemlösungsorientiert und nicht wertorientiert agieren, müssen ihnen Werte bzw. Verbote aktiv eingepflanzt werden.433 Die Breitenwirkung zeigt sich auch mit Blick auf Sicherheitsbedenken: Es ist strukturell nicht kongruent, wenn etwa eine Akte verloren geht oder sich jemand unbefugt an ihr zu schaffen macht – im Vergleich zu einem Angriff auf ein automatisiertes Entscheidungs- oder Entscheidungsunterstützungssys­ tem, das in einer großen Anzahl gerichtlicher Verfahren zum Einsatz kommt. d) Zusammenfassung und Ausblick Die technische Entwicklung auf dem Gebiet der Entscheidungsfindung durch algorithmenbasierte Systeme vollzieht sich in raschem Tempo. So lässt sich nur schwer antizipieren, welche Tätigkeiten auch in naher und mittlerer Zukunft (technisch) automatisiert werden können und welche Bereiche allein in menschlicher Hand verbleiben.434 Mit Blick auf die aktuellen Fortschritte etwa der KI-Forschung scheint eine immer weiter reichende Nachbildung menschlicher Intelligenz nicht ausgeschlossen. Aufgrund der Dynamik aktu­ eller Entwicklungen und Fortschritte auf diesem Gebiet erübrigt sich an die­ 433  Zur rechtlichen Einhegung sowohl privatwirtschaftlich als auch hoheitlich eingesetzter Algorithmen ausführlich Martini, Blackbox Algorithmus, 2019, S. 157 ff., sowie zuvor schon Martini, JZ 2017, 1017 (1019 ff.), der für eine Melange aus prä­ ventiven, begleitenden und nachträglichen Maßnahmen plädiert; ähnlich auch Borges/ Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 132 ff. 434  Siehe ergänzend die Vermutungen und Skizzen des „Futurologen“ und Publi­ zisten David Tal, Tal, Automated judging of criminals, http://www.quantumrun.com/ prediction/automated-judging-criminals-future-law-p3 (10.6.2020), wonach ca. ab dem Jahr 2050 „AI judges“ selbstständig kleinere Fälle bearbeiten, Verhandlungen leiten und Urteile fällen können und werden.



III. Technische Hürden einer automatisierten Rechtsfindung 243

ser Stelle ein abschließendes und verbindliches Fazit über die technischen Grenzen.435 Maschinen, auch auf maschinellen Lernverfahren basierende „intelligente“ Systeme, sind jedenfalls immer auf eine spezielle Aufgabe, einen Teilbereich hin optimiert. Im juristischen Kontext überblicken sie nur eng begrenzte Themenfelder und einzelne Rechtsfragen:436 Ihnen fehlt ein allgemeines „Weltwissen“, der common sense, der gesunde Menschenverstand, der sich nicht formalisiert erfassen lässt.437 Sie übertrumpfen den menschlichen Geist lediglich in spezifischen Tätigkeiten – immer nur zu dem Zweck, zu dem sie erschaffen und programmiert wurden; sie sind strukturell begrenzt. So ist jedenfalls bislang keine Software und kein informationstechnisches System bekannt, das die juristische Tätigkeit (eines Richters oder eines Rechtsan­ walts) in Gänze beherrscht – einschließlich Sachverhaltserfassung, Ausle­ gung, Subsumtion, Entscheidung. Auch eine adäquate Verhandlungsleitung kann kein Computerprogramm, auch kein humanoider Roboter leisten.438 Die Kompetenz einer Maschine oder einer Software ist immer auf das beschränkt, was sich formalisieren, berechnen, schematisieren lässt. Lebenssachver­ halte – Ausgangs- und Bezugspunkt gerichtlicher Entscheidungen – sind je­ doch nicht vollständig in Einsen und Nullen abbildbar. Zugleich kann das Recht nicht nur auf vollständig formalisierten oder formalisierbaren Vorgaben basieren, sondern die Rechtsordnung ist auf abstrakte, offene und interpreta­ tionsbedürftige Formulierungen angewiesen. Zwar sind bspw. Frage-AntwortTools in der Lage, aus großen Datenmengen passgenaue Antworten auf ein­ zelne Rechtsfragen zu generieren. Juristisches Argumentieren, letztlich rechtliches Denken ist aber auch damit nicht erreicht.439 435  Im Übrigen kann dies im Rahmen einer im Kern rechtswissenschaftlichen und rechtstheoretischen Arbeit auch nicht geleistet werden. 436  Siehe ergänzend Wagner, Legal Tech und Legal Robots, 2018, S. 31 ff., sowie zu den (engen) Grenzen einer „juristischen künstlichen Intelligenz“ Bues, Kapitel 7.3: Artificial Intelligence im Recht, in: Hartung/Bues/Halbleib (Hrsg.), Legal Tech, 2018, S.  275 (275 ff.). 437  Ausführlich bereits Kowalski, Lösungsansätze für juristische Expertensysteme, 1987, S. 109 ff.; vgl. auch Martini/Nink, DVBl 2018, 1128 (1129, 1136 f.). 438  Vgl. zum Mündlichkeitsgrundsatz ergänzend unten S. 366 ff. Vgl. auch Flint, NZS 2016, 81 (83): Es geht „mit dem Richteramt um spezifisch Menschliches, Sub­ jektives, das sich nicht alles durch Technik in einem Objekt zusammenfassen und automatisieren lässt: Alltagsnähe, Bürgersinn, Freundlichkeit, Freude, Gelassenheit, Gespür, Mut, Nachsicht, Neugier, Stil, Strenge, Takt, Trauer, Vertrauen, Zweifel“. 439  So wohl auch Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 23, 351 ff. Siehe aus philosophischer Sicht in ähnlichem Kontext auch Gabriel, Der Sinn des Denkens, 2018, S. 32: „[I]ndem wir meinen, dass die fortgeschrittene Datentech­ nologie automatisch den Denkraum des Menschen erobert, machen wir uns ein fal­ sches Bild von uns selbst. Auf diese Weise greifen wir den Kern unseres Menschseins an“.

244

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Nach einer Untersuchung der Universität Oxford stehen drei technische Hauptproblemstellungen der Automatisierung einzelner Berufsgruppen entge­ gen:440 Wahrnehmung und Handling, kreative Intelligenz sowie soziale Intel­ ligenz. Eine vollständige Automatisierung der gesamten richterlichen Arbeit ist auch hiernach technisch nicht möglich. Denn richterliche Entscheidungen erfordern, dass ein (mitunter komplexer) Lebenssachverhalt vor dem Hinter­ grund einer (evtl. erst zu findenden) Rechtsnorm zu betrachten und zu bewer­ ten ist und der Richter umgekehrt auch die Rechtsnorm speziell im Hinblick auf den konkreten Lebenssachverhalt auslegen sowie eine akkurate Entschei­ dungsbegründung ausformulieren muss. Die Tätigkeit beschränkt sich also nicht auf einen formallogisch organisierten Datenverarbeitungsvorgang, son­ dern umfasst stets Erfahrungen, Einstellungen, Wertungen oder Zielvorstel­ lungen und die Antizipation und Rückkopplung der (sozialen) Entscheidungs­ folgen.441 Bisher kann kein Algorithmus, kein Expertensystem, kein Pro­ gramm alle diese Punkte modellieren und die Anforderungen hieran leisten. Das liegt unter anderem darin begründet, dass eine zur Automatisierung notwendige Formalisierung und Schematisierung des Rechts strukturelle Grenzen hat. Regeln lassen sich zwar in logischen Strukturen und formali­ sierbaren „Wenn, dann“-Sätzen darstellen – sowohl deskriptiv („Wenn x ist, dann ist y“) als auch in Form von Geboten („Wenn x ist, dann soll y sein“ bzw. „Wenn der Tatbestand x verwirklicht ist, dann soll die Handlung y geschehen“).442 Formalisierungen dieser Art bleiben aber stets trivial, mithin in kleinen Teilbereichen verhaftet; sie betreffen lediglich einzelne Vorgänge, nicht aber die Hauptprobleme juristischer Arbeit bzw. die Gesamtheit der rechtlichen Erwägungen in der Entscheidungsfindung. Logische Regeln an­ zuwenden bzw. einzuhalten, ist notwendige, aber nicht hinreichende Bedin­ gung juristischer Entscheidungsfindung.443 Die Grenzen der Formalisierung liegen somit auch in semantischen Fragen (bspw. „Was ist ein ‚gefährliches Werkzeug‘ i. S. d. § 224 Abs. 1 StGB?“) und Wertungsaufgaben, die sich nicht durch rein logikbasierte, formale Arbeitsschritte abbilden lassen. Glei­ ches gilt für (Wertungs-)Lücken im Recht, die Analogien o. Ä. erfordern. Auch die Vielgestaltigkeit der (teilweise gegenläufigen) Interessen, die eine juristische Entscheidung ausgleichen bzw. beachten muss, lässt sich nicht vollständig in formale Entscheidungsbäume pressen. Eine Vollautomation 440  Frey/Osborne, Technological Forecasting and Social Change 114 (2017), 254 (260 ff.); dazu auch Kaplan, Künstliche Intelligenz, 2017, S. 135 ff. 441  Kilian, Juristische Expertensysteme, in: Nickel/Roßnagel/Schlink (Hrsg.), Freiheit und Macht, 1994, S. 201, (203). Vgl. auch das Fazit bei Dreyer/Schmees, CR 2019, 758 (764): „technikbegründete faktische wie (entscheidungs-)strukturelle Be­ denken“. 442  Zippelius, Methodenlehre, 2012, S. 88. 443  So auch Zippelius, Methodenlehre, 2012, S. 88 f., 91.



IV. Unionsrechtliche Vorgaben245

gerichtlicher Entscheidungen ist nach gegenwärtigem Stand im Ergebnis technisch ausgeschlossen. Einzelne und klar begrenzte Tätigkeiten auf Maschinen zu übertragen, ist jedoch technisch machbar und kann im Sinne einer Arbeitserleichterung für den Richter sowie des schnelleren Zugangs zum Recht für den Bürger rechts­ politisch gewollt sein. Einer Entscheidungsunterstützung ist aus technischer Sicht nicht der Weg versperrt. Ob vollständige oder teilweise Automatisie­ rung: Wenngleich „Richterautomaten“ technisch weit von der Realität ent­ fernt sind, lohnt sich eine umfassende und kritische Diskussion der rechtli­ chen Vorgaben und Grenzen bereits jetzt. Diesen Fragen widmen sich die nächsten Abschnitte.

IV. Unionsrechtliche Vorgabenzur Automatisierung gerichtlicher Entscheidungen (Überblick) Um die Zulässigkeitsgrenzen des Einsatzes neuer Technologien in der deutschen Justiz zu erfassen, reicht der Blick allein auf deutsches Recht nicht aus. Unionsrechtliche Vorgaben überlagern in vielen Bereichen das Recht der Mitgliedstaaten und geben trotz des Grundsatzes der Subsidiarität (Art. 5 Abs. 3 EUV)444 den Rahmen künftiger Entwicklungen vor. So genießen die Rechtsakte der Europäischen Union im Fall einer Normenkollision in Sach­ verhalten mit unionsrechtlichem Bezug grundsätzlich Anwendungsvorrang gegenüber dem Recht der Mitgliedstaaten,445 auch gegenüber dem Verfas­ sungsrecht.446 444  In der Regel wird das europarechtliche Subsidiaritätsprinzip unter dem Ge­ sichtspunkt der Begrenzung von EU-Kompetenzen diskutiert, vgl. Calliess, in: Cal­ liess/Ruffert (Hrsg.), EUV/AEUV, 5. Aufl., 2016, EUV Art. 5, Rn. 20 m. w. N., a. A. wohl Faber, DVBl 1991, 1126 (1134). 445  EuGH, Urt. v. 15.7.1964, Rs. C-6/64, Slg. 1964, S. 1251, 1269 – Costa/ENEL, ECLI:EU:C:1964:66; EuGH, Urt. v. 9.3.1978, Rs. C-106/77 – Simmenthal, ECLI:EU:C:1978:49; Beljin, EuR 2002, 351 (352 f.); Streinz, Europarecht, 10. Aufl., 2016, Rn. 220. Vgl. auch Art. 4 Abs. 3 UAbs. 3 EUV (Grundsatz des effet utile). 446  EuGH, Urt. v. 17.12.1970, Rs. 11/70, Slg. 1970, S. 1125, Rn. 3 f. – Internatio­ nale Handelsgesellschaft, ECLI:EU:C:1970:114; Ruffert, in: Calliess/Ruffert (Hrsg.), EUV/AEUV, 5. Aufl., 2016, AEUV Art. 1, Rn. 19. Das BVerfG hat diese Leitlinien zur Prüfung der Vereinbarkeit von Rechtsakten der Europäischen Gemeinschaften mit deutschem Verfassungsrecht bestätigt, vgl. BVerfGE 73, 339 (387) – Solange-II; BVerfGE 123, 267 (397) – Lissabon. Es geht nunmehr von einem Kooperationsver­ hältnis zwischen BVerfG und EuGH aus, vgl. BVerfGE 89, 155 (175, 178) – Maas­ tricht. Der Anwendungsvorrang soll ein unübersichtliches Nebeneinander verschiede­ ner Verfahrensordnungen und ebenso Inländerdiskriminierungen vermeiden. Wenn aber im Kollisionsfall unionsrechtliche Vorschriften deutsches Recht verdrängen bzw. überlagern können, empfiehlt es sich, zunächst diese auszuleuchten.

246

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Eine explizite Regelung im Unionsrecht, die speziell zur Automatisierung gerichtlicher Entscheidungen Stellung nimmt, ist nicht ersichtlich. Bereichs­ spezifische EU-Rechtsakte wirken sich aber mit einer „überschießenden Tendenz“ immer stärker auf das mitgliedstaatliche (Verfahrens-)Recht aus.447 1. Datenschutzrechtliche Vorgaben der Datenschutz-Grundverordnung Der Entscheidungsprozess eines „Richterautomaten“ vollzöge sich als Ver­ arbeitung fall- und beteiligtenspezifischer Informationen, mithin personenbe­ zogener Daten (vgl. zum Begriff nur Art. 4 Nr. 1 DSGVO): Eine (gedachte) automatisierte Entscheidungsfindung in gerichtlichen Verfahren muss mit personenbezogenen Daten operieren, um den konkret Beteiligten und den Einzelfall adäquat beurteilen zu können.448 a) Anwendungsbereich der DSGVO in gerichtlichen Verfahren aa) Grundsatz Die DSGVO gilt für die ganz oder teilweise automatisierte Verarbeitung personenbezogener Daten sowie für die nichtautomatisierte Verarbeitung personenbezogener Daten, die in einem Dateisystem gespeichert sind oder gespeichert werden sollen (Art. 2 Abs. 1 DSGVO). Ihre Regelungen betref­ fen sowohl öffentliche wie auch nichtöffentliche Stellen. Gerichtliche Daten­ verarbeitungen, insbesondere solche im Kernbereich der Rechtsprechung, sind weder explizit ein- noch ausgeschlossen.449 Liegt die Regelungskompetenz zur Ausgestaltung gerichtlicher Verfahren grundsätzlich bei den Mitgliedstaaten,450 sind diese aber nur prima facie über Art. 2 Abs. 2 lit. a DSGVO vom Anwendungsbereich der DSGVO ausge­ etwa Prell, apf 2017, 237 (239). 25.5.2018 gilt die DSGVO unmittelbar in allen EU-Mitgliedstaaten. Trotz der Vielzahl an Öffnungsklauseln, die den Mitgliedstaaten weite Regelungsspielräume belassen (vgl. Kühling/Martini et al., Die Datenschutz-Grundverordnung und das na­ tionale Recht, 2016, S. 2 ff.), verfolgt sie das Ziel einer Vollharmonisierung, vgl. Pötters, in: Gola (Hrsg.), DS-GVO, 2017, Art. 1, Rn. 24; Albrecht, CR 2016, 88 (89 f.). Sie strebt damit ein grundsätzlich gleiches oder vergleichbares Datenschutz­ niveau innerhalb der EU an. Siehe ergänzend zu datenschutzrechtlichen Fragestellun­ gen eines Legal-Tech-Einsatzes im Zivilprozess Justizministerkonferenz 2019, Legal Tech: Herausforderungen für die Justiz, 1.7.2019, S. 108 ff. 449  Vgl. auch Engeler, NJOZ 2019, 593 (593 f.). 450  Dies ergibt sich mittelbar aus Art. 23 GG sowie dem Grundsatz der begrenz­ ten Einzelermächtigung in Art. 5 Abs. 1 und 2 EUV: Die Kompetenz bzw. Zuständig­ 447  Vgl. 448  Seit



IV. Unionsrechtliche Vorgaben247

nommen: Eine entsprechende Zuständigkeit ergibt sich anhand der Sachma­ terie des Datenschutzrechts. Art. 16 AEUV und Art. 8 GRCh gestalten den Schutz personenbezogener Daten ausdrücklich als Regelungsauftrag und -kompetenz der Union aus.451 Kommt es auf die Sachmaterie (Datenschutz­ recht) und nicht primär den „Akteur“ (Gerichte) an, so sind nicht die spezi­ fischen Grundsätze gerichtlicher Verfahren in den Mitgliedstaaten berührt, sondern Datenverarbeitungen als solche (vgl. Art. 16 Abs. 2 AEUV) – unab­ hängig davon, ob sie durch eine Behörde, ein Unternehmen oder ein mit­ gliedstaatliches Gericht erfolgen. Art. 55 Abs. 3 DSGVO stützt diese Ein­ schätzung: Die Vorschrift soll lediglich die aufsichtsbehördliche Kontrolle über gerichtliche Datenverarbeitungen ausschließen,452 nicht aber generell die gerichtlichen Verarbeitungen aus dem Anwendungsbereich der DSGVO verbannen.453 Die DSGVO findet somit grundsätzlich Anwendung, wenn und soweit die Gerichte personenbezogene Daten verarbeiten.454 bb) Sonderfall Strafprozess – Anwendungsbereich der RL (EU) 2018/680 („JI-RL“) Die DSGVO ist allerdings nicht anwendbar, wenn die zuständigen Behör­ den zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung keit zur Regelung gerichtlicher Verfahren haben die Mitgliedstaaten der EU nicht übertragen. 451  Albrecht, CR 2016, 88 (89). Art. 2 Abs. 2 lit. a DSGVO („gilt nicht im Rah­ men einer Tätigkeit, die nicht in den Anwendungsbereich des Unionsrechts fällt“) ist daneben ausschließlich deklaratorisch; ebenso Kühling/Raab, in: Kühling/Buchner (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 2, Rn. 21. Vgl. auch Martini, in: Paal/ Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 31 DSGVO, Rn. 2: Die Kompetenz­ grundlage der Union für den Erlass bspw. des Art. 31 DSGVO ist nicht etwa Art. 197 Abs. 2 oder 298 AEUV, sondern die Annexkompetenz der Union, (sogar) das Verwal­ tungsverfahren in den Mitgliedstaaten mitzugestalten. 452  Sie trägt der Unabhängigkeit der Justiz gem. Art. 47 Abs. 2 S. 1 GRCh, Art. 6 Abs. 1 S. 1 EMRK Rechnung, vgl. Nguyen, in: Gola (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 55, Rn. 13. 453  Der aufsichtsrechtlichen Datenschutzkontrolle unterliegen die Gerichte daher nur, soweit sie in Verwaltungsangelegenheiten Daten verarbeiten, vgl. Nguyen, in: Gola (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 55, Rn. 13; das entspricht auch der Rechtslage unter dem BDSG a. F. (vgl. § 24 Abs. 3 BDSG a. F.). Siehe zum mitglied­ staatlichen Regelungsspielraum bei einer weiten Auslegung des ErwGr. 20 S. 1 DS­ GVO noch Kühling/Martini et al., Die Datenschutz-Grundverordnung und das natio­ nale Recht, 2016, S. 20; Kühling/Raab, in: Kühling/Buchner (Hrsg.), DS-GVO/ BDSG, 2. Aufl., 2018, Art. 2, Rn. 30. 454  Ebenso Bieresborn, DRiZ 2019, 18 (18); Ory/Weth, NJW 2018, 2829 (2830); Engeler, NJOZ 2019, 593 (593 f.); Martini/Nink, DVBl 2018, 1128 (1136); Raum, in: Auernhammer (Hrsg.), 6. Aufl., 2018, Art. 37, Rn. 40. Vgl. auch Schantz/Wolff, Das neue Datenschutzrecht, 2017, Rn. 1373 f.

248

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

von Straftaten oder der Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit, personenbezo­ gene Daten verarbeiten (Art. 2 Abs. 2 lit. d DSGVO). Für diesen Bereich gilt die RL (EU) 2016/680 (Datenschutz-Richtlinie für Justiz und Inneres, „JI-RL“). In ihrem nicht-verfügenden Teil bereitet die DSGVO einige Abgrenzungs­ schwierigkeiten zwischen DSGVO und JI-RL.455 Kommt es indes vor allem anderen auf den Zweck – die Strafverfolgung – an, gilt im Ergebnis für das (gesamte) Strafverfahren und die strafgerichtliche Praxis die JI-RL.456 Auch Art. 32 Abs. 1 S. 2 und Art. 45 Abs. 2 JI-RL lassen keinen anderen Schluss zu, weil ansonsten die dort genannten Ausnahmemöglichkeiten überflüssig wären.457 Dem Unionsrecht ist eine solche Trennung der Rechtsgebiete und Verfah­ rensarten nicht fremd: Auch das Primärrecht trennt zwischen der strafrechtli­ chen und der zivilrechtlichen Tätigkeit der Gerichte (Art. 81 und 82 AEUV). Die DSGVO gilt im Ergebnis grundsätzlich für die Datenverarbeitung in Gerichtsverfahren mit Ausnahme des Strafverfahrens, für das stattdessen die 455  So legt ErwGr 20 S. 3 DSGVO fest, dass die Verordnung „unter anderem für die Tätigkeiten der Gerichte“ gilt, und dass besondere Stellen im Justizsystem „Rich­ ter und Staatsanwälte besser für ihre Pflichten aus dieser Verordnung sensibilisieren“ sollen. Die Bezugnahme auf Staatsanwälte und deren „Pflichten aus dieser Verord­ nung“ lässt den Rechtsanwender vor dem Hintergrund der eindeutigen Formulierun­ gen in Art. 2 Abs. 2 lit. d DSGVO i. V. m. Art. 1 Abs. 1, 2 Abs. 1 JI-RL zunächst etwas ratlos zurück. Insbesondere der Begriff der „zuständigen Behörden“ in Art. 1 Abs. 1, 2 Abs. 1 JI-RL und Art. 2 Abs. 2 lit. d DSGVO bedarf daher der genaueren Betrach­ tung: Deutsche Gerichte sind keine „Behörden“; das ergibt sich bereits aus dem Grundsatz der Gewaltenteilung. Jedoch bezieht ein – europarechtlich autonom auszu­ legendes – weites Begriffsverständnis hier auch Strafgerichte mit ein, vgl. Mysegades, CR 2018, 225 (230); Schantz/Wolff, Das neue Datenschutzrecht, 2017, Rn. 239, 241 ff. In der englischen Fassung ist die Terminologie insoweit offener und damit präziser („authorities“). Dafür streitet auch das Telos der Abgrenzung zwischen bei­ den Regelungsinstrumenten: Entscheidend ist der Zweck der Datenverarbeitung; Ver­ arbeitungen zum Zweck der Strafverfolgung sollen zuvorderst unter die JI-RL fallen. Der Begriff „Behörden“ ist somit „sehr unglücklich gewählt“, vgl. Bäcker/Hornung, ZD 2012, 147 (149). Aus ErwGr 80 S. 1 JI-RL („Tätigkeit der nationalen Gerichte und anderer Justizbehörden“) folgt aber letztlich eindeutig, dass der Normgeber die (Straf-)Gerichte als vom Oberbegriff der Behörde umfasst ansieht. 456  Bäcker/Hornung, ZD 2012, 147 (149); Mysegades, CR 2018, 225 (230); Schantz/Wolff, Das neue Datenschutzrecht, 2017, Rn. 239. Auch ErwGr 20, 30 S. 2, 49, 62 S. 5, 63 S. 1 JI-RL, die jeweils Gerichte und Gerichtsverfahren ausdrücklich nennen, sprechen für diese Auslegung. 457  Überdies gestaltete sich das Zusammenwirken der Polizeibehörden, Staatsan­ waltschaften und Strafgerichte – etwa beim Umgang mit der Originalakte – als im­ praktikabel, wenn die Datenverarbeitung teilweise unter das Regelungsregime der JI-RL und teilweise unter die DSGVO fiele.



IV. Unionsrechtliche Vorgaben249

JI-RL die normativen Steuerungsvorgaben ausweist. Das deutsche Recht konkretisiert diese Vorgaben für den Strafprozess insbesondere in StPO, GVG und EGGVG, subsidiär (vgl. § 1 Abs. 2 BDSG) in §§ 45 ff. BDSG und den Datenschutzgesetzen der Bundesländer. b) Rechtsgrundlage der Datenverarbeitung als solcher nach der DSGVO Die Verarbeitung personenbezogener Daten durch die Justiz ist zulässig; sie findet ihre Zulässigkeit indirekt in Art. 6 Abs. 1 UAbs. 1 lit. e DSGVO, der eine entsprechende (mitgliedstaatliche) „Rechtsgrundlage“ (vgl. Art. 6 Abs. 3 S. 1 DSGVO) ermöglicht.458 Sie legitimiert sich indes jedenfalls aufgrund eines argumentum a maiore ad minus aus Art. 9 Abs. 2 lit. f DSGVO: Das grundsätzliche Verbot der Verarbeitung besonderer Kategorien personenbezo­ gener Daten (Art. 9 Abs. 1 DSGVO) gilt nicht, sofern die Verarbeitung zur Geltendmachung, Ausübung und Verteidigung von Rechtsansprüchen oder bei Handlungen der Gerichte im Rahmen ihrer justiziellen Tätigkeit erforder­ lich ist. Wenn den Gerichten aber selbst die Verarbeitung besonderer Katego­ rien, also besonders sensibler Daten erlaubt ist, gilt dies auch für andere Da­ ten.459 Bedingt der gerichtliche Einsatz neuer Datenverarbeitungstechnologien Testphasen und Machbarkeitsstudien, bedürfen auch diese freilich einer Rechtsgrundlage, sofern personenbezogene Daten einfließen.460 458  In Verfahrensarten mit Amtsermittlungsgrundsatz (§ 86 VwGO; § 244 Abs. 2 StPO) kann nach Bieresborn, DRiZ 2019, 18 (19), auch Art. 6 Abs. 1 UAbs. 1 lit. c DSGVO („Erfüllung einer rechtlichen Verpflichtung“) als Rechtsgrundlage dienen. 459  Ory/Weth, NJW 2018, 2829 (2831). 460  In Nordrhein-Westfalen bspw. ist eine entsprechende Machbarkeitsstudie be­ reits in Planung, vgl. Ministerium der Justiz des Landes Nordrhein-Westfalen, Künst­ liche Intelligenz in der Justiz, Dezember 2018, S. 3 f. Dabei soll ein Dienstleister di­ gital etwa 100 Datensätze des Landesjustizprüfungsamtes in Form strafrechtlicher Kurzvorträge und Klausuren erhalten, in denen Gerichtsakten zu Prüfungszwecken nachgebildet sind; mehrere Landesjustizministerien haben eine entsprechende Bereit­ schaft erklärt. Vgl. zur Frage, inwieweit eine Nutzung personenbezogener Echtdaten für Softwaretests nach Art. 6 DSGVO zulässig sein kann, Heinemeyer, CR 2019, 147 (147 ff.). Es ist denkbar, mit anonymisierten Akten zu arbeiten, die keine Identifika­ tion Einzelner ermöglichen; beim Einsatz externer Dienstleister wären Vertraulich­ keitsvereinbarungen als Schutz gegen Veröffentlichung oder vertragswidrige Nutzung unabdingbar. Eine Privilegierung für Forschungszwecke normiert das Datenschutz­ recht in Art. 89 Abs. 1 DSGVO; ein Pendant in der JI-RL besteht nicht. Die Norm etabliert eine Ausnahme vom Zweckbindungsgrundsatz bei der Weiterverarbeitung zu wissenschaftlichen Forschungszwecken (Art. 5 Abs. 1 lit. b Hs. 2 DSGVO) sowie eine Ausnahme von der Speicherbegrenzung (Art. 5 Abs. 1 lit. e Hs. 2 DSGVO) – Forschungsdaten dürfen also länger gespeichert bzw. aufbewahrt werden als es für den ursprünglichen Verarbeitungszweck erforderlich ist. Auch Ausnahmen vom Be­

250

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

c) Automatisierte Entscheidungen und Profiling (Art. 22 DSGVO) aa) Grundsatz – Verbot bestimmter vollautomatisierter Entscheidungen (Art. 22 Abs. 1) In Art. 22 Abs. 1 DSGVO sieht das Unionsrecht ein grundsätzliches Ver­ bot solcher Entscheidungen vor, die ausschließlich auf einer automatisierten Datenverarbeitung beruhen und eine rechtliche Wirkung oder eine vergleich­ bare Beeinträchtigung mit sich bringen. Die Norm formuliert ein „Recht“, statuiert aber de facto – unabhängig von einer etwaigen Geltendmachung – ein Verbot.461 Sie steht in der Rechtstradition des Art. 15 Abs. 1 der EGDatenschutzrichtlinie,462 dem der deutsche Gesetzgeber im Jahr 2001 mit § 6a BDSG a. F. auch im nationalen Datenschutzrecht Bedeutung verlieh.463 Nach dem Schutzzweck des Art. 22 Abs. 1 DSGVO sollen rechtsrelevante oder vergleichbare Letztentscheidungen grundsätzlich bei einem Menschen liegen.464 Ein besonderes Schutzbedürfnis besteht vor allem dort, wo Berech­ nungssysteme den Eindruck erwecken, objektive Informationen zu geben: Gerade in solchen Fällen gilt es, Betroffene vor den Konsequenzen automa­ stimmtheitsgrundsatz bei der Einwilligung (vgl. ErwGr 33 DSGVO) sowie vom grundsätzlichen Verbot der Verarbeitung besonderer Datenkategorien (vgl. Art. 9 Abs. 2 lit. j DSGVO) lässt die Privilegierung zu, sofern dies für wissenschaftliche Forschungszwecke erforderlich ist. Informations- (Art. 14 Abs. 5 lit. b DSGVO) und Löschpflichten (Art. 17 Abs. 3 lit. d DSGVO) erfahren ebenfalls Einschränkungen. Als Ausgleich für diese Forschungsprivilegien muss der Verantwortliche geeignete Garantien für die Rechte und Freiheiten der Betroffenen vorhalten; siehe zu dieser Kompromisslösung zwischen Forschungsfreiheit (Art. 13 GRCh, Art. 5 Abs. 3 GG) und informationeller Selbstbestimmung auch Roßnagel, ZD 2019, 157 (159 ff.). Eine Öffnungsklausel besteht zudem für Verarbeitungen, welche im öffentlichen Interesse bzw. in Ausübung öffentlicher Gewalt (Art. 6 Abs. 2, Abs. 3 S. 1 lit. b DSGVO) erfol­ gen; das ist insbesondere bei der Ressortforschung gegeben. Art. 5 Abs. 2, Art. 24 Abs. 2 DSGVO geben (auch) dem forschenden Verantwortlichen auf, zu dokumentie­ ren, dass und wie er die Datenschutzregelungen einhält. Diese Rechenschaftspflicht geht über die Erstellung eines Verfahrensverzeichnisses nach Art. 30 DSGVO hinaus: Zu dokumentieren sind die Erwägungen, die zur Bewertung der Datenverarbeitung als zulässig geführt haben, sowie die Überlegungen, die der Auswahl der technischen und organisatorischen Maßnahmen (Privacy by Design und by Default, Datensicher­ heit) zugrunde lagen. Im Falle von Testphasen oder Machbarkeitsstudien wäre dann jeweils zu prüfen, ob diese unter das datenschutzrechtliche Forschungsprivileg fallen. 461  Buchner, in: Kühling/Buchner (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 22, Rn. 12; Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22 D ­ SGVO, Rn. 29. 462  RL 95/46/EG zum Schutz natürlicher Personen bei der Verarbeitung personen­ bezogener Daten und zum freien Datenverkehr. 463  Die praktische Relevanz des § 6a BDSG a. F. blieb indes gering, vgl. Golla, PinG 2014, 61 (62 ff.). 464  Schantz/Wolff, Das neue Datenschutzrecht, 2017, Rn. 736.



IV. Unionsrechtliche Vorgaben251

tisiert generierter Entscheidungen mit scheinbar objektivem Charakter zu schützen und die „ungeprüfte Unterwerfung des Individuums unter die Ent­ scheidung der Maschine“465 zu verhindern. Eine Entscheidung entfaltet rechtliche Wirkung, wenn sie den rechtlichen Status des Betroffenen in irgendeiner Weise verändert.466 Eine erhebliche Beeinträchtigung „in ähnlicher Weise“ folgt einer Entscheidung insbesondere dann, wenn sie den Betroffenen in seiner wirtschaftlichen oder persönlichen Entfaltung nachhaltig stört.467 Art. 22 DSGVO erfasst nur vollständig automatisierte Entscheidungen, also nur solche Verfahren, in denen ein elektronisches Datenverarbeitungs­ system eine Entscheidung ohne jegliche menschliche Einflussnahme trifft: Ein menschliches Dazwischentreten ist nur dann relevant, wenn dem Sachbe­ arbeiter eine eigene Entscheidungsbefugnis zukommt und er diese auch aus­ übt.468 Die in praxi häufigeren Profiling- (vgl. Art. 4 Nr. 4 DSGVO) oder Predictive-analytics-Maßnahmen sowie generell Verfahren, die eine Ent­ scheidung nur vorbereiten oder unterstützen, erfasst das Verbot des Art. 22 Abs. 1 DSGVO nicht. Die Norm etabliert – trotz expliziter Begriffsnen­ nung – insbesondere kein allgemeines Profilingverbot.469 Vollständig auto­ matisiert getroffene Gerichtsentscheidungen wären nach Art. 22 Abs. 1 DS­ GVO jedenfalls grundsätzlich unzulässig. bb) Ausnahmen (Art. 22 Abs. 2) Art. 22 DSGVO eröffnet selbst Ausnahmemöglichkeiten (Abs. 2): Das Verbot gilt nicht, wenn die vollautomatisierte Entscheidung in Vertragsver­ hältnissen erforderlich ist (Abs. 2 lit. a), sofern eine gesonderte Vorschrift dies zulässt (lit. b), oder wenn der Betroffene ausdrücklich eingewilligt hat 465  So zu § 6a BDSG a.  F. Lewinski, in: Wolff/Brink (Hrsg.), BeckOK Daten­ schutzR, 28. Ed. (Stand: 1.5.2018), § 6a BDSG a. F., Rn. 1. 466  Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22 DSGVO, Rn.  26 f. 467  Buchner, in: Kühling/Buchner (Hrsg.), DS-GVO/BDSG, 2.  Aufl., 2018, Art. 22, Rn. 26. Vgl. ergänzend zur Frage, wann der Output eines Systems maschinel­ len Lernens eine „Entscheidung“ ist, noch Edwards/Veale, Duke Law & Technology Review 16 (2017), 18 (20). 468  Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22 DSGVO, Rn.  16 ff. 469  Schulz, in: Gola (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22, Rn. 20; vgl. auch Buchner, in: Kühling/Buchner (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 22, Rn. 18 f. Die Zulässigkeit für Profiling-Maßnahmen als solche – also nicht Entscheidungen, die allein auf einem vollautomatisierten Profiling beruhen – richtet sich nach Art. 6 DSGVO, siehe Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22 DSGVO, Rn. 22.

252

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(lit. c). Für den Algorithmeneinsatz in der Justiz kommen die Ausnahmetat­ bestände lit. b und c in Betracht. (1) Ausdrückliche freiwillige Einwilligung (Abs. 2 lit. c) Art. 4 Nr. 11 DSGVO definiert als „Einwilligung“ jede freiwillig für den bestimmten Fall, in informierter Weise und unmissverständlich abgegebene Willensbekundung, mit der die betroffene Person zu verstehen gibt, dass sie mit der Verarbeitung der sie betreffenden personenbezogenen Daten einver­ standen ist. Im Fall des Art. 22 Abs. 2 lit. c DSGVO muss sich die Einwilli­ gung ausdrücklich auf die vollständig automatisierte Entscheidungsfindung beziehen. Der europäische Verordnungsgeber räumt der Einwilligung einen hohen Stellenwert in der DSGVO ein und zeigt damit, dass der Einzelne grundsätz­ lich selbst und eigenverantwortlich darüber entscheiden können soll, wer seine personenbezogenen Daten wie verarbeiten darf. Nach Art. 22 Abs. 4 i. V. m. Art. 9 Abs. 2 lit. a DSGVO kann eine Einwilligung sogar eine voll­ ständig automatisierte Verarbeitung besonderer Kategorien personenbezoge­ ner Daten i. S. d. Art. 9 Abs. 1 DSGVO legalisieren.470 Eine datenschutzrechtliche Einwilligung ist jedoch nur wirksam, wenn und soweit der Betroffene sie freiwillig und auf informierter Grundlage gegeben hat. Verarbeiten öffentliche Stellen personenbezogene Daten, etabliert die Verordnung strenge Vorgaben an die Freiwilligkeit der Einwilligung. Wenn­ gleich den Erwägungsgründen keine bindende normative Kraft zukommt und diese nur Auslegungshilfe für den verfügenden Teil des Regelwerks sein können,471 ist nach ErwGr 42 S. 5 DSGVO nur dann von Freiwilligkeit aus­ zugehen, wenn die Person eine echte, freie Wahl hat und somit in der Lage ist, die Einwilligung zu verweigern oder zurückzuziehen, ohne Nachteile zu erleiden. Gem. ErwGr 43 S. 1 DSGVO sollte die Einwilligung immer dann, 470  Siehe zum Konkurrenzverhältnis zwischen Anti-Diskriminierungsrecht und Datenschutzrecht Martini, Blackbox Algorithmus, 2019, S. 77 ff.; Ernst, JZ 2017, 1026 (1033). Bei der Auslegung der DSGVO-Normen ist die Ermächtigung im Blick zu behalten, welche die Mitgliedstaaten der Union erteilt haben: Art. 16 Abs. 2 AEUV und Art. 39 EUV erstrecken die unionale Kompetenz auf die „Verarbeitung personen­ bezogener Daten“ – und damit auf den Schutz der Privatheit und des informationellen Selbstbestimmungsrechts Betroffener. Wo nicht die Datenverarbeitung als solche in Rede steht, sondern (neben anderen spezifisch persönlichkeitsrechtlichen Aspekten) der Inhalt einer Entscheidung, findet der Regelungsanspruch der DSGVO daher seine – nicht ganz trennscharfe – Grenze zu anderen Rechtsmaterien. 471  Vgl. nur EuGH, Schlussantrag des Generalanwalts v. 6.9.2007 – C-267/06 –, juris, Rn. 76; Wolff/Brink, in: dies. (Hrsg.), BeckOK DatenschutzR, 28. Ed. (Stand: 3.3.2017), Einl zur DSGVO, Rn. 18.



IV. Unionsrechtliche Vorgaben253

wenn zwischen der betroffenen Person und dem Verantwortlichen ein klares Ungleichgewicht besteht, insbesondere wenn es sich bei dem Verantwortli­ chen um eine Behörde handelt, keine gültige Rechtsgrundlage liefern. In Anbetracht aller Umstände hält es der Verordnungsgeber in diesem speziellen Fall für unwahrscheinlich, dass die Einwilligung freiwillig gegeben wurde. Im Fall einer vollständig automatisierten (etwa Zivil- oder Verwaltungs-) Gerichtsentscheidung müssten alle am Rechtsstreit beteiligten Parteien ein­ willigen, weil sie jeweils „betroffen“ sind. Erscheint das noch denkbar, of­ fenbart sich aber das stufenartige Verhältnis der Rechtsunterworfenen zu dem mit einseitiger Entscheidungsmacht ausgestatteten staatlichen Gericht als deutliches strukturelles Ungleichgewicht. Eine Einwilligung kann daher nach dem Willen des Verordnungsgebers, wie er in ErwGr 43 S. 1 DSGVO zum Ausdruck kommt, Gerichten grundsätzlich keinen Zulässigkeitstatbestand für eine vollständige Entscheidungsautomation generieren.472 (2) Öffnungsklausel (Abs. 2 lit. b) Eine weitere Ausnahme vom Verbot des Art. 22 Abs. 1 DSGVO etabliert dessen Abs. 2 lit. b in Form einer Öffnungsklausel: Der Mitgliedstaat ist nicht daran gehindert, weitere Fälle vollautomatisierter Entscheidungsfin­ dung zuzulassen. Der deutsche Gesetzgeber hat diesen Weg ausdrücklich473 bspw. in § 37 BDSG oder auch in § 155 Abs. 4 S. 1 AO beschritten.474 472  Fehlt es an der Freiwilligkeit, kann auch Art. 22 Abs. 4 DSGVO keine Rechts­ grundlage vollautomatisierter Gerichtsentscheidungen liefern. Denn die Norm bezieht sich nicht auf den Anwendungsfall in Art. 9 Abs. 2 lit. f DSGVO (justizielle Tätig­ keit), sondern nur auf lit. a (Einwilligung) und lit. g („aus Gründen eines erheblichen öffentlichen Interesses erforderlich“): Die vollautomatisierte Verarbeitung besonderer Kategorien personenbezogener Daten ist nicht „notwendig“ für gerichtliche Entschei­ dungen. Hinzu kommt, dass Betroffene, die ihre Einwilligung in eine vollständig au­ tomatisierte gerichtliche Entscheidung geben könnten, diese auch verweigern oder widerrufen könnten. Es stünde dann erst im Zeitpunkt der Einwilligung bzw. ihrer Ablehnung oder ihres Widerrufs fest, wie – also: durch wen – der Rechtsfall entschie­ den würde. Das könnte zu Konflikten mit dem Gebot des gesetzlichen Richters (Art. 101 Abs. 1 S. 2 GG, dazu unten S. 298 ff.) führen. 473  Vgl. den Gesetzentwurf der Bundesregierung, BT-Drs. 18/11325, S. 106. 474  Mit dem neuen BDSG hat der deutsche Gesetzgeber das nationale allgemeine Datenschutzrecht an die Vorgaben der DSGVO angepasst und die der Bundesrepublik Deutschland verbleibenden Regelungsspielräume teilweise ausgefüllt; dazu umfas­ send Kühling/Martini et al., Die Datenschutz-Grundverordnung und das nationale Recht, 2016, S. 2 ff. Das BDSG bedarf hier keiner vertieften Betrachtung – ungeach­ tet der Frage, inwieweit es im Geflecht aus DSGVO, Prozessordnungen und den Datenschutzgesetzen der Bundesländer (vgl. § 1 Abs. 1 S. 1 Nr. 2 lit. b BDSG) über­ haupt Anwendung findet, vgl. dazu etwa Bieresborn, DRiZ 2019, 18 (19); Ory/Weth, NJW 2018, 2829 (2830); Vorschriften mit datenschutzrechtlicher Zielrichtung enthal­

254

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Die Vorschrift, die vollständig automatisierte Einzelentscheidungen er­ laubt, muss aber ihrerseits angemessene Maßnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person ent­ halten (Art. 22 Abs. 2 lit. b DSGVO).475 Welche Maßnahmen konkret zu treffen sind, verrät die Öffnungsklausel nicht, allerdings spricht die Zielrich­ tung des Art. 22 DSGVO dafür, dass der Normgeber sich insbesondere an den in Art. 22 Abs. 3 DSGVO aufgelisteten Mindeststandards orientieren kann und sollte:476 Sinnvolle Schutzmaßnahmen sind insbesondere ein Recht auf Anfechtung und inhaltliche Neubewertung, ein Recht auf Darle­ gung des eigenen Standpunkts sowie ein Recht auf menschliches Eingreifen in den Entscheidungsprozess beim Verantwortlichen.477 Über eine gesonderte Öffnungsklausel sind vollständig automatisierte ge­ richtliche Entscheidungen jedenfalls aus der Warte des Art. 22 DSGVO grundsätzlich denkbar. Die konkrete Ausgestaltung des Entscheidungsverfah­ rens, insbesondere der Schutzmaßnahmen, verlässt indes den Regelungsbe­ reich des Datenschutzrechts. So ist bspw. ein „Recht auf Darlegung des eige­ nen Standpunkts“ im Gerichtsverfahren bereits verfassungsrechtlich abgesi­ chert (Art. 103 Abs. 1 GG)478 und in den Prozessordnungen konkretisiert, die ten bspw. auch die Prozessordnungen (vgl. etwa § 299 ZPO) sowie §§ 12 ff. EGGVG (für die Gerichte der ordentlichen Gerichtsbarkeit und Staatsanwaltschaften). Der für die Frage der Entscheidungsautomatisierung thematisch einschlägige § 37 BDSG ver­ weist auf Art. 22 Abs. 2 lit. a und c DSGVO und normiert einen Ausnahmetatbestand: Für den Bereich der Krankenversicherungswirtschaft ermöglicht bzw. erlaubt § 37 BDSG eine automatisierte Einzelfallentscheidung. § 37 BDSG hat für die vorliegende Betrachtung keine über Art. 22 DSGVO hinausgehende Relevanz. Vgl. auch noch die Vorschriften zum Mahnverfahren (§§ 688 ff. ZPO, insbesondere § 689 Abs. 1 S. 2, §§ 703b f. ZPO: „maschinelle Bearbeitung“). 475  Siehe zu den Mindestgarantien Martini/Nink, NVwZ-Extra 2017, 1 (3  ff.). Vgl. ergänzend auch die Leitlinien der Artikel-29-Datenschutzgruppe, Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP 251, 3.10.2017, S. 19 ff. 476  Vgl. Martini/Nink, NVwZ-Extra 2017, 1 (5). Der nationale Gesetzgeber ist normsystematisch also nicht auf die in Art. 22 Abs. 3 DSGVO genannten Maßnah­ men festgelegt, sondern kann die Rechte und Freiheiten auch auf andere Weise schüt­ zen. Er muss „lediglich“ im Ergebnis ein angemessenes Schutzniveau etablieren. 477  Auf das Recht auf Erwirken des Eingreifens einer natürlichen Person kann der (informierte bzw. aufgeklärte) Betroffene auch verzichten. Außerdem ist das Wie der Entscheidungsüberprüfung und der Berücksichtigung des Betroffenenvortrags norma­ tiv nicht vorgezeichnet, vgl. bereits Martini/Nink, NVwZ-Extra 2017, 1 (4). In ihrem nicht-verfügenden Teil mahnt die DSGVO überdies ein Recht auf ein faires Verfah­ ren, genauer auf „eine faire und transparente Verarbeitung“, an (ErwGr 71 UAbs. 2 S. 1). Vgl. zum Fairnessbegriff auch unten S. 437 f.; siehe zudem die Analyse der DSGVO unter dem Aspekt der Fairness bei Hacker, Common Market Law Review 55 (2018), 1143 (1173 ff.). 478  Dazu sogleich unten S. 302 ff.



IV. Unionsrechtliche Vorgaben255

Anfechtung gerichtlicher Entscheidungen ist qua Instanzenzug möglich, und auch weitere Vorkehrungen wie Begründungspflichten sind ohnedies obliga­ torisch bei gerichtlichen Entscheidungen. cc) Weitere Vorgaben der DSGVO (Auswahl) (1) Informationen und Auskunft Die DSGVO verlangt den datenschutzrechtlich Verantwortlichen ein Min­ destmaß an Transparenz ab (Art. 5 Abs. 1 lit. a DSGVO), das diese auch nachweisen können müssen (Art. 5 Abs. 2, Art. 24 Abs. 1 DSGVO). In den Art. 12 ff. DSGVO hat der Verordnungsgeber daneben spezielle Informa­ tions- und Auskunftsrechte bzw. -pflichten vorgesehen.479 Für die Fälle vollständig automatisierter Entscheidungen etabliert die DSGVO besondere Informations- und Auskunftsrechte bzw. -pflichten über das Bestehen und die Logik der automatisierten Verarbeitung sowie deren Tragweite und die ange­ strebten Auswirkungen auf die Person (Art. 13 Abs. 2 lit. f, Art. 14 Abs. 2 lit. g und Art. 15 Abs. 1 lit. h DSGVO).480 Indem die Vorschriften jeweils auf Art. 22 Abs. 1 und 4 DSGVO Bezug nehmen, gilt ihr normatives Pflich­ tenheft nur für vollständig automatisierte Entscheidungen.481 479  Die mitgliedstaatlichen (Landes-)Gesetzgeber können zum „Schutz der Unab­ hängigkeit der Justiz und den Schutz von Gerichtsverfahren“ hiervon abweichen (Art. 23 Abs. 1 lit. f DSGVO). Die Regelungen der Art. 12 ff. DSGVO erfassen ledig­ lich das Datenschutzrecht (vgl. Art. 1 Abs. 1, 2 Abs. 1 DSGVO); siehe zu den allge­ meinen (verfassungsrechtlichen) Transparenzanforderungen für hoheitliche Entschei­ dungen unten S. 331 ff. 480  Dazu Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22 DS­ GVO, Rn. 41a; Martini/Nink, NVwZ-Extra 2017, 1 (3 ff.). Vgl. zum Aspekt der Fair­ ness Hacker, Common Market Law Review 55 (2018), 1143 (1146 ff.), der für die rechtliche Einhegung algorithmischer Verfahren eine Kombination aus Antidiskrimi­ nierungs- und Datenschutzrecht vorschlägt (1170 ff.); ähnlich auch Martini, Blackbox Algorithmus, 2019, S. 230 ff. Mit Blick auf die betroffenen Rechtspositionen ist es notwendig, die Formel „Informationen über die involvierte Logik“ so auszulegen, dass zumindest die maschinell verwendeten Entscheidungskriterien erfasst sind, vgl. Ernst, Selbstentfaltung und Algorithmeneinsatz, in: Klafki/Würkert/Winter (Hrsg.), Digitalisierung und Recht, 2017, S. 63 (76). Vgl. auch Hoeren/Niehoff, RW 2018, 47 (52 ff., insbesondere 57 ff.), die davon ausgehen, dass der Verordnungsgeber die Mög­ lichkeiten Künstlicher Intelligenz nicht vor Augen hatte und die Art. 12 ff. DSGVO daher mit einem besonderen Blick auf die Risiken lernender Systeme auszulegen sind. Siehe ergänzend Artikel-29-Datenschutzgruppe, Guidelines on Automated indi­ vidual decision-making and Profiling for the purposes of Regulation 2016/679, WP 251, 3.10.2017, S. 9 ff. 481  Eine Darstellung der daraus folgenden Problemlage muss hier unterbleiben. Vgl. dazu die Analyse und entsprechenden Vorschläge für eine zusätzliche Regulie­ rung teilautomatisierter Verfahren bei Martini, Blackbox Algorithmus, 2019, S. 185 ff.

256

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(2) Algorithmische Ethik am Beispiel des Rechts auf Erläuterung Fairness und Transparenz der Entscheidungsfindung sind Voraussetzungen einer ethisch akzeptablen Automatisierung. Ethik ist ein Kompass des Fort­ schritts: Die Antworten auf ethisch relevante Fragen zeigen die Richtung an, in die sich eine moderne, technikaffine Gesellschaft bewegen sollte. Wenn­ gleich Algorithmen keine eigene Ethik innewohnt, ist es dennoch notwendig, dass die ethische Analyse maschineller Entscheidungen auch bereits auf der technischen Ebene ansetzt. Ethik ist keine „programmierfähige Handlungs­ anlei­tung“482. Algorithmen könnten aber als „ethische Instanz“ nach exakt vorgegeben Maßstäben über andere Algorithmen „wachen“, sodass ein ethi­ scher Softwareeinsatz zumindest drei Kriterien erfüllt: Fairness, eindeutige Verantwortlichkeiten und Transparenz im Entscheidungsprozess. Die DSGVO zeichnet den Umfang des ethisch Vorbildlichen jedenfalls für die Fälle vollständig automatisierter Entscheidungen vor (Art. 13 Abs. 2 lit. f, Art. 14 Abs. 2 lit. g, Art. 15 Abs. 1 lit. h sowie ErwGr 71 DSGVO). Die Be­ lange des von einer automatisierten Entscheidung Betroffenen münden je­ doch zunächst meist in eine einfache Frage: Warum hat der Algorithmus diese und keine andere Entscheidung getroffen? Im Anschluss daran kann der Betroffene die Entscheidung akzeptieren oder angreifen. Denn er ist re­ gelmäßig weniger am genauen technischen Ablauf interessiert als vielmehr daran, wie er die Entscheidung beeinflussen kann oder hätte beeinflussen können. Ein „Recht auf Erläuterung der nach einer entsprechenden Bewer­ tung getroffenen Entscheidung“ sieht die DSGVO – anders etwa als das Recht auf Anfechtung der Entscheidung – in dieser Deutlichkeit jedoch nur in ErwGr 71 UAbs. 1 S. 4 vor, nicht in ihrem verfügenden Teil.483 Art. 13– Im Raum steht bspw. auch die Frage, ob Betroffenen ein Recht auf Einblick in die Datengrundlage sowie in Profiling-(Zwischen-)Ergebnisse zusteht bzw. zustehen sollte. 482  Begriff bei Jaume-Palasí/Spielkamp, Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung, 2017, S. 5. 483  Vgl. Wachter/Mittelstadt et al., International Data Privacy Law 7 (2017), 76 (78 f.). Die DSGVO enthält somit kein rechtlich bindendes Recht auf Erläuterung ei­ ner automatisierten Entscheidung. Die englischsprachige Fachliteratur sieht sog. „counterfactual explanations“ (etwa: „kontrafaktische“, „hypothetische“ Erklärungen) als Lösung, vgl. Wachter/Mittelstadt et al., Harvard Journal of Law and Technology 31 (2018), 841 (844 ff., insbesondere 861 ff.). Diese könne der Verantwortliche erfül­ len, ohne dass er durch ein vollständiges Offenlegen des Entscheidungsalgorithmus seine Betriebs- und Geschäftsgeheimnisse gefährdet. Der Betroffene müsse (und wolle in der Regel) nicht alle technischen Details verstehen können. Jedenfalls not­ wendig seien aber diejenigen Informationen, mit denen er die Entscheidung verstehen und auf dieser Grundlage evtl. auch angreifen oder aber sein eigenes Verhalten än­ dern kann. Malgieri/Comandé, International Data Privacy Law 7 (2017), 243 (264 f.



IV. Unionsrechtliche Vorgaben257

15 DSGVO ändern daran nichts. Der Betroffene erhält unmittelbar aus dem Datenschutzrecht keinen Anspruch auf Erläuterung, warum es zu genau die­ ser Entscheidung gekommen ist. Ein „Recht auf Erläuterung“ besteht in ge­ richtlichen Verfahren aber ohnehin – spiegelbildlich: Das Gericht unterliegt einer umfassenden Begründungspflicht.484 (3) Datenminimierung Art. 5 Abs. 1 lit. c DSGVO normiert den datenschutzrechtlichen Grundsatz der Datenminimierung, nach dem personenbezogene Daten „dem Zweck an­ gemessen und erheblich sowie auf das für die Zwecke der Verarbeitung not­ wendige Maß beschränkt sein“ müssen (vgl. auch Art. 25 Abs. 1, Art. 89 Abs. 1 S. 2 und 3 DSGVO).485 Im Rahmen der Zweckbindung sind die Daten also qualitativ (etwa: aggregierte Wertintervalle statt exakter Werte) und passim) plädieren dagegen für eine „legibility“ (etwa: Lesbarkeit i. S. v. Verständ­ lichkeit) automatisierter Entscheidungen. Sie fordern allerdings, den Passus „aus­ schließlich auf einer automatisierten Verarbeitung“ in Art. 22 Abs. 1 DSGVO ­hinsichtlich der Betroffenenrechte – insbesondere eben dieses Rechts auf Verständ­ lichkeit – nicht streng auszulegen und auch Fälle möglicher menschlicher Zwischen­ intervention in den Wirkungsradius des Art. 22 DSGVO einzubeziehen. Siehe dazu aber Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 22 DSGVO, Rn. 16 ff. Der normative Umgang mit (voll- oder teil-)automatisierten Entscheidungen sollte drei Ziele einhalten: Erstens sollte der Betroffene verstehen können, warum der Algorithmus gerade diese und keine andere Entscheidung getroffen hat (z. B. „Sie haben das Darlehen nicht bekommen, weil Ihr Jahreseinkommen 30.000 € beträgt. Bei 45.000 € hätten Sie das Darlehen bekommen“; Beispiel übernommen von Wachter/Mittelstadt et al., Harvard Journal of Law and Technology 31 (2018), 841 (844 ff.)). Zweitens muss der Betroffene die Entscheidung anfechten können und be­ nötigt hierfür auch die Gründe, weshalb die Entscheidung überhaupt zustande kam (im genannten Beispiel könnte ein Betroffener, der über 45.000 € verdient, die Ent­ scheidung leichter anfechten, wenn er die Gründe und Entscheidungskriterien kennt). Und drittens muss der Betroffene zumindest die Möglichkeit haben, die Entschei­ dung, aber auch sein eigenes Verhalten entsprechend den derzeitigen Entscheidungs­ parametern und -kriterien zu ändern, um pro futuro das gewünschte Ergebnis zu er­ reichen. 484  Siehe oben S. 122 ff. 485  Den Grundsatz erwähnt als „Datensparsamkeit“ auch § 71 Abs. 1 BDSG; in ähnlicher Form („Datenvermeidung und Datensparsamkeit“) fand er sich zuvor (ab dem 1.9.2009) bereits in § 3a BDSG a. F. Die DSGVO bezieht den Grundsatz der Datenminimierung auf den Zweck der Verarbeitung, während § 3a BDSG a. F. expli­ zit auf Anonymisierung und Pseudonymisierung als Möglichkeiten der Datenvermei­ dung bzw. -sparsamkeit Bezug nahm. Die Datenminimierung soll als Ergänzung des Zweckbindungsgrundsatzes (Art. 5 Abs. 1 lit. b DSGVO) sicherstellen, dass die Da­ tenverarbeitung auch tatsächlich durch den (zuvor) festgelegten Zweck begrenzt ist, vgl. Herbst, in: Kühling/Buchner (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Art. 5 DSGVO, Rn. 56.

258

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

und quantitativ (Datenmenge und Anzahl der Nutzungen) zu begrenzen.486 Für algorithmenbasierte Entscheidungsprozesse kann der Datenminimie­ rungsgrundsatz Probleme evozieren: Fließen in eine Entscheidung nicht alle relevanten Details – etwa zum Sachverhalt, zur betroffenen Person oder zu Vergleichsgruppen – ein, wird also der Kontext einer Entscheidung nicht ausreichend berücksichtigt, kann das zu Ungleichbehandlungen führen.487 Weniger Daten verringern also nicht grundsätzlich das Diskriminierungsri­ siko, sondern können es sogar erhöhen. In gerichtlichen Verfahren tritt der Grundsatz der Datenminimierung im Konfliktfall hinter das Ziel einer mate­ riell- und verfahrensrechtlich richtigen Entscheidung zurück.488 d) Zwischenergebnis Die DSGVO etabliert in Art. 22 Abs. 1 ein grundsätzliches Verbot voll­ ständig automatisierter Entscheidungen mit rechtlicher oder vergleichbarer Wirkung. Eine „vollautomatisierte Rechtsprechung“ ist hiernach unzulässig. Der Verordnungsgeber sieht aber Ausnahmen vor, eröffnet insbesondere den mitgliedstaatlichen Gesetzgebern die Möglichkeit, solche Verfahren über ei­ gene Klauseln zuzulassen – jedenfalls aus der Warte des Datenschutzrechts. Dies wiederum setzt voraus, dass die Vorschriften geeignete Schutzmaßnah­ men für die Rechte und Freiheiten der Betroffenen, also der am Rechtsstreit Beteiligten, beinhalten, dass die datenschutzrechtlichen Grundsätze eingehal­ ten werden, und dass die Verfahren Informations- und Auskunftsrechte bzw. -pflichten vorsehen, um ein hinreichendes Maß an Transparenz auch für den Betroffenen zu gewährleisten. 486  Frenzel, in: Paal/Pauly (Hrsg.), DS-GVO, 2.  Aufl., 2018, Art. 5 DSGVO, Rn. 34; Pötters, in: Gola (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 5, Rn. 22. 487  Vgl. Jaume-Palasí, Warum Sie keine Angst vor Künstlicher Intelligenz haben sollten, 27.4.2018. Eine unvollständige Informationslage kann gute und gerechte Ein­ zelfallentscheidungen verhindern. Der Mangel an Informationen über bestimmte (so­ ziale) Gruppen ermöglicht Verzerrungen: Ist bspw. ein Teil einer Gruppe mit seinen Merkmalen und Profilen in der Datenbasis und/oder in den Trainingsdaten deutlich überrepräsentiert, verzerrt dies letztlich auch den Rückschluss auf den Einzelfall. 488  Art. 17 DSGVO etabliert überdies ein Recht auf Löschung bzw. eine Lösch­ pflicht, wenn die Daten nicht mehr benötigt werden. Eine Ausnahme sieht Art. 17 Abs. 3 lit. b DSGVO für Fälle einer rechtlichen Verpflichtung vor. Das kann bspw. für die Speicherbefugnisse aus dem Schriftgut- sowie dem Justizaktenaufbewahrungs­ gesetz gelten. Überdies verpflichtet Art. 35 Abs. 1 DSGVO datenschutzrechtlich Ver­ antwortliche außerdem dazu, vor dem Einsatz solcher Verfahren, die mit einem hohen datenschutzrechtlichen Risiko verbunden sind, eine Datenschutz-Folgenabschätzung durchzuführen; ein solches – vgl. zum Risikobegriff nur Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 35 DSGVO, Rn. 15 ff. m. w. N. – wäre beim Einsatz algorithmenbasierter Entscheidungs- bzw. Entscheidungsunterstützungssys­ teme in der Justiz gegeben.



IV. Unionsrechtliche Vorgaben259

2. Datenschutzrechtliche Vorgaben der JI-RL für das Strafverfahren Die im Strafprozess anwendbare JI-RL zeichnet für den Algorithmenein­ satz in der Justiz normativ kaum neue Weichenstellungen vor.489 Der deut­ sche Gesetzgeber hat die Vorgaben der JI-RL insbesondere in §§ 45 ff. BDSG in nationales Recht umgesetzt. Es gilt allerdings ein Vorrang der Fachgesetze (vgl. § 1 Abs. 2 S. 1 BDSG), allen voran der StPO. Für die Konzeption und Nutzung algorithmenbasierter Entscheidungs- bzw. Entscheidungsunterstüt­ zungssysteme stechen aus datenschutzrechtlicher Sicht einige wenige Punkte hervor: Die Verarbeitung personenbezogener Daten im Strafprozess muss sachlich richtig erfolgen (Art. 4 Abs. 1 lit. d JI-RL), den Grundsatz der Zweckbindung wahren (Art. 4 Abs. 1 lit. b JI-RL) und ein angemessenes Maß an Datensi­ cherheit aufweisen (Art. 4 Abs. 1 lit. f JI-RL).490 Die besondere Schutzbe­ dürftigkeit besonderer Kategorien personenbezogener Daten kennt auch die JI-RL (Art. 10), sie hebt dementsprechend die Zulässigkeitshürde an. Wie die DSGVO sieht auch die JI-RL Informations- und Auskunftsrechte bzw. -pflichten (Art. 12 ff. JI-RL) sowie eine Pflicht zur Durchführung einer Da­ tenschutz-Folgenabschätzung (Art. 27 Abs. 1 JI-RL; vgl. auch § 67 Abs. 1 BDSG) beim Einsatz datenschutzrechtlich riskanter Verfahren vor. Wie Art. 22 Abs. 1 DSGVO für die übrigen gerichtlichen Verfahren, etab­ liert für das Strafverfahren auch die JI-RL ein grundsätzliches Verbot voll­ ständig automatisierter Einzelentscheidungen, die nachteilige Rechtsfolgen für die Betroffenen zeitigen oder sie erheblich beeinträchtigen (Art. 11 Abs. 1 JI-RL; vgl. auch § 54 Abs. 1 BDSG491). Sie ermöglicht aber ebenfalls Aus­ nahmen durch gesonderte Rechtsvorschriften, nach denen eine Entscheidung sogar auch auf besonderen Kategorien personenbezogener Daten (Art. 10 JIRL) beruhen darf, sofern geeignete datenschutzrechtliche Schutzmaßnahmen bestehen (Art. 11 Abs. 2 JI-RL). 489  Bäcker/Hornung, ZD 2012, 147 (149): Die materiellen Anforderungen fallen insgesamt „ausgesprochen mager aus“. Insbesondere etabliert die JI-RL keine eigenen Beweiserhebungs- und Beweisverwertungsverbote. Vgl. auch Schwichtenberg, in: Kühling/Buchner (Hrsg.), DS-GVO/BDSG, 2. Aufl., 2018, Vor §§ 45 bis 84 (Vorbe­ merkungen zu Teil 3), Rn. 2: „Der Mehrwert der DSRL-JI im Vergleich zur DS-GVO ist daher fraglich“. 490  Vgl. noch zur Stellung der datenschutzrechtlichen Einwilligung ErwGr 35 S. 4 JI-RL, im Hinblick auf besonders sensible Daten auch ErwGr 37 S. 6 JI-RL. 491  Der Gesetzgeber will nur „Rechtsakt[e] mit Außenwirkung“ von § 54 Abs. 1 BDSG erfasst wissen; „interne Zwischenfestlegungen oder -auswertungen“ sollen nicht dem Verbot automatisierter Einzelentscheidungen unterfallen, siehe BTDrs. 18/11325, S. 112.

260

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Die JI-RL enthält keine gesonderten Vorgaben für teilautomatisierte Ent­ scheidungen wie algorithmenbasierte Entscheidungsunterstützungen. Wie auch die DSGVO etabliert sie kein allgemeines Profiling-Verbot. Nach Art. 11 Abs. 3 JI-RL ist allerdings jedwedes Profiling untersagt, das zur Folge hat, dass natürliche Personen gerade auf Grundlage von besonderen Datenkatego­ rien nach Art. 10 JI-RL diskriminiert werden (vgl. auch § 54 Abs. 3 BDSG). 3. Zwischenfazit Das Unionsrecht zeichnet vor allem datenschutzrechtliche Vorgaben an automatisierte (gerichtliche) Entscheidungen. Sowohl die DSGVO als auch die JI-RL ermöglichen den Mitgliedstaaten indes den Erlass gesonderter Vor­ schriften, über die vollständig automatisierte Entscheidungen zulässig sein können – jedenfalls aus der thematisch engen Warte des Datenschutzrechts.492 Die normativen Grenzen des Automatisierungspotenzials gerichtlicher Ver­ fahren zeigen sich jedoch erst durch einen Blick in das Grundgesetz.

V. Verfassungsrechtliche Direktiven Der Einsatz neuer Informations- und Kommunikationstechnologien ist in der Lage, die Justiz insgesamt zu verändern. Dabei mutet der Gedanke, Ma­ schinen könnten selbst und verbindlich juristische Entscheidungen treffen, 492  Obgleich die Charta der Grundrechte der Europäischen Union (GRCh) in ih­ rem Art. 8 – dem Recht auf informationelle Selbstbestimmung in Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG ähnlich – personenbezogene Daten schützt, in Art. 21 ein Recht auf Nichtdiskriminierung sowie in Art. 47 das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht verbürgt, soll hier eine genauere Analyse unterbleiben. Bereits der Anwendungsbereich der Charta (vgl. Art. 51 Abs. 1 S. 1 GRCh: „aus­ schließlich bei der Durchführung des Rechts der Union“) ist nicht abschließend ge­ klärt: Während der EuGH in seiner umstrittenen „Åkerberg Fransson“-Entscheidung (ECLI:EU:C:2013:105) auf einer weiten Auslegung des Begriffs der „Durchführung“ in Art. 51 Abs. 1 S. 1 GRCh beharrt und in diesem weiten Verständnis faktisch jeden Kontakt mit der Regelungsmaterie ausreichen lässt (Rn. 17 ff.), verweist das BVerfG (BVerfGE 133, 277 (316)) in direktem Widerspruch zum EuGH auf den Subsidiari­ tätsgrundsatz des Unionsrechts und verfolgt eine engere Auslegung (vgl. auch bereits BVerfGE 118, 79 (95 f.)). Bemerkenswert bleibt, dass im Fall „Åkerberg Fransson“ sowohl der Generalanwalt (vgl. den Schlussantrag, ECLI:EU:C:2012:340, Rn. 56, 63 f.) als auch die EU-Kommission (vgl. ECLI:EU:C:2013:105, Rn. 16) die „Durch­ führung des Unionsrechts“ verneint haben. Der EuGH hat im „Siragusa“-Fall (ECLI:EU:C:2014:126, Rn. 24) etwas zurückgerudert und verlangt nunmehr einen „hinreichenden“ Bezug zum Unionsrecht. Selbst wenn aber der Anwendungsbereich eröffnet ist, etwa in datenschutzrechtlicher Hinsicht, hält die Charta keine normativen Vorgaben für die Frage der Automatisierung gerichtlicher Entscheidungsfindung be­ reit, die nicht DSGVO und JI-RL als unionsrechtliches Sekundärrecht konkretisieren.



V. Verfassungsrechtliche Direktiven261

fremd und dystopisch an. Ob und in welchem Umfang Computerprogramme und Algorithmen gerichtliche Entscheidungen beeinflussen, vorbereiten, un­ terstützen oder gar selbst treffen könnten, richtet sich nach Evaluierung der technischen Hürden vor allem nach den verfassungsrechtlichen Vorgaben, welche das Grundgesetz an die rechtsprechende Gewalt stellt.493 Die Diskus­ sion der verfassungsrechtlichen und rechtstheoretischen Vorgaben ist nicht erst dann zu führen, wenn auf Basis anwendbarer Theorien komplexe Com­ puterprogramme erstellt und mit diesen eine Art „juristischer Turing-Test“ erfolgreich durchgeführt werden kann.494 Gerade weil die technische Ent­ wicklung bisweilen rasant fortschreitet, jedenfalls aber in zeitlicher Hinsicht kaum abschätzbar ist, lohnt es, dass sich die Rechtswissenschaft der Rahmen­ bedingungen bewusst ist, um nicht – ausschließlich reagierend – in Zugzwang zu geraten.495 1. Art. 92 Hs. 1 GG und die Frage, ob eine Maschine „Richter“ sein kann Die zentrale Grundentscheidung des Art. 92 Hs. 1 GG, der die rechtspre­ chende Gewalt den Richtern anvertraut (Rechtsprechungsmonopol), ließe sich vor dem Hintergrund einer fortschreitenden Digitalisierung und neuer Möglichkeiten moderner Technologien auch klarstellend lesen bzw. formulie­ ren als „Die rechtsprechende Gewalt ist den (menschlichen) Richtern vorbehalten.“ Die Richter, denen das Grundgesetz die rechtsprechende Gewalt anvertraut, sind zudem unabhängig und nur dem Gesetz unterworfen (Art. 97 Abs. 1 GG). Beide Normen scheinen die unmissverständliche Direktive aus­ zugeben, dass ein Technikeinsatz in der Justiz nur so weit reichen kann, wie er die Schwelle zur „rechtsprechenden“ Tätigkeit nicht erreicht und zudem die (sachliche) Unabhängigkeit des Richters nicht antastet.496 Die Grenzen eines IT-Einsatzes derart reflexartig zu betonen, steht indes unter der unabän­ derlichen Prämisse, dass der „Richter“ i. S. d. Art. 92 Hs. 1 GG zwingend eine natürliche Person sein muss. Dies gilt es zu überprüfen: Begründete eine automatisierte (gerichtliche) Entscheidungsfindung durch eine Maschine an­ stelle des (menschlichen) Richters, also ein Technikeinsatz zur Ausübung rechtsprechender Gewalt, einen Verstoß gegen Art. 92 Hs. 1 GG? Ist die „Richter“-Eigenschaft zwingend an das Menschsein geknüpft?497 Oder 493  Zu den konkreten Vorgaben der Rechtsordnung an die praktische Tätigkeit der Richter siehe oben S. 109 ff. 494  In diese Richtung etwa Adrian, Rechtstheorie 48 (2017), 77 (81). 495  Mit Blick auf die Rechtspolitik ähnlich Graevenitz, ZRP 2018, 238 (241). 496  Vgl. etwa Ballhausen, IT-Einsatz in der Justiz, 2012, S. 46 ff. 497  So ausdrücklich, aber ohne Begründung, Graevenitz, ZRP 2018, 238 (240): Es sei „offensichtlich, dass den Müttern und Vätern des Grundgesetzes dabei ausschließ­

262

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

könnte, plakativ gefragt, auch eine Maschine, ein Computerprogramm oder ein Algorithmus „Richter“ i. S. d. Art. 92 Hs. 1 GG sein?498 Welche fachli­ chen und sonstigen Anforderungen muss der Richter erfüllen und kann ein informationstechnisches System diesen genügen? a) Die Anknüpfungspunkte in Art. 92 Hs. 1 GG Wenngleich das Grundgesetz den Begriff des „Gerichts“ vielfach verwendet,499 definiert es ihn nicht näher. Auch der „Richter“ als zentrales und wesentliches personales Element des „Gerichts“ erfährt keine definie­ rende Konkretisierung in der Verfassung.500 Beide Begriffe fanden jedoch in der Literatur ausführliche Erörterung und wurden durch die Rechtsprechung des BVerfG konkretisiert. aa) Der Begriff der „rechtsprechenden Gewalt“ (1) Allgemeines Der IX. Abschnitt des Grundgesetzes ist mit „Die Rechtsprechung“ über­ schrieben. Auch Art. 1 Abs. 2, Art. 20 Abs. 2 S. 2 und Abs. 3, Art. 20a sowie Art. 95 Abs. 3 S. 1 GG kennen diese Terminologie. Eine Legaldefinition dieses Begriffs enthält die Verfassung nicht, ebenso wenig wie eine Defini­ tion der „rechtsprechenden Gewalt“. Weil eine solche fehlt, ist die dogmati­ sche Bedeutung des Art. 92 GG und seiner Begriffe „rechtsprechende Ge­ walt“ und „Richter“ nicht abschließend geklärt.501

lich menschliche Richter bzw. entsprechend qualifizierte Personen vor Augen stan­ den“. Ähnlich Herberger, Rethinking Law 2/2019, 42 (42): „Die rechtsprechende Gewalt ist Richtern anvertraut, also Menschen und nicht Automaten. Da aber niemand eine Automatenrechtsprechung propagiert, ist die Berufung auf Art. 92 GG im Grunde die Antwort auf eine nicht ernsthaft gestellte Frage“. 498  Dann stellte sich die Folgefrage, ob eine Maschine sich dann auch auf die richterliche Unabhängigkeit (Art. 97 Abs. 1 GG) stützen könnte. 499  Insbesondere im IX. Abschnitt (Art. 92–104). 500  Vgl. etwa Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 25; Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 64. 501  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 18; Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 66. So konstatierte auch das BVerfG nüchtern, dass die Diskussion über den Begriff der „rechtsprechenden Gewalt“ in der Rechtslehre „noch nicht abgeschlossen“ ist, vgl. BVerfGE 22, 49 (75); ebenso BVerfGE 103, 111 (136); zustimmend Oehlerking, Private Auslagerung von Funktionen der Justiz und der Gefahrenabwehr, 2008, S. 19.



V. Verfassungsrechtliche Direktiven263

Die Auslegungsansätze zu Art. 92 GG unterscheiden – zusammenge­ fasst502 – einen formellen und einen materiellen sowie einen funktionalen Rechtsprechungsbegriff. Der formelle Rechtsprechungsbegriff umfasst vor­ dergründig die gesamte gesetzlich zugewiesene Amtstätigkeit der Richter ohne Rücksicht auf den Inhalt.503 Der materielle Begriff hingegen bestimmt, wann eine hoheitliche Tätigkeit der Sache nach nicht als Ausübung der ge­ setzgebenden oder vollziehenden Gewalt, sondern als Ausübung der recht­ sprechenden Gewalt zu qualifizieren ist.504 Deren Aufgaben umfassen neben der eigentlichen Spruchtätigkeit – dem traditionellen Kernbereich richterli­ cher Tätigkeit – auch diejenigen Tätigkeiten, die mit der Rechtsfindung in unmittelbarem Zusammenhang stehen.505 Insbesondere betrifft dies die Verhandlungsführung.506 Dazu gehören aber sämtliche Maßnahmen, die der Vorbereitung einer richterlichen Entscheidung dienen (z. B. Terminbestim­ mung und Ladung), zum anderen Maßnahmen während der Verhandlung (z. B. Vernehmung von Zeugen und Sachverständigen) sowie solche, die der Entscheidung nachfolgen (z. B. die Abfassung der Entscheidungsgründe oder die Berichtigung einer Entscheidung)507. In funktionaler Hinsicht sind hinge­ gen die Elemente Rechtskraft und Letztverbindlichkeit einer hoheitlichen Tätigkeit die entscheidenden Abgrenzungskriterien.508 (2) Rechtsprechungsbegriff des BVerfG Das BVerfG hatte die Frage, ob Art. 92 Hs. 1 GG zwingend eine natürli­ che Person als Richter voraussetzt, bisher nicht zu beantworten. Zum Begriff der rechtsprechenden Gewalt hat es jedoch umfassend Stellung bezogen.509 Auf eine abschließende Definition des Rechtsprechungsbegriffs hat das Ge­

502  Vgl. Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 69: „fast unüber­ schaubare Menge an Veröffentlichungen zum Rechtsprechungsbegriff“. 503  Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 4. Siehe auch Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 46: Der formelle Rechtsprechungsbegriff „ver­ weigert Art. 92 GG den verfassungsrechtlichen Selbststand“. 504  Vgl. BVerfGE 22, 49 (73); 103, 111 (137); Morgenthaler, in: Epping/Hillgru­ ber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 4. 505  Papier, NJW 1990, 8 (9). 506  Vgl. BGHZ 90, 41 (45 f.). 507  Vgl. BGHZ 42, 163 (169 f.); siehe auch Papier, NJW 1990, 8 (9). 508  Vgl. BVerfGE 22, 49 (62 f., 76 f.); 103, 111 (137 f.); Ballhausen, IT-Einsatz in der Justiz, 2012, S. 52; im Einzelnen sogleich. Siehe ergänzend auch Bäumerich, SchiedsVZ 2015, 237 (239 ff.). 509  Siehe dazu auch die Zusammenfassung bei Morgenthaler, in: Epping/Hillgru­ ber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 6 ff.

264

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

richt dabei bewusst verzichtet510 und stattdessen Idealtypen bzw. Fallgrup­ pen formuliert: Eine (hoheitliche) Tätigkeit ist dann rechtsprechende Gewalt, wenn eine „verfassungsrechtliche“, eine „traditionelle“ oder eine „durch den Gesetzgeber vorgenommene“ Qualifizierung eben dies ergibt.511 Zunächst kann also von „der Ausübung rechtsprechender Gewalt […] – in allein organisationsrechtlicher Betrachtung – nicht schon dann gesprochen werden, wenn ein staatliches Gremium mit unabhängigen Richtern […] GG besetzt ist“512: Die Justiz soll nach dem Telos der Art. 92 ff. GG die beson­ dere Eigenständigkeit und Unabhängigkeit der Willensbildung im System der Gewaltenteilung gewährleisten;513 allein die Besetzung eines staatlichen Gremiums lässt keinen verallgemeinerbaren Rückschluss auf den Rechtspre­ chungsbegriff zu. Den Rechtsprechungsbegriff vermag also eher die konkrete sachliche Tä­ tigkeit zu dekretieren: Bestimmte hoheitsrechtliche Befugnisse weist bereits die Verfassung den Richtern zu – daneben sind jene Tätigkeiten rechtspre­ chende Gewalt, bei denen es sich in der Sache um einen traditionellen Kern­ bereich der Rechtsprechung handelt.514 Das BVerfG führt dazu aus, recht­ sprechende Gewalt sei gegeben, wenn sich der Gesetzgeber für Sachbereiche, die nicht schon materiell dem Rechtsprechungsbegriff unterfallen, für eine normative Ausgestaltung entscheidet, die bei funktioneller Betrachtung nur der rechtsprechenden Gewalt zukommen kann. Relevant sei eben dieser funktionelle Aspekt: Ungeachtet des jeweiligen sachlichen Gegenstandes handele es sich um rechtsprechende Gewalt, wenn der Gesetzgeber ein ge­ richtsförmiges Verfahren hoheitlicher Streitbeilegung vorsieht und den dort zu treffenden Entscheidungen eine Rechtswirkung verleiht, die nur unabhän­ gige Gerichte herbeiführen können.515 Zu den nach diesem Verständnis we­ sentlichen Begriffsmerkmalen gehört für das BVerfG das Element der Ent­ scheidung, der letztverbindlichen und der Rechtskraft fähigen Feststellung sowie des Ausspruchs dessen, was im konkreten Fall rechtens ist:516 Aus Art. 92 GG folge die Aufgabe der Gerichte, Rechtssachen mit verbindlicher Wirkung zu entscheiden, und zwar in Verfahren, in denen durch Gesetz die 510  Vgl.

etwa BVerfGE 8, 197 (207); 103, 111 (136 f.). 22, 49 (76 ff.); 103, 111 (136 ff.). Dazu auch Achterberg, in: Kahl/ Waldhoff/Walter (Hrsg.), BK-GG, Zweitb. 1981/85, Art. 92 (Altaufl.), Rn. 93 f.; Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 7 ff. 512  BVerfGE 103, 111 (137). 513  Vgl. BVerfGE 22, 49 (75). 514  Vgl. BVerfGE 22, 49 (76 f.). 515  BVerfGE 103, 111 (137 f.). 516  Vgl. BVerfGE 7, 183 (188 f.); 31, 43 (46); 60, 253 (269 f.). 511  BVerfGE



V. Verfassungsrechtliche Direktiven265

erforderlichen prozessualen Sicherungen gewährleistet sind und der verfas­ sungsrechtlich geschützte Anspruch auf rechtliches Gehör besteht.517 Kenn­ zeichen rechtsprechender Tätigkeit sei daher typischerweise die letztverbindliche Klärung der Rechtslage in einem Streitfall im Rahmen besonders geregelter Verfahren.518 (3) Zwischenfazit: Wer ist „Richter“? Der Begriff des Richters bzw. der rechtsprechenden Gewalt – das BVerfG zieht keine scharfe Trennlinie zwischen diesen beiden Begriffen – folgt aus dem Wesen der richterlichen Tätigkeit, das sich darin manifestiert, dass die Rechtsprechung „durch einen nichtbeteiligten Dritten in persönlicher und sachlicher Unabhängigkeit ausgeübt wird“519. Definierend und charakteris­ tisch sind demnach die Weisungsfreiheit, die persönliche Unabhängigkeit, die Nichtbeteiligung im Sinne von Neutralität und Distanz gegenüber den Verfahrensbeteiligten520 sowie ein Mindestmaß an fachlicher Kompetenz,521 welches aus der strengen Gesetzesbindung sowie aus dem Gebot sachgerech­ ter Aufgabenwahrnehmung522 folgt; der Richter muss also fachlich ausrei­ chend qualifiziert sein, das im Einzelfall anzuwendende Recht zu erkennen und zu befolgen.523 bb) Der Richter und die Anvertrauens-Formel in Art. 92 Hs. 1 GG Den Begriff des „Richters“ i. S. d. Art. 92 Hs. 1 GG setzt die Verfassung als bekannt voraus und nimmt implizit auf die Aussagen anderer Verfas­ sungsnormen Bezug.524 Es finden sich jedoch einige Anhaltspunkte, um den Richterbegriff systematisch zu erfassen und zu füllen – sowohl bereits aus der Lektüre des Verfassungstextes als auch indirekt aus dessen Auslegung in Rechtsprechung und Literatur.525 Wenngleich die Begriffe „rechtsprechende Gewalt“ und „Richter“ eng miteinander verwoben sind, hebt der Wortlaut letztere besonders hervor: Die Dritte Gewalt ist nicht „den Gerichten“ oder 517  BVerfGE

4, 358 (363). 103, 111 (137 f.). 519  BVerfGE 4, 331 (346); 27, 312 (322); 103, 111 (140). 520  BVerfGE 21, 139 (146); 103, 111 (140). 521  BVerfGE 26, 186 (201); vgl. auch BVerfGE 54, 159 (166 ff.). 522  Vgl. BVerfGE 54, 159 (166). 523  Vgl. BVerfGE 14, 56 (73); 54, 159 (166 ff.); Morgenthaler, in: Epping/Hill­ gruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 29. 524  Stern, Staatsrecht, Bd. II, 1980, S. 903. 525  Dazu Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 66 ff. 518  BVerfGE

266

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

„den Organisationseinheiten der Justiz“ anvertraut, sondern ausdrücklich den Richtern. Diese personale Zuweisung in Art. 92 GG verdeutlicht die beson­ dere Bedeutung und Verantwortung der Richter: Sie – und nur sie – sind als Amtsträger unmittelbar aus der Verfassung heraus legitimiert, „im Namen des Volkes“ Recht zu sprechen.526 Das Grundgesetz übergibt die rechtspre­ chende Gewalt ausdrücklich nicht abstrakten, anonymen Institutionen der Justiz, sondern den Richtern als Individuen: Recht zu sprechen ist nach Art. 92 GG eine personenbezogene Aufgabe.527 Die Anvertrauensformel in Art. 92 Hs. 1 GG ist auch vice versa eindeutig: Wenn jemand rechtsprechende Gewalt ausübt, ohne Richter zu sein, ist das verfassungswidrig. Der Richter darf die ihm anvertraute rechtsprechende Gewalt außerdem nicht abgeben. Er muss sie selbst ausüben und darf ihren Kernbereich – insbesondere den Entscheidungsprozess – nicht an Externe (bspw. Softwarehersteller) auslagern. Entweder darf also der Einsatz neuer Technologien die Schwelle zur „Rechtsprechung“ nicht überschreiten, oder aber das entsprechende informationstechnische System müsste selbst „Rich­ ter“ sein.528 b) Wortlaut Richter ist „jemand, der die Rechtsprechung ausübt, der vom Staat mit der Entscheidung von Rechtsstreitigkeiten beauftragt ist“529. Der allgemeine Sprachgebrauch versteht den Richter – auch aus Mangel an „Gegenbeispie­ len“ – als natürliche Person, als menschlichen Amtswalter mit bestimmten Aufgaben und Fähigkeiten. Richter ist allerdings (auch) derjenige, der eben zum Richter ernannt wird und rechtsprechende Gewalt ausübt. In einem rein formellen Verständnis ist gerade das Rechtsprechung, was der Richter (recht­ 526  Meyer, in: Münch/Kunig (Hrsg.), 6. Aufl., 2012, Art. 92, Rn. 13; Hopfauf, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 92, Rn. 39. 527  Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7.  Aufl., 2018, Art. 92, Rn. 34; Hopfauf, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 92, Rn. 39. Ob Richter hierbei verfassungsunmittelbare Organe sind (so etwa Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 24; Sodan, § 113, in: Isensee/Kirchhof (Hrsg.), HStR V, 3. Aufl., 2007, Rn. 12) oder nicht (so etwa Hopfauf, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art.  92, Rn.  39 m. w. N.; Wilke, § 112, in: Isensee/Kirchhof (Hrsg.), HStR V, 3. Aufl., 2007, Rn. 19), hat vorliegend keine Relevanz. 528  Vgl. auch zur Diskussion darüber, manchen informationstechnischen, insbe­ sondere cyberphysischen Systemen eigene „Rechte“ zuzugestehen oder gar eine „elektronische Person“ zu etablieren, Martini, Blackbox Algorithmus, 2019, S. 290 ff., sowie Specht/Herold, MMR 2018, 40 (41 ff.), jeweils m. w. N. 529  Duden, Online-Wörterbuch, www.duden.de (10.6.2020), Stichwort: „Richter“.



V. Verfassungsrechtliche Direktiven267

lich legitimiert) in seiner Funktion als Richter tut.530 Mangels Definition oder begrifflicher Konkretisierung des Richterbegriffs in der Verfassung dreht sich eine Wortlautauslegung daher im Kreis. c) Historie Einen wichtigen Baustein der Auslegung und Interpretation normativer Vorgaben liefert ihr historischer Hintergrund. Welches Bild des Richters hatte der Verfassungsgeber, also der Parlamentarische Rat bzw. das Verfassungs­ konvent von Herrenchiemsee (1948–49), vor Augen, als er Art. 92 GG aus der Taufe hob? Einen Bezug zur Abgrenzung zwischen Mensch und ­Maschine lassen die Materialien zur Entstehung des Grundgesetzes, wenig überra­ schend, nicht erkennen. Allerdings kann auch einfaches (vorkonstitutionelles)531 Gesetzesrecht Anhaltspunkte für eine historische Auslegung bieten. Es lohnt daher ein Blick auf die Entwicklungslinien vorheriger Rechtsprechungs- bzw. Richterbegriffe, insbesondere zu der Frage, wem genau die Rechtsprechung zu früheren Zeiten anvertraut war.532 Die historischen Ursprünge des Richterbegriffs im deutschsprachigen Raum zeigen Richter als Personen aus dem Volk ohne besondere juristische Ausbil­ dung: Das Laienrichtertum war bis zum Ende 15. Jahrhunderts die Regel.533 Erst zum Ende des Mittelalters, mit größeren Gemeinschaften und zunehmen­ der Komplexität der Rechtsfragen, verlor das Laienrichtertum zugunsten be­ sonders ausgebildeter Personen – Rechtsgelehrter – an Bedeutung.534 Der rechtsgelehrte (Berufs-)Richter etablierte sich in der Folge mehr und mehr als „Standard“; das tradierte Bild über ihn lässt sich bis zum 16. Jahr­ hundert zurückverfolgen.535 Allerdings kannte wiederum das GVG von 530  Vgl. etwa BVerwGE 4, 191 (194): „in herkömmlicher Weise dem Gesetzgeber überlassen“. Kritisch zu rein formellen Ansätzen Voßkuhle, Rechtsschutz gegen den Richter, 1993, S.  70 f. m. w. N. 531  Nachkonstitutionelles einfaches Gesetzesrecht eignet sich hingegen nicht als Grundlage zur Auslegung von Verfassungsrecht, vgl. (bzgl. des Richterbegriffs) Herzog, in: Maunz/Dürig (Begr.), GG, 1971, Art. 92 (Altaufl.), Rn. 73. 532  Vertiefend zum Begriff der Rechtsprechung i. S. d. Art. 92 GG im Licht der rechtshistorischen Entwicklung (mit einem Fokus auf die Abgrenzung zur Verwal­ tung) Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 28 ff.; anschaulich auch Wenzel, Der Rechtspfleger aus der Perspektive des öf­ fentlichen Rechts, 2019, S. 258 ff. 533  Ausführlich Wagner, Der Richter, 1959, S. 44 ff. Die Richter waren zuvorderst „Urteiler“. 534  Kern, Geschichte des Gerichtsverfassungsrechts, 1954, S. 21 f.; Wagner, Der Richter, 1959, S. 52. 535  Wagner, Der Richter, 1959, S. 51 ff.

268

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

1877536 beide Richterarten – rechtsgelehrte und ehrenamtliche Richter (vgl. § 2 bzw. § 11 GVG 1877). Auch die WRV vertraute Rechtsprechungsaufga­ ben sowohl den rechtsgelehrten als auch den Laienrichtern an (Art. 104 WRV).537 Nach einhelliger Ansicht, insbesondere vor dem historischen Hin­ tergrund und der Entstehungsgeschichte des Grundgesetzes, sieht auch Art. 92 GG die ehrenamtlichen Richter gleichsam als Richter an.538 Historisch interessant erweist sich also die Frage, welche (natürlichen) Personen Richter sein können und dürfen – (nur) Rechtsgelehrte oder (auch) Laien. Eine historische Auslegung des Richterbegriffs zur Frage, ob ein „Richter“ i. S. d. Art. 92 Hs. 1 GG zwingend eine menschliche Person sein muss, steht vor dem Problem, dass der Verfassungsgeber von 1949 noch keine Kenntnis der heutigen technischen Möglichkeiten haben konnte. Die ersten modernen, turingmächtigen Computer steckten gerade in den Kinder­ schuhen und waren in keiner Weise mit heutigen Software-Anwendungen, Speicher- und Rechenkapazitäten vergleichbar.539 Was heute technisch mög­ lich ist, war 1949 kaum erwart- und absehbar. Die historische Annäherung an den Willen des Verfassungsgebers bezüg­ lich der (menschlichen) Identität des Richters i. S. d. Art. 92 GG gestaltet sich daher schwierig.540 Grundsätzlich nimmt auch die Präzision der historischen Auslegung mit zunehmendem Alter einer Norm ab.541 Als der Verfassungsge­ ber im letzten Jahrtausend mit den Art. 92 ff. GG die Grundsätze der recht­ sprechenden Gewalt in der Bundesrepublik Deutschland festlegte, stellte sich die Frage nach einer möglichen „Maschinisierung“ noch gar nicht. Das be­ stätigt auch ein Blick auf den Bundesgesetzgeber: Selbst 1976/77, mehr als 536  Gerichtsverfassungsgesetz

v. 27.1.1877, RGBl. 1877, Nr. 4, S. 41. Kern, Geschichte des Gerichtsverfassungsrechts, 1954, S. 150 f., 156 ff.; Gusy, Die Weimarer Reichsverfassung, 1997, S. 20. 538  Vgl. BVerfGE 26, 186 (201); 48, 300 (317); Classen, in: Mangoldt/Klein/ Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 92, Rn. 30; Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 25; Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.Lfg. (Dez 2007), Art. 92, Rn. 69. 539  Man denke etwa an die erste funktionstüchtige, (durch Lochstreifen) pro­ grammgesteuerte binäre Rechenmaschine „Zuse Z3“ von 1941. 540  Die Argumentationsfigur des „mutmaßlichen Gesetzgeberwillens“ (vgl. dazu Weiss, ZRP 2013, 66 ff.) – der BGH bspw. hat diese Methode insbesondere dort ange­ wendet, wo eine mitgliedstaatliche Norm aufgrund einer EU-Richtlinie erlassen wurde oder deren Anwendungsbereich berührt, bzw. bei Normen, die sowohl inner­ halb als auch außerhalb des Anwendungsbereichs einer EU-Richtlinie liegen (sog. Hybridnormen); siehe etwa BGHZ 150, 248 (254 ff.); 192, 148 (163 ff.) – hilft hier nicht weiter. 541  Vgl. Gern, VerwArch 80 (1989), 415 (420, 430 ff.); Morlok, Die vier Ausle­ gungsmethoden – was sonst?, in: Gabriel/Gröschner (Hrsg.), Subsumtion, 2012, S.  179 (198 f.). 537  Dazu



V. Verfassungsrechtliche Direktiven269

25 Jahre nach Inkrafttreten des Grundgesetzes, war es schlicht nicht vorstell­ bar, dass eine „automatische Einrichtung“ in der Lage sein könnte, komplett selbstständig Verwaltungsakte zu erlassen, respektive Entscheidungen zu treffen. Der Gesetzgeber des VwVfG sah für die Regelung des § 37 Abs. 5 in seiner ursprünglichen Fassung insoweit nur dann keine rechtsstaatlichen Be­ denken, „wenn auf Grund bestimmter Daten, die von einem Bediensteten verantwortlich ermittelt oder geprüft werden, der darauf zu erlassende Ver­ waltungsakt nur einen bestimmten Inhalt haben kann, so daß keinerlei ver­ antwortliche Wertung mehr erforderlich ist“.542 Allerdings steht jedwede historische Auslegung vor der Hürde gesell­ schaftlicher, technischer und auch im Recht selbst verwurzelter Wandlungs­ prozesse. Strukturelle, grundsätzliche Wertungsdirektiven lassen sich oftmals dennoch erkennen. Das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme legt ein beredtes Zeugnis dieser Wandlungsfähigkeit ab: Es findet sich nicht unmittelbar im Grundge­ setz und war zu Zeiten des Verfassungsgebers nicht relevant, das BVerfG liest es aber aktiv in die Verfassung hinein.543 Vor diesem Hintergrund scheint – neben der Rechtsgelehrtheit544 als Kate­ gorisierung des Berufsrichters in Abgrenzung zum ehrenamtlichen Richter – besonders ein Attribut des Richters für unsere Fragestellung von Interesse: die Unabhängigkeit.545 Die Schöpfer des Grundgesetzes waren sich bewusst, wie sehr das Schreckensregime des Dritten Reiches die Rechtsprechung aus­ gehöhlt und pervertiert hat.546 Die Unabhängigkeit der Richter war faktisch weitgehend abgeschafft;547 das Regime förderte bewusst nationalsozialistisch gesinnte Richter und steuerte das Entscheidungsverhalten der Richterschaft „von oben“, bspw. durch Richterbriefe.548 Die Mütter und Väter des Grund­ 542  BT-Drs. 7/910,

tes).

543  Vgl.

S. 59 (bzgl. eines „mechanisch hergestellten“ Verwaltungsak­

BVerfGE 120, 274 (302 ff.). nachfolgend S. 272  ff. Die Unterscheidung zwischen rechtsgelehrten und ehrenamtlichen Richtern ist vor allem dort relevant, wo es um die fachlichen Anforderungen des Richterbegriffs geht. 545  Zur richterlichen Unabhängigkeit siehe (allgemein) bereits oben S. 102 ff. so­ wie (im Kontext des Technikeinsatzes) unten S. 288 ff. 546  Vgl. Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 29. 547  Näher Stolleis, Recht im Unrecht, 1994, S. 190 ff. 548  Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 97, Rn. 6. Die Richterbriefe waren ab 1942 ein zentrales Publikationsorgan zur Instrumentalisie­ rung der Justiz im nationalsozialistischen Regime, vgl. etwa den in DRiZ 1995, 204 f., abgedruckten Richterbrief Nr. 1 (von insgesamt 21). Vgl. dazu aber auch Wittreck, Die Verwaltung der Dritten Gewalt, 2006, S. 65: „[e]in in der Tendenz über­ schätztes Instrument der nationalsozialistischen Steuerung der Rechtsprechung“. 544  Dazu

270

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

gesetzes zogen Lehren aus dieser Historie. Sie stärkten den Richter ganz bewusst in dessen (sachlicher und persönlicher) Unabhängigkeit. Ihr Bild der rechtsprechenden Gewalt bestand daher aus unabhängigen, eigenständigen, selbstverantwortlichen549 Richtern. Ein historisch gewachsener Richter- und Rechtsprechungsbegriff des Art. 92 GG steht aber nicht losgelöst und „für sich“ an seinem Platz, sondern er ergibt sich aus dem Sinnzusammenhang des Art. 92 GG im gesamten Ver­ fassungsgefüge.550 Er entfaltet sich also erst im Zusammenwirken mit den übrigen Verfassungsnormen (nachfolgend d) sowie in näherer Beleuchtung seines Telos (nachfolgend e). d) Systematik aa) Der Richterbegriff im Verfassungsgefüge (1) Richterernennung Eine vollständige Automatisierung der Rechtsprechung stünde zunächst – in tatsächlicher wie rechtlicher Hinsicht – vor Herausforderungen der Rich­ terernennung: So mutet die Vorstellung, dass der Bundespräsident, der Mi­ nisterpräsident eines Landes bzw. der jeweils zuständige Minister oder der Richterwahlausschuss ein informationstechnisches System als Richter ernennt (vgl. etwa Art. 60 Abs. 1 GG; Art. 102 LV RhPf; §§ 10 ff. DRiG) und diesem eine Urkunde aushändigt (vgl. etwa § 17 Abs. 1 DRiG), fremd an. (2) Unabhängigkeit Innerhalb der grundgesetzlichen Systematik stehen der Richterbegriff und dessen prägende Attribute nicht losgelöst in Art. 92. Eine inhaltliche Verbin­ dung weist Art. 92 GG in besonderem Maße zu Art. 97 GG auf: Wem die Rechtsprechung anvertraut ist, der ist sachlich und persönlich unabhängig. 549  Das Attribut der Selbstverantwortlichkeit bzw. Eigenverantwortung, verstan­ den als Bereitschaft und auch Verpflichtung, für das eigene Handeln einzustehen, führt allerdings zu einem gewissen Paradox: Denn gerade weil Richter nicht selbst haftbar sind und zur Verantwortung gezogen werden können (abgesehen von vorsätz­ lichem Handeln, insbesondere Fällen der Rechtsbeugung; vgl. Art. 34 GG, § 839 Abs. 2 BGB, § 339 StGB), sind sie im Einzelfall unabhängig und in der Lage, selbst­ ständig zu entscheiden. Ohne diese „Haftungsfreizeichnung“ bestünde die Gefahr, dass Richter im Zweifelsfall den leichteren, „linientreuen“ Weg gehen. Sie haben in­ des kein Anrecht darauf, frei von Kritik zu bleiben, und unterschreiben ihre Urteile namentlich (vgl. etwa § 275 Abs. 2 S. 1 StPO, § 315 Abs. 1 S. 1 ZPO). 550  BVerfGE 22, 49 (76).



V. Verfassungsrechtliche Direktiven271

Nach der überwiegenden Ansicht in Literatur und Rechtsprechung ist die in Art. 97 GG (sowie Art. 98 Abs. 2 und 5 GG) vorgesehene, statusrechtlich und organisatorisch abgesicherte Unabhängigkeit daher konstitutiv für die Eigenschaft, „Richter“ i. S. d. Art. 92 GG zu sein.551 Dabei besteht indes die Gefahr einer zirkulären Argumentation: „Richter“ ist danach, wer die verfassungsrechtlich abgesicherte Unabhängigkeit ge­ nießt, und Unabhängigkeit genießt, wer „Richter“ i. S. d. Art. 92 GG ist.552 Dieser Einwand verkennt nicht, dass die Dritte Gewalt auf unabhängig ge­ stellte Richter zwingend angewiesen ist, weil erst die Unabhängigkeit ihnen die auftragsgemäße, ausschließlich am Recht orientierte, unparteiische Ent­ scheidungsfindung ermöglicht. Allerdings ist die „Unabhängigkeit“ gem. Art. 97 GG innerhalb der Verfassungssystematik die Rechtsfolge des Richter­ seins, nicht dessen Voraussetzung. Bei genauerer Betrachtung verliert indes der Einwand der zirkulären Argumentation etwas an Schärfe: Denn die Un­ abhängigkeit kann durchaus konstitutiv (tragend) für den Richter(-Begriff) sein, ohne notwendigerweise das einzige konstitutive Element darzustellen. Angesichts der technischen Grenzen553 – Abhängigkeit vom (menschli­ chen) Daten-Input, Sprachbarriere, Probleme bei Wertungen und Informati­ onsfiltern – kann die Analyse ebenso deutlich wie knapp ausfallen: Einem Computer, einer Software, einem informationstechnischen System kann mangels faktischer Entscheidungsfreiheit, Selbstständigkeit und autonomer, vom menschlichen Erfinder bzw. Entwickler losgelöster Willensfreiheit keine (richterliche) Unabhängigkeit zukommen. Ohne richterliche Unabhängigkeit wiederum ist der Richter i. S. d. Art. 92 Hs. 1 GG kaum vorstellbar. bb) Ergebnisrationalität und Vorgangswert Betrachtet man die Reduktion von Rationalitätsschwächen, mithin eine gesteigerte Rationalität, als eine (wenngleich nicht einzige) maßgebliche Triebfeder etwaiger Entscheidungsautomatisierungen, so macht das Grundge­ setz an anderer Stelle (in Bezug auf politische Entscheidungen) deutlich, dass die objektiv richtige Entscheidung nicht über der demokratisch gefällten 551  Vgl. nur Herzog, in: Maunz/Dürig (Begr.), GG, 1971, Art. 92 (Altaufl.), Rn. 74, 93; Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 25; Pieroth, in: Jarass/Pieroth (Hrsg.), 15. Aufl., 2018, Art. 92, Rn. 7; BVerfGE 3, 377 (381); 4, 331 (346); 103, 111 (140): „Die richterliche Tätigkeit setzt aber nicht nur Weisungs­ freiheit und persönliche Unabhängigkeit voraus. Wesentlich ist darüber hinaus, dass sie von einem nichtbeteiligten Dritten ausgeübt wird“. 552  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 66; ähnlich Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 92, Rn. 9: „Zirkelschluss“. 553  Ausführlich oben S. 177 ff.

272

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

steht, mag die Unvernunft der Entscheidung noch so evident sein: Art. 38 Abs. 1 S. 2 GG sowie das Demokratieprinzip (Art. 20 Abs. 1 und 2 GG), die Regelungen betreffend das Wahlverfahren bis hin zu Vorschriften über die Öffentlichkeit der Sitzungen zeigen, dass der rechtfertigende Kernpunkt le­ gislativer Herrschaft die Rückkopplung an das Staatsvolk ist und nicht die bestmögliche (politische) Entscheidung. Die Verfassung hat sich damit klar gegen jede „Technokratie“ gestellt.554 Politische Entscheidungen sind zwar strukturell und in ihrer Bedeutung von Einzelfallentscheidungen der Judikative zu unterscheiden. Es wird aber deut­ lich, dass die Verfassung Rationalität und rationale (Entscheidungs-)Ergebnisse grundsätzlich nicht als oberste Direktiven ausweist. Dafür streiten auch die entsprechenden Funktionsbeschreibungen im Grundgesetz: „Gesetzge­ bung“, „vollziehende Gewalt“ und „Rechtsprechung“ sind „aktivische Be­ griffe“: Volksvertreter machen Gesetze, Richter sprechen (das) Recht, sodass nicht ein bestimmtes Ergebnis oder Ziel, sondern der Vorgang – die Art und Weise der Ausübung bestimmter hoheitlicher Tätigkeiten – die Funktion prägt.555 Rechtsprechung ist daher mehr als das möglichst rationale Ergebnis, wie es etwa im Urteil Ausdruck findet. Der Richter agiert in seinem Tätig­ keitsbereich als „unbeteiligter Dritter“ und „Verfahrensleiter“, während seine Neutralität und innere Unparteilichkeit institutionell abgesichert sind – über formalisierte Regeln der Entscheidungsfindung, die richterliche Unabhängig­ keit, die Öffentlichkeit des Verfahrens sowie seine Monopolstellung und Pro­ fessionalisierung (Ausbildung).556 Dem Vorgang der Rechtsfindung und Rechtsprechung kommt in dieser Lesart ein eigener Wert zu, dem der Staat nur mit entsprechend kompetenten und geschulten Richtern gerecht werden kann. e) Telos aa) Unterbau – Gewaltenteilung und Rechtsprechungsmonopol Die verschiedenen Auslegungsansätze zum Richterbegriff in Rechtspre­ chung und Literatur kommen in dem Punkt überein, dass der Rechtspre­ chungsbegriff im Grundsatz der Gewaltenteilung verwurzelt ist bzw. diesen konkretisiert.557 Die Verfassung etabliert damit eine organadäquate Funktio­ 554  Fadavian, Rechtswissenschaftliche Aspekte von Smart Government, in: Lucke (Hrsg.), Smart Government, 2016, S. 113 (131 f.). 555  Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 94  f. m. w. N. Voßkuhle bezeichnet seinen Ansatz zum Rechtsprechungsbegriff als „Modell des ‚Neutralen Verfahrens‘ “. 556  Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 119 ff. 557  BVerfGE 22, 49 (76); Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 1; Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92,



V. Verfassungsrechtliche Direktiven273

nenordnung: Staatsaufgaben nehmen jeweils diejenigen Staatsorgane wahr, die nach ihrer Zusammensetzung, ihrer Organisation und den jeweiligen Verfahren hierzu am besten geeignet sind.558 (1) Recht auf eine richterliche Tatsacheninstanz Für die ordentliche Gerichtsbarkeit fungiert der allgemeine Justizgewäh­ rungsanspruch als Äquivalent zu Art. 19 Abs. 4 GG in den öffentlich-rechtli­ chen Gerichtsbarkeiten:559 Das Grundgesetz hält eine Garantie der richterli­ chen Zuständigkeit für bestimmte, materiell definierte Sachbereiche vor. Art. 92 GG betont, dass derjenige, der den gerichtlichen Rechtsschutz ge­ währt, Richter sein muss. In seinem Geltungsbereich – mögliche Rechtsver­ letzungen durch die öffentliche Gewalt – etabliert Art. 19 Abs. 4 GG aber lediglich eine Garantie für die richterliche Nachprüfung, während Art. 92 GG für den straf- und zivilrechtlichen Bereich die richterliche Erst- und Letztent­ scheidung garantiert.560 Die „rechtsprechende Gewalt“ i. S. d. Art. 92 GG kann somit nicht nur die verbindliche Endentscheidung in den ordentlichen Gerichtsbarkeiten (so der materielle Rechtsprechungsbegriff) bzw. in den Verfahrensweisen der öffentlich-rechtlichen Gerichtsbarkeiten (Rechtspre­ chung im funktionellen Sinne) sein, sondern der Begriff muss auch vorberei­ tende Verfahrenshandlungen umspannen – insbesondere die richterliche Be­ weiserhebung als Bestandteil der Tatsachenermittlung.561 Art. 19 Abs. 4 GG garantiert in seinem Geltungsbereich dem Bürger jedenfalls eine richterliche Tatsacheninstanz.562 Aus den Art. 92 ff. GG muss daher folgen, dass die Verfassung eine solche Garantie auch für alle anderen verfassungsrechtlichen Rechtsweggarantien oder Richtervorbehalte etabliert: Sofern nicht wenigstens der erstinstanzlich befasste Richter auch den Sach­ verhalt selbst feststellen dürfte, käme das einer Aushöhlung eben dieser Ga­ rantien und Vorbehalte gleich.563 Dafür spricht auch, dass zum Umfang der Rn.  13 ff.; Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 92, Rn. 17; Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 66 f.; Wilke, § 112, in: Isensee/ Kirchhof (Hrsg.), HStR V, 3. Aufl., 2007, Rn. 4 ff.; anschaulich auch Wenzel, Der Rechtspfleger aus der Perspektive des öffentlichen Rechts, 2019, S. 229 ff. 558  BVerfGE 68, 1 (86). 559  Vgl. dazu jeweils unten S. 308 ff. 560  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 50. 561  BVerfGE 57, 250 (287); Pieroth, in: Jarass/Pieroth (Hrsg.), 15. Aufl., 2018, Art. 92, Rn. 4. 562  BVerfGE 4, 74 (95); 4, 205 (211 f.); 6, 7 (12); 11, 232 (233). 563  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 50; siehe auch BVerfGE 7, 183 (188 f.).

274

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

dem Richter anvertrauten und vorbehaltenen Tätigkeit neben der (End-)Ent­ scheidung564 auch deren Vorbereitung zählt565 – jedenfalls gilt dies für die Kompetenz zur Verhandlungsleitung mitsamt der sitzungspolizeilichen Be­ fugnisse sowie (in den Grenzen der Verfahrensvorschriften, bspw. §§ 244 ff. StPO) die Entscheidung darüber, welche Beweismittel zur Aufklärung der Sache notwendig sind.566 Ein zulässiger Einsatz privatwirtschaftlich entwi­ ckelter IT steht also immer an der Grenze, inwieweit er in eine Tätigkeit hi­ neinwirkt, die ausschließlich der Rechtsprechung durch (staatliche) Richter zugeordnet ist, und ob eine derartige „Privatisierung“ das staatliche Recht­ sprechungsmonopol bedroht. (2) Gefahr der „Privatisierung“ durch IT-Systeme privatwirtschaftlicher Unternehmen Art. 92 GG erlaubt nichtstaatliche Gerichte nicht ausdrücklich, schließt sie aber auch nicht aus.567 Das verfassungsrechtliche Richtermonopol erzeugt jedoch einen klaren Vorbehalt zu Gunsten der staatlichen Gerichtsbarkeit, der den Rückzug des Staates aus Kernbereichen der Justiz begrenzt.568 Ist also die rechtsprechende Gewalt (ausschließlich) den staatlichen Rich­ tern anvertraut, dürfen privatwirtschaftliche Unternehmen, die Algorithmen programmieren bzw. informationstechnische Systeme entwickeln, nicht in 564  Der Begriff der (End-)Entscheidung will sich hier als Gegensatz zu sonstigen Entscheidungen, die ein Richter während des gerichtlichen Verfahrens trifft (Termin­ bestimmungen, Entscheidungen über Beweismittel etc.), verstanden wissen. 565  Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7.  Aufl., 2018, Art. 92, Rn. 19; Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 13. 566  BVerfGE 57, 250 (287); Ausnahmen sind (etwa für besonders geheimhal­ tungsbedürftige Vorgänge) aber möglich, vgl. a. a. O., 287 ff. Das BVerfG hat aller­ dings selbst verdeutlicht, dass die Vorbereitung einer gerichtlichen Entscheidung durch eine Behörde – etwa im Fall eines Amtshilfeersuchens um eidliche Verneh­ mung – nicht a priori ein unzulässiger Eingriff in die Dritte Gewalt ist, vgl. BVerfGE 7, 183 (188 f.). 567  BGHZ 65, 59 (61). Zu nennen ist insbesondere die Schiedsgerichtsbarkeit. 568  Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 28  f.; Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 32. Das staatliche Rechtsprechungsmonopol zielt insbesondere darauf, die Zulässigkeit privater Schieds- und kirchlicher Gerichtsbarkeiten zu begrenzen. (Nur) Richter haben die Pflicht und die hoheitliche (vgl. Art. 34 S. 1 GG, § 839 Abs. 2 BGB) Aufgabe, die rechtsprechende Gewalt auszufüllen; sie haben aber auch das alleinige Privileg dazu. Art. 92 Hs. 2 GG festigt dieses Rechtsprechungsmonopol des Bundes und der Länder. Vgl. auch BVerfGE 10, 200 (214), insbesondere zur His­ torie der Gemeindegerichte; Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 84.



V. Verfassungsrechtliche Direktiven275

Kernbereiche der rechtsprechenden Gewalt einwirken. Ein jüngeres Urteil aus dem Ordnungswidrigkeitenrecht lässt diese Problemstellung erkennen: Das AG Neunkirchen hat für Ordnungswidrigkeiten ein Beweisverwertungsver­ bot569 bezüglich einer Messdatenauswertung durch Private angenommen.570 Das Gericht leitet das Beweisverwertungsverbot unmittelbar aus dem Rechts­ staatsprinzip her: Bürger haben einen Anspruch darauf, „dass die Ahndung und Ermittlung von Ordnungswidrigkeiten allein dem Staat obliegt und nicht komplett und in weiten Teilen auf Private übertragen werden kann.“571 Erst recht muss dieses staatliche Monopol für Straftaten und deren Beur­ teilung gelten. Dem Gesetzgeber steht es nicht frei, andere Organe als die der Rechtsprechung mit der Ahndung von Tatbeständen zu betrauen, die zum Kernbereich des Strafrechts zählen.572 Denn dies gehört zum Bereich mate­ rieller Rechtsprechung. Wenngleich das amtsgerichtliche Urteil in einem an­ deren Kontext als dem der Automatisierungsmöglichkeiten (in) der Recht­ sprechung selbst ergangen ist, lässt sich doch eine zentrale, allgemeingültige Aussage extrahieren: Kernbereiche staatlichen Handelns, mithin die Recht­ sprechung einschließlich der Vorbereitung gerichtlicher Entscheidungen, sind hoheitlich zu erfüllen. Das amtsgerichtliche Urteil ist indes nicht geeignet, den Einsatz techni­ scher Systeme in der Rechtsprechung generalisierend für unzulässig zu erklä­ ren. Denn der Staat ist nicht grundsätzlich gehindert, sich Leistungen Privater zu Nutze zu machen, wie etwa die Rechtsfigur der Beleihung als mittelbare Staatsverwaltung zeigt. Er muss dann aber die Tätigkeit seiner (privaten) Helfer kontrollieren und überwachen. Das AG Neunkirchen erwähnt deklara­ torisch, dass es sich bei der Verkehrsüberwachung um eine hoheitliche Auf­ gabe handelt. Wenn indes „ein großer Teil der Auswertung von zur Verkehrs­ überwachung hergestellten Geschwindigkeitsmessungen auf ein privates, ge­ winnorientiertes Unternehmen übertragen wird und dessen Tätigkeiten dann nicht mit der notwendigen Sorgfalt überprüft werden, kann […] nicht mehr von einer hoheitlichen Tätigkeit ausgegangen werden“.573 569  Zu Beweisverwertungsverboten allgemein etwa Ott, in: Hannich (Hrsg.), KKStPO, 8. Aufl., 2019, § 261, Rn. 34 ff.; Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, Einl, Rn. 55 ff. und § 261 Rn. 13 ff.; zur Dogmatik der un­ selbstständigen Beweisverwertungsverbote Paul, NStZ 2013, 489 (489 ff.); vgl. zum Fall eines Beweisverwertungsverbots im Ordnungswidrigkeitenrecht OLG Saarbrü­ cken, NStZ 2018, 480 (481 f.); siehe auch BVerfG, NJW 2011, 2417 (2418 f.). 570  AG Neunkirchen, ZD 2016, 539 (540 f.). 571  AG Neunkirchen, ZD 2016, 539 (540). 572  Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 18; BVerfGE 22, 49 (81); 27, 18 (29 f.); 64, 261 (294). Ein entsprechendes einfaches Gesetz be­ gründete einen Verstoß gegen Art. 92 GG. 573  AG Neunkirchen, ZD 2016, 539 (541 f.).

276

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(3) Zwischenresümee Art. 92 Hs. 1 GG beinhaltet ein personales und ein institutionelles Ele­ ment: Bei den Gerichten muss die Rechtsprechung den einzelnen Richtern anvertraut sein (personales Element), diese müssen aber gleichsam (institu­ tionell) ihre öffentliche Aufgabe im Rahmen der Gerichte erfüllen.574 Der Grundsatz der Gewaltenteilung verlangt indes keine absolute Trennung der Gewalten, sondern ihre gegenseitige Kontrolle und Mäßigung575 – wenn­ gleich die Rechtsprechung (durch Art. 97 Abs. 1 GG) stärker gegen Ein­ wirkungen abgeschirmt ist als die anderen Gewalten. Zur Rechtsprechung gehört jedenfalls das Element der Entscheidung – also die Feststellung und der Ausspruch dessen, was Recht ist.576 Daraus folgen zwei Grenzen: Ein Einfluss der Exekutive auf den Inhalt gerichtlicher Entscheidungen (etwa über die potenzielle Auswahl der Programme bzw. Algorithmen) wäre ebenso unzulässig577 wie eine „Privatisierung“, bei der privatwirt­ schaftlich entwickelte technische Systeme jenseits einer Überwachung und Steuerung durch die Richter (eigenständig) rechtsverbindliche Entscheidun­ gen treffen. bb) Sinn und Zweck – Kompetenzen Die Verfassung legt in Art. 92 Hs. 1 die rechtsprechende Gewalt in die Hände der Richter und geht damit implizit davon aus, dass diese ihrer Auf­ gabe kompetenziell gewachsen sind: Nicht den Staatsdienern der Exekutive, nicht Politikern, nicht Religions- oder Wirtschaftsführern, sondern nur den Richtern traut das Grundgesetz zu, die rechtsprechende Gewalt auszuüben – und vertraut sie ausschließlich ihnen an. (1) Der rechtsgelehrte Richter Die Kompetenz scheint sich als zentrale, den Richterbegriff prägende Vor­ aussetzung für die Richterernennung zu gerieren: Das verfassungsrechtlich vorgegebene Haupterfordernis der Berufung in ein Richterverhältnis ist die persönliche und fachliche Eignung.578 Art. 33 Abs. 2 GG, der ein grund­ 574  Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 18. 575  BVerfGE 3, 225 (247). 576  BVerfGE 7, 183 (188 f.). 577  Dazu vor dem Hintergrund der richterlichen Unabhängigkeit vertiefend so­ gleich S. 288 ff. 578  Staats, DRiG, 2012, § 9, Rn. 18.



V. Verfassungsrechtliche Direktiven277

rechtsgleiches Gleichheitsrecht verbürgt,579 enthält auch objektiv-rechtlich die Wertentscheidung hinsichtlich der Funktionsfähigkeit sowie der Professi­ onalität des öffentlichen Dienstes.580 Sein Ziel der Bestenauslese581 ist eine klare Entscheidung für das Leistungsprinzip582 und erstreckt sich auf jedes öffentliche Amt, auch auf Richter.583 Eine Person muss bzw. ein informationstechnisches System müsste über ein zur rechtsprechenden Gewalt adäquates Maß an Kompetenz verfügen, um potenziell „Richter“ nach Art. 92 GG sein zu können. Zentraler Baustein der von der Verfassung vorausgesetzten Kompetenz ist wiederum das Attri­ but der Rechtsgelehrtheit. Denn aus der Bindung des Richters an Gesetz und Recht (Art. 20 Abs. 3, Art. 97 Abs. 1 GG) ergibt sich eine deutliche Verfas­ sungsdirektive zu „rechtswissenschaftlich besonders ausgebildeten und 579  BVerfG, NJW 1990, 501 (501); NVwZ 2007, 691 (692); vgl. auch BVerfGE 1, 167 (184). 580  BVerfGE 56, 146 (163); Battis, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 33, Rn.  19 ff. 581  Siehe BVerfG NVwZ 2011, 746 (747); BVerwGE 86, 244 (249); Hense, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.5.2019), Art. 33, Rn. 8. 582  BVerfGE 56, 146 (163). 583  Hense, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.5.2019), Art. 33, Rn. 9. Das Recht auf gleichen Zugang steht jedem Deutschen i. S. d. Art. 116 GG zu; über Art. 45 ff. AEUV, Art. 15 Abs. 2 GRCh unterfallen auch Unionsbürger dem Schutz des Art. 33 Abs. 2 GG, vgl. Battis, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 33, Rn. 23; siehe dazu auch § 7 Abs. 1 Nr. 1 lit. a BeamtStG, § 4 Abs. 1 Nr. 1 BBG. Die Vorgaben des Art. 33 Abs. 2 GG, soweit sie speziell den Richter betreffen, hat der Gesetzgeber einfachgesetzlich konkretisiert in § 9 Nr. 1 DRiG. Beamte und Richter stellen in der grundgesetzlichen Logik (vgl. Art. 60 Abs. 1, Art. 74 Abs. 1 Nr. 1, Art. 132 Abs. 1 S. 1, Art. 137 Abs. 1 sowie auch Art. 98 Abs. 1 und 3 GG) zwei unterschiedliche hoheitliche Funktionsträger dar, was zumindest statusrechtlich eine Unterscheidung notwendig macht, vgl. BVerfGE 32, 199 (213); Stern, Staatsrecht, Bd. II, 1980, S. 906 m. w. N. Auf den unterschiedlichen funktionellen Status von Rich­ tern und Beamten hat der Verfassungsgeber auch mit der Vorschrift des Art. 98 GG reagiert, vgl. BVerfGE 26, 141 (154); Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 98, Rn. 29; siehe ergänzend aber auch (die seit dem 24.10.2015 geltende Fassung des) § 18 S. 1 VwGO und § 14 f. DRiG. Richter sind (sachlich) unabhängig, Beamte hingegen weisungsgebunden – und dennoch gelten die herge­ brachten Grundsätze des Berufsbeamtentums im personalen Anwendungsbereich des Art. 33 Abs. 5 GG (sinngemäß) auch für Richter, vgl. BVerfGE 12, 81 (88); 38, 139 (151); 55, 372 (391 f.). Sie bezwecken einen Kernbestand an Strukturprinzipien des Beamtentums, vgl. BVerfGE 8, 332 (343); 119, 247 (260). Art. 33 Abs. 5 GG enthält dessen grundsätzliche Einrichtungsgarantie und zum anderen einen Gestaltungsauf­ trag an den Gesetzgeber, diese Garantie auszuformen, vgl. BVerfGE 141, 56 (69). Die Vorgaben des Art. 33 Abs. 2 und 5 GG zur Eignung, Befähigung und fachlichen Leis­ tung des Richters sowie zu den Grundsätzen des Berufsbeamtentums kommen bspw. in einer Vergleichssituation zweier Bewerber zur Anwendung, bedürfen hier aber keiner näheren Erörterung.

278

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

vorgebildeten“584 Richtern – eben zu rechtsgelehrten Berufsrichtern.585 Die Verfassung fordert dem Berufsrichter ein Mindestmaß an fachlicher Befähi­ gung ab – dies ergibt sich aus dem Gebot sachgerechter Aufgabenwahrneh­ mung586 – er muss also fachlich ausreichend qualifiziert sein, das im Einzel­ fall anzuwendende Recht zu erkennen und zu befolgen.587 Art. 92 GG fordert zwar nicht, dass jedem gerichtlichen Spruchkörper zwingend ein (rechtsgelehrter) Berufsrichter angehören muss;588 außerhalb der in Art. 94 und 95 GG genannten Gerichte scheint die Verfassung auch kein Veto gegen ausschließlich mit ehrenamtlichen Richtern besetzte Gerichte zu erheben. Im Ergebnis kann der Staat aber nur mit rechtsgelehrten Berufs­ richtern gewährleisten, dass sein „rechtsprechendes Personal“ der Fülle an normativen Vorgaben gewachsen ist.589 Zur reinen Kenntnis und Anwendung des kodifizierten Rechts tritt zudem die Konkretisierungs- und Fortbildungs­ funktion, die den (Berufs-)Richtern zukommt; letztere spielt bei den unterge­ ordneten Gerichten auch eine untergeordnete Rolle, ist aber nicht auszublen­ den.590 Für den Richterbegriff ist die Rechtsgelehrtheit daher insgesamt „kein unproblematisches, aber doch auch unverzichtbares Abgrenzungskriterium“591. Die Unabhängigkeit des Richters und seine hieraus folgende „relative Unkontrolliertheit“592 bedingen ein Mindestmaß an Ausbildung, Fachwissen sowie Methoden- und Prinzipienkenntnis.593 Ehrenamtliche (Laien-)Richter 584  Stern,

Staatsrecht, Bd. II, 1980, S. 903. Rechtsschutz gegen den Richter, 1993, S. 126. 586  BVerfGE 54, 159 (166). 587  Vgl. BVerfGE 14, 56 (73); 54, 159 (166 ff.); Morgenthaler, in: Epping/Hill­ gruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 92, Rn. 29. 588  BVerfGE 48, 300 (317); siehe auch BVerfGE 14, 56 (73). 589  Vgl. Herzog, in: Maunz/Dürig (Begr.), GG, 1971, Art. 92 (Altaufl.), Rn. 79: „ungeheure […] Masse positivrechtlichen Rechtsstoffes“. 590  Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 126; in dieser Lesart auch BVerwGE 8, 350 (355 f.); Achterberg, in: Kahl/Waldhoff/Walter (Hrsg.), BK-GG, Zweitb. 1981/85, Art. 92 (Altaufl.), Rn. 279. 591  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 69; ähnlich Herzog, in: Maunz/Dürig (Begr.), GG, 1971, Art. 92 (Altaufl.), Rn.  77 ff.; Wassermann, in: Denninger/Hoffmann-Riem/Schneider et al. (Hrsg.), AKGG, Losebl. (Stand: 3. Aufl.), 2001, Art. 92, Rn. 41; a. A. wohl („Zu Ausbildungsfra­ gen […] keine Aussage“) Pieroth, in: Jarass/Pieroth (Hrsg.), 15. Aufl., 2018, Art. 92, Rn. 7. Die strikte Gesetzesbindung des Richters folgt nicht allein aus seiner Aufgabe, der rechtsprechenden Tätigkeit, sondern zuvorderst aus Art. 97 Abs. 1 Hs. 2 GG. Das Kriterium der Rechtsgelehrsamkeit des Amtsinhabers entfaltet sich somit auch erst im Zusammenspiel des Art. 92 Hs. 1 mit Art. 97 Abs. 1 GG. 592  Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 126. 593  Vgl. Stern, Staatsrecht, Bd. II, 1980, S. 904; a. A., mit dem Hinweis auf die historische Bedeutung des Laienrichtertums, Smid, Rechtsprechung, 1990, S. 352. 585  Voßkuhle,



V. Verfassungsrechtliche Direktiven279

haben zwar ihren historisch gewachsenen Platz in der Justiz, sie genießen auch (sachliche) Unabhängigkeit (§ 45 Abs. 1 S. 1 DRiG). Ihre Bedeutung für die Rechtsprechung als solche ist jedoch nicht zu überschätzen: Eine Justiz ohne Laienrichter ist denkbar, eine Justiz ohne rechtsgelehrte Richter nicht. Der Laienrichter ist im Verfassungsgefüge der Art. 92 ff GG daher grundsätzlich die Ausnahme. Insbesondere in komplizierten Rechtsfällen sind die der (sachlichen) Neutralität und Objektivität verpflichteten und der­ gestalt ausgebildeten Berufsrichter qua Natur der Sache eher in der Lage, sich an Gesetz und Recht zu orientieren: Der Einsatz bzw. die Quote der Mitwirkung in der Dritten Gewalt ist für Laienrichter nach oben begrenzt.594 Mit Hillgruber595 lassen sich zum Kriterium der Rechtsgelehrtheit bzw. -gelehrsamkeit ergänzend drei verschiedene, auf die einzelnen Richtertypen zugeschnittene Richterdefinitionen formulieren: erstens der „Vollrichter“, der hauptamtlich und entgeltlich in der Justiz beschäftigt und auch allein ent­ scheidungsbefugt sowie rechtsgelehrt (Universitätsabschluss) ist – er ist der Regelfall des Richters. Zweitens gibt es unentgeltlich beschäftigte, (u. U.) rechtsgelehrte Personen, die ehren- oder nebenamtlich Spruchtätigkeit aus­ üben (etwa die ehemaligen Gemeinderichter in Baden-Württemberg oder die Richter am Berufsgericht der Rechtsanwaltschaft). Drittens folgen die nicht allein entscheidungsbefugten und nicht rechtsgelehrten Personen, die als Lai­ enrichter fungieren – namentlich ehrenamtlich tätige Schöffen und Handels­ richter, ehrenamtliche Richter der Arbeits-, Sozial-, Finanz- und Verwal­ tungsgerichtsbarkeit sowie die beim Bundespatentgericht hauptamtlich täti­ gen Naturwissenschaftler und Techniker. Aus diesem dreiteiligen, flexiblen Richterbegriff folge, dass „die Richterqualität eines Amtswalters […] über die organisatorische Verselbständigung des Spruchkörpers und Gerichts […] sowie über deren – je nachdem, ob sie allein oder zusammen mit anderen Richtern entscheidet, abzustufende – Rechtsgelehrsamkeit [zu definieren]“ sei.596 Laienrichter sind zwar (in der Regel) nicht rechtsgelehrt, aber sie gehören dem Staatsvolk an (§ 31 S. 2 GVG, Art. 116 GG), sodass ihr Einsatz der demokratischen Legitimation in Form einer Kontrolle durch das Volk und einer lebensnahen Rechtsprechung dient – er stärkt das Vertrauen der Bürger 594  Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 126 f. m. w. N.; Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 69: „Richter [haben] in der Regel eine fundierte, wissenschaftliche Rechtsausbildung an einer Universität erhalten […] – denn nur dort findet Ausbildung durch Wissenschaft statt“ (Hervorhebung im Original). 595  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 70–72. 596  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 74.

280

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

in die Justiz. Gerade deswegen kann insoweit auf das Kriterium der Rechts­ gelehrtheit verzichtet werden. Überträgt man diese Wertungen auf die Möglichkeiten eines IT-Einsatzes zur Rechtsprechung, zeigt sich: Die Gründe, welche für den Einsatz ehren­ amtlicher Laienrichter sprechen, gelten insoweit nicht. Ein informationstech­ nisches System gehört nicht dem Volk an, es kann keine Kontrollfunktion des Volkes über die Dritte Gewalt wahrnehmen. Es bestünde somit – vor dem Hintergrund der strengen Bindung an Gesetz und Recht – keine Veran­ lassung, auf das Kriterium der Rechtsgelehrtheit zu verzichten. In jedem Falle bedarf es aber einer umfassenden Rechtskenntnis, die auch aktuelle Entwicklungen einpreisen und sich wandelnde Lebensumstände berücksichti­ gen kann. (2) Rechtsgelehrte informationstechnische Systeme? Algorithmen und intelligente Systeme lassen sich zwar auf der Grundlage von Regeln und Daten „anlernen“ und trainieren, jedoch können sie nicht gleichermaßen (rechts-)„gelehrt“ sein wie eine natürliche Person, die die allgemeine Hochschulreife absolviert, eine Universität besucht und einen akademischen Abschluss erworben hat: Zu einer umfassenden und für die rechtsprechende Tätigkeit erforderlichen Rechtskenntnis bedarf es der Fähig­ keit, Informationen im jeweiligen Kontext eines Gerichtsverfahrens zu verar­ beiten, (qualitative) Wertungen vorzunehmen und auch die sozialen Entschei­ dungsfolgen einzupreisen. Juristische Entscheidungen fußen auf (fundierten) Rechtskenntnissen und der Beherrschung der juristischen Methoden;597 das ausschließliche Operationsbesteck dabei ist die natürliche – die menschli­ che – Sprache, welche Verbreitungsmodus der Gesetze (vgl. Art. 20 Abs. 3, Art. 97 Abs. 1 GG) und auch des juristischen Erkenntnisstands ist.598 Rechtsgelehrtheit umfasst mehr als die Fähigkeit, programmierte oder an­ trainierte Regeln in eng begrenzten Teilbereichen anzuwenden. Sie erfordert, dass der Rechtsanwender auf Unvorhergesehenes reagieren und eigenständig, unabhängig, autonom entscheiden kann. Rechtsprechung ist ein Prozess, kein rein rationales Endprodukt. Dass die Rechtsordnung bewusst auch Laienrich­ ter mit Rechtsprechungsaufgaben betreut, macht zudem deutlich, dass sich die „rechtsprechende Gewalt“ nicht auf juristische Exegese beschränkt.599 So sind auch soziale Kompetenz und die Fähigkeit zur kommunikativen Ge­ sprächs- und Verhandlungsführung essenzielle Bestandteile richterlicher Hill, DRiZ 2012, 165 (165). Buchholtz, JuS 2017, 955 (955 f.), sowie bereits oben S. 208 ff. 599  Rüggeberg, VerwArch 1970, 189 (203). 597  Vgl. 598  Vgl.



V. Verfassungsrechtliche Direktiven281

Kompetenz, ohne die der Richterbegriff des Art. 92 Hs. 1 GG nicht vollstän­ dig wäre. Dem Recht auf eine richterliche Tatsacheninstanz600 kann eine vollautomatisierte Rechtsfindung nicht genügen. Die Analyse der technischen Grenzen601 hat gezeigt, dass die Fähigkeiten informationstechnischer Sys­ teme nicht die der menschlichen Richter erreichen.602 Der Richterbegriff ist daher dem Sinn und Zweck der Art. 92 ff. GG entsprechend natürlichen Per­ sonen vorbehalten. cc) Strukturelle Grenzen der Automatisierung – hypothetisch: Maschine erreicht Kompetenz des menschlichen Richters Vor dem Hintergrund der rasant fortschreitenden technischen Entwicklun­ gen, der gesteigerten Leistungsfähigkeit informationstechnischer Systeme und der wachsenden Datenmenge stellt sich die Frage, ob die Kopplung des Richterbegriffs in Art. 92 Hs. 1 GG an eine natürliche Person vom technischtatsächlichen Leistungsstand abhängt oder vielmehr struktureller Natur ist. Denn es erscheint nicht prinzipiell ausgeschlossen, dass etwa ein System maschinellen Lernens seine juristischen Fähigkeiten denen eines Rechtsas­ sessors jedenfalls annähert und ähnlich dem Richter, der Studium und Refe­ rendariat als Qualifizierungszeit durchläuft, programmiert und trainiert wird und sodann zwei Examina schreibt (vgl. § 5 DRiG). In Anbetracht der tat­ sächlichen Beschränkungen ist diese Frage freilich eine hypothetische.603 Dem Sinn und Zweck der Art. 92 ff. GG ist, insbesondere vor dem Hinter­ grund ihrer Entstehungsgeschichte und Bedeutung, insoweit eine klare Di­ rektive zu entnehmen: Das NS-Regime hat die Rechtsprechung ausgehöhlt und pervertiert,604 die Dritte Gewalt der nationalsozialistischen Ideologie entsprechend in eine entmenschlichende Rechtsprechung umgewandelt. Die­ ser Hintergrund scheint durchaus übertragbar auf das Gedankenexperiment einer automatisierten, entmenschlichten Rechtsprechung, woraus das „Ele­ ment des Menschlichen“ als Wert an sich folgt. Selbst wenn also Maschinen fachlich-inhaltlich alles das zu leisten im Stande wären, was den menschlichen Richter auszeichnet, die technischen Grenzen allesamt überwunden wären und Computer auch „rechtsgelehrt“ 600  Siehe

oben S. 273. oben S. 177 ff. 602  Ähnlich bereits Martini/Nink, DVBl 2018, 1128 (1136 f.). 603  Siehe dazu bereits oben S. 161  ff. Bisherige Digitalisierungsprozesse in der Justiz zielen bislang vor allem auf Einzelheiten der elektronischen Aktenführung und die Kommunikation unter den Beteiligten. 604  Hillgruber, in: Maunz/Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez 2007), Art. 92, Rn. 29: „Rechtsentartung im NS-Staat“. Siehe zur Historie bereits oben S. 267 ff. 601  Siehe

282

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

sein könnten, so schafft doch erst und nur die (natürliche) Person des Rich­ ters und nicht eine gewissenlose Maschine Vertrauen in die Dritte Gewalt. Die Rechtsprechung kann – auch vor dem Hintergrund der Menschenwürde­ garantie (Art. 1 Abs. 1 GG)605 auf ein Element des Empathischen, des Menschlichen, des sozial Kompetenten nicht verzichten; soziale Kompetenz aber ist etwas originär Natürliches. Die Eigenverantwortlichkeit der Entscheidungsfindung606 kommt nur dem menschlichen Entscheider zu. Dass der Richterbegriff des Art. 92 Hs. 1 GG eine natürliche Person voraussetzt und eine Maschine nicht erfasst sein kann, ist daher nicht nur an die (fehlenden) Kompetenzen, also die technischen Hürden automatisierter Systeme geknüpft, sondern hat auch grundsätzlichere, strukturelle Gründe. f) Konkretisierungen im DRiG Wenngleich nachkonstitutionelles einfaches Gesetzesrecht grundsätzlich nicht geeignet ist, Verfassungsrecht zu formen und dessen Auslegung zu lei­ ten, kommt insbesondere dem DRiG eine konkretisierende Funktion zu, die jedenfalls die bisherigen Argumente zu unterstreichen vermag. Die einfach­ gesetzliche Ausgestaltung und Konkretisierung der Anforderungen an den Richter und dessen Ernennung (vgl. insbesondere §§ 1, 2, 5, 9, 25, 26 DRiG) geht implizit davon aus, dass der Richter eine natürliche Person sein muss (vgl. auch 27 Abs. 1 DRiG: „Richter auf Lebenszeit“).607 Die für den Berufsrichter in § 9 DRiG normierten materiellen Ernennungs­ voraussetzungen sind über Art. 33 Abs. 2 GG bei Einstellungen und Beförde­ rungen stets zu beachten.608 Der Richter muss „Deutscher“ sein (§ 9 Nr. 1 DRiG); die Ernennung von Nichtdeutschen ist nichtig (§ 18 Abs. 2 Nr. 1 DRiG), Ausnahmen sind nicht möglich.609 Ob die Deutscheneigenschaft (i. S. d. Art. 116 GG) zwingend aus der Verfassung selbst folgt, also Teil der allgemeinen Grundsätze des Beamtentums bzw. Richterrechts (Art. 33 Abs. 5 605  Ist etwa die Subjektstellung desjenigen, der von der Entscheidung betroffen ist, bedroht, schiebt auch Art. 1 Abs. 1 GG der Automatisierung einen Riegel vor. Vgl. dazu im Einzelnen unten S. 348 ff. 606  Vgl. Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 92, Rn. 53. 607  Auch die Verfahrensordnungen gehen davon aus: So regelt bspw. § 348 Abs. 1 S. 1 ZPO, dass im Grundsatz die Zivilkammer „durch eines ihrer Mitglieder als Ein­ zelrichter“ entscheidet. 608  Das gilt bis zur obersten Ebene, etwa der Ernennung von Bundesrichtern, vgl. BVerfGE 143, 22 (33). 609  Schmidt-Räntsch, DRiG, 6. Aufl., 2009, § 9, Rn. 3.



V. Verfassungsrechtliche Direktiven283

GG) ist, ist umstritten.610 Nur sofern die Deutscheneigenschaft tatsächlich zum „Kerngehalt der beamtenrechtlichen Grundsätze“611 gehören sollte, er­ gibt sich aus Art. 33 Abs. 5 GG ein verfassungsrechtliches (vgl. § 18 Abs. 2 S. 1 DRiG) Verbot, Ausländer zu Richtern zu ernennen. Wenn aber eine Maschine nach dem Telos des Art. 92 Hs. 1 GG nicht „Richter“ sein kann, entfaltet das Kriterium der Deutscheneigenschaft für den Einsatz entschei­ dungsunterstützender Informationstechnik keine Relevanz: „Deutscher“ be­ zieht sich auf die Staatsangehörigkeit natürlicher Personen, nicht auf den Herstellungsort eines Algorithmus.612 § 9 Nr. 4 DRiG verlangt dem Richter daneben die „erforderliche soziale Kompetenz“ ab. Diese umfasst „die über die fachliche Eignung bei Rechts­ anwendung und ‑gestaltung hinausgehende Fähigkeit, mit Menschen in ge­ richtlichen Verfahren oder innerhalb der Justiz angemessen umgehen zu können“613 – also Zuhören, Verhandeln, Ausgleichen, Konflikt- und Ent­ schlussfähigkeit, Kooperationsfähigkeit und soziales Verständnis. Der Geset­ zesentwurf zur Reform der Juristenausbildung (2001) ging noch deutlich weiter und verlangte neben der erforderlichen sozialen Kompetenz auch Be­ rufs- und Lebenserfahrung, nachzuweisen insbesondere durch eine zweijäh­ rige Tätigkeit als Anwalt oder in einem anderen vergleichbaren juristischen Beruf.614 Die genannten Fähigkeiten sind (jedenfalls noch) nicht maschinell abbildbar.615 610  So Bochmann, ZBR 2007, 1 (11  f.); Burkiczak, in: Friauf/Höfling (Hrsg.), Berl.-Komm. GG, 37. Erg.-Lfg. (2012), Art. 92, Rn. 78 m. w. N.; a. A. Jarass, in: Ja­ rass/Pieroth (Hrsg.), 15. Aufl., 2018, Art. 33, Rn. 51, 57. 611  Vgl. BVerfGE 117, 372 (380). 612  Daneben gehört es indes zu den verfassungsrechtlich abgesicherten herge­ brachten Grundsätzen des Berufsbeamten- und Richtertums, dass die Staatsdiener die Gewähr dafür bieten, jederzeit für die freiheitlich-demokratische Grundordnung ein­ zutreten, vgl. BVerfGE 39, 334 (346 ff.). Wie diese als einfachgesetzlich konkreti­ sierte Pflicht ausgestaltete Gewähr der Verfassungstreue (§ 9 Nr. 2 DRiG) vor der Richterernennung festzustellen ist, regelt § 9 DRiG aber nicht, vgl. Schmidt-Räntsch, DRiG, 6. Aufl., 2009, Rn. 14 f. Die Verfassungstreue einer Maschine zu prüfen, stieße auch methodisch an Grenzen. 613  Staats, DRiG, 2012, § 9, Rn. 13. 614  BT-Drs. 14/7176, S. 4, 8, 14. Die aktuelle Fassung des § 9 DRiG ist seit 1.7.2003 in Kraft. Vgl. auch BT-Drs. 14/8629 (Beschlussempfehlung und Bericht). Siehe ergänzend § 5a Abs. 3 DRiG zu den (zusätzlich) geforderten Schlüsselqualifi­ kationen sowie dazu Kaufmann, Schlüsselqualifikationen für Juristen – Muss das denn sein?, in: Boorberg Verlag (Hrsg.), Soft Skills im Trend – Kompetenz, Kommu­ nikation und Recht, 2017, S. 15 (15 ff.). 615  Vgl. die Darstellung der technischen Hürden oben S. 177 ff. Zwar ist durch­ aus vorstellbar, dass ein System maschinellen Lernens aus historischen Datensätzen (rechtskräftiger Urteile) implizit lernt, wie sich die soziale Kompetenz der Richter in der Entscheidungsfindung ausgewirkt hat. Soziales Verständnis und die Fähigkeit zu

284

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

In diese Richtung weist auch der Richtereid (§ 38 Abs. 1 DRiG): Der Richter schwört, das Richteramt getreu dem Grundgesetz und dem Gesetz auszuüben, nach bestem Wissen und Gewissen ohne Ansehen der Person zu urteilen und nur der Wahrheit und Gerechtigkeit zu dienen. Nach der Syste­ matik des DRiG – 5. Abschnitt des 1. Teils: besondere Pflichten des Rich­ ters – benennt der Eid die Hauptpflichten des Richters, insbesondere die Pflicht zur inneren Unabhängigkeit.616 Der Inhalt der Eidesformel lässt es jedenfalls schwer vorstellbar erscheinen, dass eine Maschine einen Eid auf die Verfassung und das Gesetz leistet und „nach bestem Wissen und Gewis­ sen“ agiert.617 g) Landesrecht aa) Terminologie in den Landesverfassungen In den Landesverfassungen finden sich unterschiedliche normative Fest­ schreibungen der rechtsprechenden Gewalt. Gemeinsam ist ihnen, dass sie die richterliche Unabhängigkeit und die Bindung der Richter (ausschließlich) an das Gesetz festschreiben, so etwa in Art. 65 Abs. 2 LV BW: Die Richter sind unabhängig und nur dem Gesetz unterworfen.618 Zusätzlich konkretisieren einige Landesverfassungen den Richterbegriff aber näher als das Grundgesetz. Sie zeichnen nicht allein das Bild des Rich­ ters als Berufsstand, als Institution – das Richtertum –, sondern personalisie­ ren diese Institution. So heißt es etwa in Art. 79 Abs. 2 LV Ber: An der Rechtspflege sind Männer und Frauen aller Volksschichten nach Maßgabe der gesetzlichen Bestimmungen zu beteiligen. Die Bezugnahme auf „Männer und Frauen aus dem Volk(e)“ findet sich auch in den Landesverfassungen von Bremen (Art. 135 Abs. 2 S. 1 LV Brem), Hamburg (Art. 62 S. 2 LV Hbg), Nordrhein-Westfalen (Art. 72 Abs. 2 LV Nrw), Sachsen (Art. 77 Abs. 3 LV Sachs) und Thüringen (Art. 86 Abs. 3 LV Thür). Daneben sprechen meh­ einer empathischen Verhandlungsführung und Kommunikation sind damit indes noch nicht erreicht. 616  Er begründet allerdings keine eigenständigen, durchsetzbaren Pflichten, vgl. Staats, DRiG, 2012, § 38 Rn. 2. 617  Umgekehrt scheint aber auch nicht ausgeschlossen, dass die Objektivität und Rationalität eines Algorithmus die Wendung „ohne Ansehen der Person zu urteilen“ womöglich besser als ein Mensch erfüllen könnte. Siehe zum Begriff des Gewissens ergänzend sogleich unten S. 285 f. 618  Ähnlich Art. 5 Abs. 3, Art. 85 LV Bay; Art. 79 Abs. 1 LV Ber; Art. 108 Abs. 1 LV Bbg; Art. 135 Abs. 1 LV Brem; Art. 62 S. 1 LV Hbg; Art. 126 Abs. 2 LV Hess; Art. 76 Abs. 1 S. 2 LV M-V; Art. 51 Abs. 4 LV Nds; Art. 3 Abs. 3 LV Nrw; Art. 121 LV Rlp; Art. 101 S. 1 LV Saarl; Art. 77 Abs. 2 LV Sachs; Art. 83 Abs. 2 LV S-A; Art. 50 Abs. 1 S. 2 LV S-H; Art. 86 Abs. 2 LV Thür.



V. Verfassungsrechtliche Direktiven285

rere Normen von „Berufsrichterinnen und Berufsrichtern“, „Richterinnen und Richtern“ oder auch „ehrenamtlichen Richterinnen oder Richtern“.619 Darüber hinaus enthalten einzelne Landesverfassungen semantische Fein­ heiten, die Rückschlüsse auf die Frage erlauben, ob Richter natürliche Perso­ nen sein müssen. So heißt es in Art. 78 LV Ber: Die Rechtspflege ist im Geist dieser Verfassung und des sozialen Verständnisses auszuüben. Art. 136 Abs. 2 LV Brem legt fest: Die rechtsgelehrten Richter werden auf Lebenszeit berufen, wenn sie nach ihrer Persönlichkeit und ihrer bisherigen juristischen Tätigkeit die Gewähr dafür bieten, dass sie ihr Amt im Geiste der Menschen­ rechte, wie sie in der Verfassung niedergelegt sind, und der sozialen Gerech­ tigkeit ausüben werden. In Hamburg werden gem. Art. 63 Abs. 2 LV Hbg die Berufsrichterinnen und Berufsrichter auf Lebenszeit ernannt; sie müssen nach ihrer Persönlichkeit und nach ihren Fähigkeiten die Gewähr dafür bie­ ten, dass sie den Aufgaben ihres Amtes gewachsen sind und insbesondere im Amte und außerhalb des Amtes nicht gegen die Grundsätze des Grundgeset­ zes sowie der Landesverfassung verstoßen werden – vor ihrer Ernennung sind Persönlichkeit und fachliche Eignung zu prüfen. Art. 110 S. 2 LV Saarl verpflichtet die Richter zusätzlich, ihr Amt in der Bindung an das Gesetz im Geist des demokratischen und sozialen Rechtsstaates auszuüben. Gesetzesbindung und richterliche Unabhängigkeit sind also übereinstim­ mende Kernpunkte der normativen Vorgaben in den Landesverfassungen. Soweit einzelne Bestimmungen daneben „Männer und Frauen aus dem Volke“ oder „Berufsrichterinnen und Berufsrichter“ zum Gegenstand haben, behandeln sie nicht mehr nur den Richter als Berufsträger bzw. als staatliche Institution (Richtertum), sondern implizieren seine Menschsein-Eigenschaft. Auch der Passus „auf Lebenszeit“ ist nur verständlich, wenn die Richter na­ türliche Personen sind. Gleiches gilt für Termini wie „soziales Verständnis“, „Persönlichkeit“ oder „fachliche und persönliche Eignung“. Einen weiteren Aspekt bringt die Verfassung des Landes Rheinland-Pfalz in ihrem Art. 121 ein: Die richterliche Gewalt üben im Namen des Volkes unabhängige, allein der Verfassung, dem Gesetz und ihrem Gewissen unterworfene Richter aus. Im allgemeinen Sprachgebrauch meint „Gewissen“ das Bewusstsein von Gut und Böse des eigenen Tuns bzw. das Bewusstsein der Verpflichtung einer bestimmten Instanz gegenüber. Als Adjektiv (gewissen­ haft) bedeutet es „mit großer Genauigkeit und Sorgfalt vorgehend“ bzw. als negatives Pendant (gewissenlos) „jedes Empfinden für Gut und Böse seines Tuns vermissen lassend; kein moralisches Empfinden besitzend“.620 Im rechtlichen Kontext umriss das BVerfG den Begriff in größerem Umfang 619  So etwa in Hamburg (Art.  63 Abs. 2 LV Hbg), Niedersachsen (Art. 51 Abs. 2–4 LV Nds) und Schleswig-Holstein (Art. 51 Abs. 1 S. 1 LV S-H). 620  Duden, Online-Wörterbuch, www.duden.de (10.6.2020), Stichwort: „Gewissen“.

286

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

bereits 1961 – in einem Beschluss zur Verweigerung des Kriegsdienstes mit der Waffe:621 „Eine Gewissensentscheidung wird […] stets angesichts einer bestimmten Lage getroffen, in der es innerlich unabweisbar wird, sich zu entscheiden; der Ruf des Gewissens wird dem Einzelnen vernehmbar als eine sittliche und unbedingt verbindliche Entscheidung über das ihm gebotene Verhalten. In diesem Sinn ist die Gewissensentscheidung wesenhaft und immer ‚situationsbezogen‘; daß sie zugleich ‚normbezogen‘ sein kann, etwa wenn es sich um die Bewährung einer grundsätzli­ chen weltanschaulichen Überzeugung oder Glaubenshaltung handelt, wird damit nicht geleugnet […]. Als eine Gewissensentscheidung ist somit jede ernste sittliche, d. h. an den Kategorien von ‚Gut‘ und ‚Böse‘ orientierte Entscheidung anzusehen, die der Einzelne in einer bestimmten Lage als für sich bindend und unbedingt verpflichtend innerlich erfährt, so daß er gegen sie nicht ohne ernste Gewissensnot handeln könnte.“ (Her­ vorhebungen nicht im Original)

Jedenfalls für Art. 4 Abs. 3 GG betont das BVerfG ausdrücklich, dass der Begriff des Gewissens im Sinne des allgemeinen Sprachgebrauchs zu verste­ hen ist.622 Wenngleich der Kontext ein anderer ist – Auslegung und Reich­ weite des Art. 4 Abs. 3 S. 1 GG – bietet der Beschluss des BVerfG Orientie­ rung über das Wesen einer Gewissensentscheidung. Ob ein Kriegsdienstver­ weigerer sich auf sein Gewissen beruft oder ein Richter in der gerichtlichen Entscheidungsfindung seinem Gewissen unterworfen ist, führt nicht zu ver­ schiedenen Gehalten des Gewissensbegriffs. Jede gewissenhafte Entschei­ dung bedingt eine irgendwie geartete Abwägung über sittlich-moralische Maßstäbe, eben „Gut und Böse“. Derlei ethische Vorgänge und Abwägungen sind originär menschliche Attribute. Algorithmen, Softwaresysteme und Ma­ schinen haben kein Gewissen. Sie wenden nur diejenigen (einzelnen) Regeln an, die die Entwickler ihnen vorgeben, bzw. sie richten ihre Vorgehensweise an einer konkreten Zielvorgabe aus. In „Gewissensnot“ zu geraten ist ihnen naturgemäß fremd. „Gewissen“ lässt sich nicht in allgemeingültige, abstra­ hierte Regeln fassen und codieren. Dem eigenen (!) „Gewissen unterworfen“ können letztlich nur natürliche Personen sein. Auch die Landesverfassungen gehen also im Ergebnis vom Richter als ei­ ner natürlichen Person aus. bb) Einfachgesetzliches Landesrecht Art. 92 Hs. 2 GG etabliert die rechtsprechende Gewalt auch „durch die Gerichte der Länder“, sodass die Frage aufscheinen mag, ob das (einfachge­ 621  BVerfGE 622  BVerfGE

12, 45 (55). 12, 45 (54).



V. Verfassungsrechtliche Direktiven287

setzliche) Landesrecht definieren könnte, dass „Gericht“ auch ein Soft­ waresystem sein könnte. Denn der Bund darf jedenfalls (nur) das BVerfG (Art. 93, 94 GG) sowie die in Art. 95 GG obligatorisch und in Art. 96 GG fakultativ vorgesehenen Bundesgerichte errichten; die Errichtung aller sons­ tigen Gerichte ist Ländersache.623 Insbesondere, wem der einfache Gesetzge­ ber ein Richteramt überantworten darf, legt das Grundgesetz nicht ausdrück­ lich selbst fest (Art. 98 Abs. 1 und 3 GG). Die Rechtsstellung der Landes­ richter auszugestalten, ist ebenfalls Sache des Landesgesetzgebers. Die Ge­ richte zu errichten und zu organisieren, steht indes normativ nicht auf derselben Stufe wie der Richter- bzw. der Rechtsprechungsbegriff des Grundgesetzes: Die Länder könnten nicht eigenmächtig entgegen der grund­ gesetzlichen Wertung des Art. 92 Hs. 1 festlegen, wer „Richter“ sein darf. h) Richter und Ewigkeitsgarantie Eine Änderung des Grundgesetzes, durch welche die in den Art. 1 und 20 GG niedergelegten Grundsätze berührt werden, ist unzulässig und verfas­ sungsrechtlich ausgeschlossen: Art. 79 Abs. 3 GG bildet als sog. Ewigkeits­ garantie eine absolute (materielle) Schranke jeder Verfassungsrevision. Die Verfassung zeigt sich Wandlungen gegenüber zwar nicht vollständig ver­ schlossen. Soweit er jedoch als Ausprägung des Gewaltenteilungsgrundsatzes (Art. 20 Abs. 2 S. 2 GG) fungiert,624 nimmt Art. 92 GG an der Ewigkeitsga­ rantie des Art. 79 Abs. 3 GG teil und ist geschützt gegenüber Eingriffen des verfassungsändernden Gesetzgebers.625 i) Zwischenergebnis Wenngleich dem Menschen in begrenzten Teilbereichen überlegen, kann ein informationstechnisches System nicht „Richter“ i. S. d. Art. 92 Hs. 1 GG sein. Der Begriff ist nach verfassungsrechtlicher Wertung natürlichen Perso­ nen vorbehalten. Das Grundgesetz vertraut allein den (menschlichen) Rich­ tern die rechtsprechende Gewalt an und verlangt ihnen Eigenschaften ab, die eine Maschine nicht erfüllen kann – etwa die Fähigkeit zu qualitativen Wer­ tungen und Interpretationen auf Grundlage der natürlichen Sprache, zur Er­ 623  Vgl. BVerfGE 8, 174 (176); 10, 200 (213); BVerwGE 32, 21 (23); Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 92, Rn. 36; Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 92, Rn. 63. 624  Vgl. oben S. 272, dort insbesondere die Nachweise in Fn. 557. 625  Vgl. etwa Detterbeck, in: Sachs (Hrsg.), GG, 8. Aufl., 2018, Art. 92, Rn. 18; Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 92, Rn. 31; Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 92, Rn. 67.

288

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

messensausübung, zur Herstellung von Einzelfallgerechtigkeit sowie zu Em­ pathie und der Abschätzung sozialer Folgen einer Entscheidung.626 Eine vollständige Automatisierung der Rechtsprechung ist damit ausge­ schlossen.627 Der Weg eines entscheidungsunterstützenden, etwa -vorbereiten­ den Einsatzes informationstechnischer Systeme in der Justiz ist dadurch aber nicht versperrt, sondern grundsätzlich mit Art. 92 Hs. 1 GG vereinbar. Nimmt ein System schon keine Aufgaben rechtsprechender Gewalt wahr, gerät es mit Art. 92 GG nicht in Konflikt. Friktionen entstehen erst dort, wo die Funkti­ onsweise des Systems in den Rechtsprechungsbereich hineinwirkt, den die Verfassung den Richtern vorbehält: Art. 92 GG verlangt dann, dass es letzt­ endlich der Richter ist (und bleibt), der die Entscheidung trifft und verantwor­ tet. Die maßgebliche Grenze denkbarer Teilautomatisierungsbestrebungen bildet indes nicht Art. 92 Hs. 1 GG, sondern die Reichweite des Art. 97 Abs. 1 GG: Es bleibt eine Frage der praktischen Ausgestaltung, wie weit ein Tech­ nikeinsatz gehen kann, ohne die sachliche Unabhängigkeit zu verletzen, wel­ che die Verfassung allein dem (menschlichen) Richter vorbehält. 2. (Teil-)Automatisierung und richterliche Unabhängigkeit, Art. 97 Abs. 1 GG a) Problemstellung – Algorithmen und die sachliche Unabhängigkeit Die Richter sind unabhängig und nur dem Gesetz unterworfen (Art. 97 Abs. 1 GG). Der Schutz der Unabhängigkeitsgarantie greift schon dann, wenn ein Dritter den Richter zu einer bestimmten Verfahrens- oder Sachent­ scheidung bewegen könnte.628 Sie bewahrt den Richter nicht nur vor unmit­ telbaren, sondern auch vor indirekten, mittelbaren Beeinflussungen.629 Gleichsam als Kehrseite der richterlichen Unabhängigkeit verlangt das Grundgesetz dem Richter Unvoreingenommenheit gegenüber den Parteien und ihren Anliegen ab.630 626  Siehe zu den technischen Grenzen bzw. Hürden oben S. 177 ff., Zwischenfa­ zit auf S. 242 f. 627  So im Ergebnis auch Justizministerkonferenz 2019, Legal Tech: Herausforde­ rungen für die Justiz, 1.7.2019, S. 54 f., sowie (jedoch ohne nähere Begründung) Ministerium der Justiz des Landes Nordrhein-Westfalen, Künstliche Intelligenz in der Justiz, Dezember 2018, S. 2: „Dem Einsatz von KI kann in der Justiz deshalb nur unterstützende Funktion zukommen“. 628  BGHZ 57, 344 (349). 629  Meyer, in: Münch/Kunig (Hrsg.), 6. Aufl., 2012, Art. 97, Rn. 3; Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 97, Rn. 15, 19. 630  Siehe zur „inneren Unabhängigkeit“ bereits oben S. 103 ff.



V. Verfassungsrechtliche Direktiven289

Ein entscheidungsvorbereitender oder -unterstützender Technikeinsatz an den Gerichten darf nur so weit reichen, wie er die verfassungsrechtlich ga­ rantierte richterliche Unabhängigkeit nicht antastet. Der Sachentscheidungs­ prozess obliegt allein dem Richter als „Treuhänder des Rechts“631, nicht dem Entwickler eines (entscheidungsunterstützenden) Softwaresystems und auch nicht der Exekutive, etwa den Justizministerien bzw. der Justizverwaltung, qua Auswahl der eingesetzten IT. b) Beispiel Metadaten in der Justiz Der Einsatz neuer Technologien in der Justiz muss verschiedenen Zielen und Interessen gerecht werden. So entsteht ein Spannungsverhältnis etwa zwischen der richterlichen Unabhängigkeit und Anforderungen der IT-Si­ cherheit.632 Die praktische richterliche Arbeit unterstützende informations­ technische Hilfsmittel, bspw. ein Datenaustausch per Cloud, „eigene“, nicht von der Justizverwaltung kontrollierte Unterstützungsprogramme, Datenab­ gleiche zwischen dienstlichen und privaten Geräten u. a. m., kann der Staat nur mit einem Mindestmaß an IT-Sicherheit akzeptieren. Maßnahmen wie die Sperrung ausführbarer (bspw. „.exe“) Dateien, Vorkehrungen der Schnitt­ stellenkontrolle, der Einsatz von Verschlüsselungstechnologie, die Regulie­ rung von E-Mail-Weiterleitungen oder das Ausmaß von Hintergrundproto­ kollierungen – all dies kann indes die Flexibilität der richterlichen Arbeits­ weise einschränken und damit seine Unabhängigkeit gefährden.633 Besonders plastisch wird dieses Spannungsverhältnis im Zusammenhang mit der Einführung elektronischer Akten und den in der Justiz anfallenden Metadaten. Metadaten sind Daten über Daten, genauer: strukturierte Informa­ tionen über andere Daten.634 Bei der elektronischen Aktenführung fallen Metadaten zwangsläufig an. Sie dienen hier der Beschreibung, der Ordnung und der Klassifizierung elektronischer Dokumente, also der Aktenbestand­ teile. Die beschreibenden Informationen treffen Aussagen über die Eigen­ schaften der elektronischen Dokumente (insbesondere Schriftgutobjekte) und auch deren inhaltliche Zusammenhänge; zumindest aber ermöglichen sie 631  Meyer,

in: Münch/Kunig (Hrsg.), 6. Aufl., 2012, Art. 97, Rn. 1. jM 2016, 334 (334 ff.); Krüger/Möllers et al., Richterliche Unabhän­ gigkeit und Bring Your Own Device, in: Schweighofer/Kummer/Hötzendorfer et al. (Hrsg.), IRIS 2017 Tagungsband, 2017, S. 295 (296 ff.). 633  Berlit, jM 2016, 334 (339): „IT-Sicherheit und richterliche Unabhängigkeit kommen nur bei mehr Aufklärung und sachlichem Diskurs zueinander“. 634  Vgl. auch die etwas weitere Definition bei Rühle/Kompetenzzentrum interoperable Metadaten, Kleines Handbuch Metadaten, 2012, S. 2: „strukturierte Da­ ten zur einheitlichen Beschreibung von Ressourcen jeglicher Art (z. B. Daten, Doku­ mente, Personen, Gemälde, Orte, Gebäude, Konzepte)“. 632  Berlit,

290

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

fundierte Rückschlüsse. Schon aus allgemeinen Sicherheitsüberlegungen so­ wie zur Nachvollziehbarkeit der Vorgänge muss ersichtlich sein, wer wann Zugriff auf eine Gerichtsakte hatte.635 Die dabei entstehenden Metadaten enthalten daneben auch Informationen über den Ersteller, die Dokumenten­ art, das Eingangsdatum sowie auch die Uhrzeiten der Bearbeitung. Dass sich daraus theoretisch Persönlichkeitsprofile (der Aktenbearbeiter) erstellen las­ sen, liegt auf der Hand. Da Art. 97 Abs. 1 GG jede vermeidbare (auch sub­ tile) Einflussnahme in den richterlichen Entscheidungsprozess verbietet, ma­ nifestiert die elektronische Aktenführung in der Justiz grundsätzlich ein er­ höhtes Gefährdungspotenzial für die richterliche Unabhängigkeit.636 Allgemein ist auch eine (einfachgesetzlich ausgestaltete) Dienstaufsicht über Richter (vgl. § 26 DRiG) nur insoweit vorgesehen, wie die richterliche Unabhängigkeit nicht beeinträchtigt ist; als probate Maßnahmen der Dienst­ aufsicht kennt § 26 Abs. 2 DRiG die Vorhaltung (der ordnungswidrigen Art der Ausführung eines Amtsgeschäfts) und die Ermahnung (zu ordnungsge­ mäßer, unverzögerter Erledigung der Amtsgeschäfte). Der IT-Einsatz in der Justiz eröffnet grundsätzlich Möglichkeiten einer (internen) Kontrolle rich­ terlicher Tätigkeit und damit indirekt auch der richterlichen Entscheidungs­ findung, die qualitativ wie quantitativ die Schwelle zulässiger Dienstaufsicht überschreiten können.637 Der BGH hatte bereits über diese Fragen zu richten, sich aber weniger eindeutig pro richterliche Unabhängigkeit positioniert. Nach seiner Ansicht beeinträchtigt eine dienstaufsichtliche Beobachtung des Gebrauchs techni­ scher Geräte, etwa um missbräuchlicher Benutzung für private Zwecke vor­ zubeugen, die richterliche Unabhängigkeit nicht, wenn dabei kein psychi­ scher oder sonstiger Druck auf die Rechtsfindung ausgeübt wird.638 Eine dabei technisch mögliche, aber nur „theoretische“ Zugriffsmöglichkeit auf den Inhalt richterlicher Dokumente sei nicht als ein solcher unzulässiger Druck anzusehen.639 Der BGH hatte im genannten Fall allerdings nicht dar­ 635  Berlit,

Betrifft Justiz 2015, 15 (19); Krüger/Möllers, MMR 2016, 728 (729 f.). MMR 2016, 728 (730). 637  Berlit, JurPC Web-Dok. 77/2012, Abs. 37; Krüger/Möllers, MMR 2016, 728 (729). 638  BGH, DRiZ 2012, 169 (170); zustimmend wohl Staats, DRiG, 2012, § 26, Rn. 15. 639  BGH, DRiZ 2012, 169 (171). Dem Urteil des BGH zugrunde lag eine Ent­ scheidung des OLG Frankfurt als Dienstgerichtshof (vgl. BeckRS 2010, 14555). Die von der Rechtsprechung entwickelten Anforderungen zur Speicherung und Weiter­ gabe von Metadaten über richterliche Dokumente finden sich (beispielhaft für Hes­ sen) umgesetzt im „Gesetz zur Errichtung der Informationstechnik-Stelle der hessi­ schen Justiz (IT-Stelle) und zur Regelung justizorganisatorischer Angelegenheiten (IT-Stelle-ErrichtungsG)“ vom 16.12.2011 (GVBl. I 2011, S. 778). 636  Krüger/Möllers,



V. Verfassungsrechtliche Direktiven291

über zu entscheiden, ob eine (systematische) Auswertung von Metadaten aus elektronischen Gerichtsakten allgemein mit der richterlichen Unabhängigkeit in Konflikt geraten kann. Das Urteil macht immerhin deutlich, dass es von weitreichenden Auflagen abhängig sein muss, die Verwaltung des gerichtli­ chen EDV-Netzes einer entsprechenden Zentrale für Datenverarbeitung zu überlassen; gerade durch diese Auflagen besteht für die Richter kein Grund zur Annahme, die Daten würden zur inhaltlichen Kontrolle richterlicher Do­ kumente im Kernbereich richterlicher Unabhängigkeit genutzt. c) Rückschluss auf die Grenzen eines IT-Einsatzes aa) Parallelen zur Dienstaufsicht Wenn bereits die praktische Organisation bzw. Ausgestaltung der Akten­ führung die richterliche Unabhängigkeit gefährden kann, gilt das für den Einsatz entscheidungsvorbereitender oder -unterstützender Computerpro­ gramme und Algorithmen erst recht. Was die Auswahl der bislang eingesetz­ ten Informationstechnik betrifft, forderte der Deutsche Richterbund bereits 2013, dass die Justiz stets eine gewisse „Eigenverantwortung und Gestal­ tungshoheit für die eingesetzte IT“ haben muss, um externe Einflüsse in die Entscheidungsfindung zu vermeiden.640 Ein Algorithmeneinsatz zur Entscheidungsunterstützung bedürfte also (erst recht) eindeutiger Vorgaben und Auflagen, um eine grundgesetzwidrige (inhaltliche) Beeinflussung des Rich­ ters bereits im Keim zu ersticken. Für den Kernbereich der richterlichen Tätigkeit besteht eine staatliche Schutzpflicht. Sie umfasst insbesondere die letztverbindliche Klärung einer Rechtsfrage durch richterliche Entscheidung und deren Vorbereitung.641 Die bisherige BGH-Judikatur zum Kernbereich richterlicher Tätigkeit642 bezog sich jeweils auf die Zulässigkeit dienstaufsichtlicher Maßnahmen (vgl. erneut § 26 Abs. 1 DRiG: Der Richter untersteht einer Dienstaufsicht nur, soweit nicht seine Unabhängigkeit beeinträchtigt wird). Diese Grenzziehungen las­ 640  Deutscher Richterbund, Zehn-Punkte-Papier zur Stärkung des Rechtsstaats, Mai 2013, S. 8 f. Notwendig seien insbesondere verbindliche Regelungen etwaiger Zugriffsbefugnisse. 641  Die Unabhängigkeit schützt nicht nur den begrenzten Bereich der Entschei­ dungsfindung, sondern auch die ihr mittelbar dienenden und vorbereitenden (Sachund Verfahrens-)Entscheidungen, vgl. etwa BGHZ 42, 163 (167 ff.); 47, 275 (286); 90, 41 (45); 102, 369 (372); Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 97, Rn. 29. 642  Vgl. etwa BGHZ 42, 163 ff.; 46, 147 ff.; 90, 41 ff.; 102, 369 ff. Siehe dazu auch Staats, DRiG, 2012, § 26, Rn. 14 ff.; zur Kritik an der Kernbereichslehre des BGH Schmidt-Räntsch, DRiG, 6. Aufl., 2009, § 26, Rn. 32 ff.

292

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

sen aber Rückschlüsse auf den zulässigen Umfang des IT-Einsatzes in der Justiz zu643 – die Dienstaufsicht und der Einsatz neuer Technologien sind strukturell vergleichbar, können beide doch die richterliche Tätigkeit beein­ flussen und verändern. Der BGH unterscheidet zwischen dem inneren Kernbereich, der jeder Dienstaufsicht entzogen ist, und dem Bereich der äußeren Ordnung, in dem dienstaufsichtliche Maßnahmen zulässig sind. Er gibt aber keine Aufzählung der Fälle, in denen die richterliche Unabhängigkeit unzulässigerweise berührt ist, sondern verweist auf die bewusste gesetzgeberische Entscheidung für eine weiche Formulierung, welche die vielfältigen Fallkonstellationen ad­ äquat fassen kann.644 Die Maßnahmen (der Dienstaufsicht) dürfen allein das Ziel verfolgen, die staatliche Justizgewährleistung sicherzustellen, also letzt­ lich (auch) die Gesetzesbindung der richterlichen Tätigkeit einzufordern;645 dafür streitet auch die gesetzliche Ausgestaltung in § 26 Abs. 2 DRiG. Zum Kernbereich zählt auch die materielle Vor- und Nachbereitung des Richter­ spruchs646 – Terminbestimmungen, Fristsetzungen, Zeugenvernehmungen, sitzungspolizeiliche Maßnahmen, Abfassen der Entscheidungsgründe – sowie auch die mündliche Verhandlung insgesamt.647 Unzulässig ist jede vermeid­ bare Beeinflussung. Vermeidbar wiederum sind Einflussnahmen, die nicht zum Erhalt der Funktionsfähigkeit der Justiz erforderlich sind.648 Dagegen enthält der äußere Ordnungsbereich, welcher der Garantie des Art. 97 Abs. 1 GG entrückt ist, insbesondere Form- und Organisationsfragen:649 Die grund­ sätzliche Art und Weise der Arbeit an den Gerichten, also reine „Formalia“ der Aufgabenwahrnehmung, unterfallen dem grundgesetzlichen Schutz nicht. In Fragen der äußeren Ordnung bzw. solchen, die die äußere Form der Erle­ digung richterlicher Kernbereichstätigkeiten adressieren, sind Kollisionen mit der sachlichen Unabhängigkeit nahezu ausgeschlossen.650 Vor dem Hintergrund dieser Rechtsprechung lässt sich konstatieren: Ein IT-Einsatz ist zulässig, soweit er allein als Änderung der Form wirkt. Der Grundsatz richterlicher Unabhängigkeit steht einem Einsatz neuer Technolo­ gien (erst) dort entgegen, wo dieser Aktivitäten aus dem Kernbereich richter­ licher Tätigkeit abbildet und auf diese Weise einer inhaltlichen Einflussnahme und zum Folgenden Ballhausen, IT-Einsatz in der Justiz, 2012, S. 71 ff. 42, 163 (169 f.). 645  Schilken, JZ 2006, 860 (863 f.). 646  Vgl. nur BGHZ 42, 163 (169 f.). 647  BGHZ 90, 41 (46); OLG Hamm, NVwZ-RR 2005, 77 (79). 648  Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 97, Rn. 28. 649  BGHZ 42, 163 (169 f.); 51, 280 (287). 650  Bernsdorff, in: Umbach/Clemens (Hrsg.), GG, 2002, Art. 97, Rn. 35. 643  Dazu

644  BGHZ



V. Verfassungsrechtliche Direktiven293

gleichkommt.651 Jedwede (inhaltliche) auch nur reflexartige Rückwirkung des IT-Einsatzes auf die richterliche Tätigkeit (i. S. einer Beeinflussung) ist zu vermeiden.652 bb) Überlegungen zur praktischen Ausgestaltung Die Kriterien, die der BGH und die Literatur für dienstaufsichtliche Maß­ nahmen entwickelt haben, sind allerdings nur strukturell, nicht en détail vergleichbar mit etwaigen Beeinflussungen durch den Einsatz entscheidungs­ unterstützender Systeme: Es ging dabei bisher um Controlling bzw. Kostenund Leistungsrechnung, Budgetzuweisungen an die Gerichte und deren Res­ sourcenverantwortung – was kein Problem darstellt, weil es an einer konkre­ ten Schnittstelle zwischen demjenigen, der das Budget zuweist, und dem einzelnen Richter mangelt – mithin um den Justizgewährleistungsanspruch und das auch dort geltende Gebot sparsamer Mittelverwendung.653 Art. 97 Abs. 1 GG ist in diesen Fällen (erst) verletzt, wenn ein (durch ökonomische Parameter erzeugter) Druck auf den Richter entsteht, der diesen verleitet, „ein bestimmtes Verfahren in bestimmter oder gar sachwidriger Weise“654 zu bearbeiten. Das ist bspw. der Fall, wenn die Justizverwaltung einen individu­ ellen Kostenaufwand mit einem unmittelbaren Zusammenhang zur richterli­ chen Entscheidungsfindung erörtert.655 Ein Verstoß gegen die richterliche Unabhängigkeit ist auch gegeben, wenn die Exekutive, etwa die Justizver­ waltung, Einfluss darauf nimmt, dass in den Entscheidungsgründen lediglich die von der vorgegebenen Software angebotenen Textbausteine Verwendung finden sollen bzw. dürfen.656 Hieraus wird teilweise der restriktive Schluss gezogen, ein Einsatz infor­ mationstechnischer Systeme „zur Rechtsprechung“ sei a priori ausgeschlos­ sen, ebenso wie ein Einsatz in der klassischen Justizverwaltung.657 Letzte­ rem stehe Art. 33 Abs. 4 GG entgegen, der einen Beamtenvorbehalt für grundrechtlich relevante Entscheidungen außerhalb der Rechtsprechung vor­ auch Ballhausen, IT-Einsatz in der Justiz, 2012, S. 75. in: Umbach/Clemens (Hrsg.), GG, 2002, Art. 97, Rn. 32 ff. 653  Vgl. Bernsdorff, in: Umbach/Clemens (Hrsg.), GG, 2002, Art. 97, Rn. 33  f. m. w. N. 654  Bernsdorff, in: Umbach/Clemens (Hrsg.), GG, 2002, Art. 97, Rn. 36 (Hervor­ hebung im Original). 655  Bernsdorff, in: Umbach/Clemens (Hrsg.), GG, 2002, Art. 97, Rn. 37; ähnlich Voss, DRiZ 1998, 379 (386). 656  Pitschas, ZRP 1998, 96 (101); Voss, DRiZ 1998, 379 (387); Bernsdorff, in: Umbach/Clemens (Hrsg.), GG, 2002, Art. 97, Rn. 37; vgl. auch Deutscher Richterbund, Zehn-Punkte-Papier zur Stärkung des Rechtsstaats, Mai 2013, S. 8. 657  So Ballhausen, IT-Einsatz in der Justiz, 2012, S. 83 ff., S. 156 f. 651  So

652  Bernsdorff,

294

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

sieht, soweit es um das Ausüben hoheitlicher Befugnisse geht. In Betracht komme ein IT-Einsatz somit lediglich im äußeren Ordnungsbereich, z. B. als Änderung von der Papier- zur elektronischen Akte, in der reinen Gerichtsver­ waltung sowie in der rein organisatorischen Vor- und Nachbereitung des Richterspruchs oder der Außenkommunikation.658 Ohne dieser restriktiven Ansicht im Einzelnen zu widersprechen, sei den­ noch die Frage aufgeworfen, ob bzw. wie auch ein weitergehender IT- bzw. Algorithmeneinsatz in der Rechtsprechung zulässig sein kann. Grundsätzlich erscheint dies nicht als unzulässig, solange die Grenzen des Art. 97 Abs. 1 GG beachtet sind. Der Einsatz entscheidungsunterstützender Systeme stünde somit unter dem Vorbehalt, dass der einzelne Richter jeweils selbst darüber entscheidet, ob er sie nutzt und wie er sie nutzt. Es bedürfte zusätzlich einer wiederholten, stetigen Selbstvergewisserung des Richters, dass die Vor­ schläge des Algorithmus nicht verbindlich sind und dass aus dem Abweichen von einem Vorschlag keine (negativen oder positiven!) Konsequenzen folgen. Letzteres ließe sich bspw. dadurch absichern, dass nur der zur Sachentschei­ dung berufene Richter den Vorschlag des Systems zu Gesicht bekommt. Mit klaren Leitplanken versehen, erscheint eine inhaltliche Unterstützung des Richters nicht länger a priori ausgeschlossen, sofern die alleinige Letztentscheidungsbefugnis des Richters und deren tatsächliche Ausübung durch geeignete Maßnahmen abgesichert sind.659 Mit der richterlichen Unabhän­ gigkeit ließe sich auch vice versa argumentieren: Ob der Richter (informa­ tionstechnische) Hilfsmittel für seine Entscheidungsfindung – in der er frei und autonom ist – zu Rate zieht, ist ihm selbst überlassen. 658  Ballhausen, IT-Einsatz in der Justiz, 2012, S. 108 ff., S. 158 f., entwirft dazu auch Grundlagen einer Realisierungsstrategie: Für die Realisierung kommt weder eine Aufgabenprivatisierung – diese könnte ebenfalls in Art. 92 Hs. 1, Art. 97 Abs. 1 und Art. 33 Abs. 4 GG einschneiden – noch eine sog. Organisationsprivatisierung – die Überführung staatlicher Organisationseinheiten in privatrechtliche organisierte Organisationen – in Betracht. Denkbar ist vielmehr eine funktionale Privatisierung, in der bspw. ein Privater lediglich die benötigten IT-Leistungen und Fachanwendungen entwickelt sowie die Rechenkapazitäten bereitstellt. Der Einsatz Privater dient dabei nur der hoheitlichen Aufgabe „Justizgewähr“ bzw. Rechtsprechung, stellt aber selbst kein staatliches Handeln dar. Ein besonderes Augenmerk wäre dabei auch auf die datenschutzrechtlichen Vorgaben zu richten: Der externe Dienstleister darf bspw. nicht nach eigenem Gutdünken entscheiden, welche Daten er wie verarbeitet. 659  Eben diese alleinige Letztentscheidungsbefugnis ist in dem Beispiel bei Pitschas, ZRP 1998, 96 (101) – in den Entscheidungsgründen dürfen lediglich die von der vorgegebenen Software angebotenen Textbausteine Verwendung finden – nicht gegeben. Vgl. auch Bernsdorff, in: Umbach/Clemens (Hrsg.), GG, 2002, Art. 97, Rn. 32, der, freilich in etwas anderem Kontext (Budgetierung etc.), betont, dass selbst eine „Output-Steuerung“ an den Gerichten nicht per se die richterliche Unabhängig­ keit gefährdet, sondern sie sogar festigen und garantieren kann.



V. Verfassungsrechtliche Direktiven295

cc) Grenzen des Einsatzes entscheidungsunterstützender Systeme Soweit ein System der Entscheidungsvorbereitung dient, ist es gerade Aus­ fluss der (sachlichen) Unabhängigkeit, dass sich der Richter auch anders entscheiden kann. Grundsätzlich denkbar scheint bspw., dass ein Algorithmus die Endentscheidung – etwa die Höhe einer Freiheitsstrafe im Strafprozess – „sachverständig beratend“ (unverbindlich) vorschlägt.660 Dem im Sinne des Art. 97 Abs. 1 GG unabhängigen Richter muss es aber immer möglich sein, vom Entscheidungsvorschlag abzuweichen. Auch bisher war z. B. für die elektronische Aktenführung anerkannt, dass Richtern bei etwaigen Vorgaben wie Textbausteinen oder Paragrafenangaben abweichende Arbeitsweisen grundsätzlich offenstehen mussten und müssen.661 Für richterliche Sachent­ scheidungen gilt dieser Grundsatz erst recht. (1) „Automation Bias“ und das Risiko der faktischen Bindungswirkung Mit den Rechenkapazitäten moderner Computer steigt auch das unbe­ wusste Zutrauen in die vermeintlich unfehlbaren metrischen Analysen der Softwaresysteme. In einem Experiment luden Forscher Probanden ein, sich von einem Roboter in einem Konferenzraum eines Experimentierlabors füh­ ren zu lassen.662 Die Teilnehmer machten in der Spielsituation aktiv die Erfahrung, dass der Roboter nicht fehlerfrei agiert, sondern sich einige Male verfährt. Dennoch verließen sie sich selbst dann nicht auf ihren gesunden Menschenverstand, sondern auf die Maschine, als eine Feueralarmsimulation den Raum vernebelte – und das, obwohl sichtbare Hinweisschilder den Not­ ausgang in die Freiheit zeigten.663 Der Terminus Automation Bias (etwa: „Automatisierungsdenkfehler“) be­ schreibt das psychologische Phänomen, dass Menschen sich insbesondere bei komplexen Tätigkeiten deutlich zu sehr auf entscheidungsunterstützende au­ tomatische Systeme verlassen.664 Man bevorzugt teilweise unkritisch die 660  Zu konkreten Anwendungsszenarien siehe unten S. 359 ff.; siehe speziell hin­ sichtlich eines Einsatzes zur Strafzumessung grundlegend auch Hörnle, Vorüberle­ gungen zu DSS in der Strafzumessung, in: Schünemann/Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (393 ff.), sowie Philipps, MschrKrim 1998, 263 (265 ff.). 661  Vgl. auch Deutscher Richterbund, Zehn-Punkte-Papier zur Stärkung des Rechtsstaats, Mai 2013, S. 8. 662  Robinette/Li et al., Overtrust of Robots, in: Bartneck/Nagai/Paiva et al. (Hrsg.), HRI 2016 Tagungsband, 2016, S. 101 (102 ff.). 663  Vgl. auch Martini, Blackbox Algorithmus, 2019, S. 48. 664  Skitka/Mosier et al., International Journal of Human-Computer Studies 51 (1999), 991 (998 ff.); Skitka/Mosier et al., International Journal of Human-Computer

296

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Entscheidungsvorschläge automatischer Systeme – auch dadurch, dass man kontradiktorische Informationen nicht berücksichtigt, selbst wenn sie korrekt sind.665 Das Vertrauen auf das automatische System bzw. dessen Vorschlag führt dazu, dass die Person nachfolgende Informationen weniger akribisch und wachsam sucht und verarbeitet. Bereits die reine Verfügbarkeit automa­ tisierter Entscheidungshilfen kann dazu führen, dass Menschen den Weg des geringsten kognitiven Aufwands wählen. Der Automation Bias ist bislang insbesondere in Bereichen der Medizin (etwa für Intensivstationen im Krankenhaus) sowie der Luft- und Raumfahrt (für kritische Entscheidungen im Cockpit) nachgewiesen und erforscht.666 Es ist aber grundsätzlich davon auszugehen, dass sich Menschen – durchschnitt­ lich – im Zweifel generell zu stark auf automatische Systeme verlassen und konträre Informationen eher außer Acht lassen. So konnte ein Experiment il­ lustrieren, dass auch Juristen bei Nutzung eines wissensbasierten Experten­ systems zur Lösung eines juristischen Falles die Richtigkeit automatisierter Entscheidungsfindung überschätzen, gegenläufige Informationen ignorieren sowie dem algorithmischen System zu sehr vertrauen und dessen Vorschläge geradezu nachlässig übernehmen.667 Überdies hielten die Probanden, wenn sie sowohl durch das System als auch durch eine andere Person beraten wur­ den, die Ratschläge des Systems für „rationaler und objektiver“ – auch dann, wenn diese jeweils identisch mit den menschlichen Vorschlägen waren. (2) Schlussfolgerungen Für einen möglichen Algorithmeneinsatz zur Unterstützung menschlicher Entscheidungen in der Justiz wäre wünschenswert, dass jedem Entscheider die Existenz des Automation Bias bewusst ist. Notwendig wären auch geeig­ Studies 52 (2000), 701 (702 ff.); siehe auch das Beispiel zur Luftfahrt und den positi­ ven Effekten von Teamarbeit bzw. Teamentscheidungen bei Mosier/Skitka et al., The International Journal of Aviation Psychology 11 (2001), 1 (1 ff.). 665  Einen aktuellen und systematischen Überblick über Forschung und Literatur bieten Lyell/Coiera, Journal of the American Medical Informatics Association 24 (2017), 423 (423 ff.) sowie (im Bereich medizinischer Systeme) Goddard/Roudsari et al., Journal of the American Medical Informatics Association 19 (2012), 121 (121 ff.). 666  Das übermäßige Vertrauen in die Automatisierung zeigt sich derzeit auch in der Forschung zum autonomen Fahren, siehe etwa Gold/Körber et al., Procedia Ma­ nufacturing 3 (2015), 3025 (3026 ff.). 667  Dijkstra, International Review of Law, Computers & Technology 15 (2001), 119 (120 ff.). Vgl. dazu ergänzend mit einem Blick auf ethische Gesichtspunkte beim Einsatz intelligenter Systeme in der Justiz Dymitruk, Ethical Artificial Intelligence in Judiciary, in: Schweighofer/Kummer/Saarenpää (Hrsg.), Internet of Things, 2019, S.  451 (452 f.).



V. Verfassungsrechtliche Direktiven297

nete Konzepte, um den Effekt so gering wie möglich zu halten,668 oder ei­ gene Kontrollsysteme zur Überprüfung der Ergebnisse. Denn die Forschung zeigt auch, dass – bei korrekter Bedienung und Anwendung sowie dem Be­ wusstsein über den Automation Bias – (entscheidungsunterstützende) auto­ matische Systeme die Genauigkeit menschlicher Entscheidungen deutlich erhöhen und Fehler insgesamt reduzieren können.669 Vorsicht ist auch für den Fall geboten, dass der Richter zwar von der durch den Algorithmus vorgeschlagenen Entscheidung abweichen kann, er jedoch faktisch einer Bindungswirkung unterliegt, weil dann der Rechtfertigungs­ druck ungleich höher wäre. Es scheint nicht ausgeschlossen, dass ein Richter sich an den vermeintlich fehlerlosen Vorschlag einer Maschine gebunden fühlt und sich gehemmt sieht, hiervon abzuweichen. Das kann auch darin begründet liegen, dass bzw. wenn er eine negative dienstliche Beurteilung fürchten müsste, wenn er (wiederholt) von den Vorgaben des Programms abweicht – und evtl. gerade dadurch weniger Fälle entscheidet als seine Kol­ legen, also „weniger effizient“ ist. Der Richter muss die Entscheidung immer selbst treffen – ausnahmslos.670 Die richterliche Unabhängigkeit i. S. d. Art. 97 Abs. 1 GG gewährleistet die eigenständige und eigenverantwortliche Gestaltung der richterlichen Arbeits­ weise. Vor diesem Hintergrund sind auch solche verbindlichen Vorgaben unzulässig, die dem Richter für den Einsatz von Programmen oder Algorith­ men bestimmte Arbeitsinhalte oder auch nur einen bestimmten Arbeitsablauf („Workflow“) auferlegen:671 Informationstechnik, die den Richter in seiner Vorgehensweise überwacht und vergleicht, mit Auswirkungen auf Beförde­ 668  Der Einfluss des Automation Bias lässt sich reduzieren, vgl. etwa Goddard/ Roudsari et al., Journal of the American Medical Informatics Association 19 (2012), 121 (125) m. w. N., sowie Skitka/Mosier et al., International Journal of Human-Com­ puter Studies 52 (2000), 701 (710 ff.). 669  Skitka/Mosier et al., International Journal of Human-Computer Studies 51 (1999), 991 (1002). Das gilt allerdings nur dann, wenn das automatische System mit einer korrekten Datenlage arbeitet und dem Anwender ein korrektes Feedback über­ mittelt; ist das nicht der Fall, treffen Menschen ohne automatische Hilfesysteme deut­ lich bessere Entscheidungen als die Vergleichsgruppe mit automatischen Hilfesyste­ men. 670  Er muss zudem, jedenfalls in den Grundzügen, wissen, wie der entscheidungs­ unterstützende Algorithmus arbeitet, also welche Daten er verwendet, wie er einzelne Aspekte gewichtet, welche juristischen (und ggf. auch nicht-juristischen) Aspekte sich in dem automatisiert generierten Entscheidungsvorschlag widerspiegeln. Nur so ist er in der Lage, auch sich selbst gegenüber zu gewährleisten, die Entscheidung unabhängig treffen zu können. Vgl. zu diesem Erfordernis und zu den Anforderungen an die Transparenz informationstechnischer Systeme in der Rechtsprechung unten S. 334 ff. 671  Deutscher Richterbund, Kernthesen zum Elektronischen Rechtsverkehr und zu E-Akten, Dezember 2015, S. 2.

298

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

rungen o. Ä., begründete ebenfalls einen Verstoß gegen Art. 97 Abs. 1 GG. Gleichsam verfassungswidrig wäre es, den Richter zur „Nutzung von Künst­ licher Intelligenz“ oder einer bestimmten entscheidungsunterstützenden Soft­ ware zu verpflichten.672 Indem die Verfassung allein dem (menschlichen) Richter die rechtspreche Gewalt anvertraut, begründet sie dessen Verantwortlichkeit: Die Letztverant­ wortung einer gerichtlichen Entscheidung muss immer der (menschliche) Richter haben. Dieser darf sich nicht hinter der vermeintlichen Objektivität einer Maschine „verstecken“, bspw. juristisch schwierige Entscheidungen an einen Computer „delegieren“; der Entscheidungsprozess des Richters darf sich nicht in einer reinen Plausibilitätsprüfung erschöpfen. Wie schon Art. 92 GG in seiner Ausprägung des Gewaltenteilungsgrund­ satzes nimmt auch Art. 97 GG, soweit er Kernbestandteil des Gewaltentei­ lungs- und des Rechtsstaatsprinzips ist – insbesondere im Hinblick auf die sachliche Unabhängigkeit des Richters – an der Ewigkeitsgarantie teil.673 Soweit ein IT-Einsatz in der Justiz also den Wesensgehalt der (sachlichen) Unabhängigkeit der Richter antastete, etwa durch verbindliche automatisch generierte Entscheidungs-„Vorschläge“, wäre auch eine entsprechende Ver­ fassungsänderung ausgeschlossen. 3. Gesetzlicher Richter, Art. 101 Abs. 1 S. 2 GG Die Verfassung schiebt Automatisierungstendenzen noch weitere Riegel vor. So darf nach Art. 101 Abs. 1 S. 2 GG niemand seinem gesetzlichen Richter entzogen werden. Diese Gewährleistung steht in engem Zusammenhang mit dem allgemeinen Gleichheitssatz (Art. 3 GG) sowie der in Art. 97 Abs. 1 GG garantierten Unabhängigkeit und Gesetzesbindung des Richters.674 Ein entscheidungsunterstützender oder -vorbereitender Technikeinsatz an deut­ schen Gerichten darf nur so weit reichen, als er das Gebot des gesetzlichen Richters nicht untergräbt. a) Begriff und Grundsätze Art. 101 Abs. 1 S. 2 GG adressiert zum einen das Gericht als organisatori­ sche Einheit – das erkennende, also entscheidende Gericht als Spruchkör­ 672  Ebenso

Enders, JA 2018, 721 (723 f.). in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 97, Rn. 62

673  Schulze-Fielitz,

m. w. N. 674  Dazu und zum Folgenden Jachmann-Michel, in: Maunz/Dürig (Begr.), GG, 84. Erg.-Lfg. (Aug. 2018), Art. 101, Rn. 5 sowie 22 ff., jeweils m. w. N.



V. Verfassungsrechtliche Direktiven299

per –, sowie daneben den im Einzelfall zur Entscheidung berufenen Rich­ ter.675 Die Norm verlangt, dass „nur [solche] Gerichte bestehen, die in jeder Hinsicht den Anforderungen des Grundgesetzes entsprechen“676. Dabei ist die Neutralität des Gerichts nicht nur Wesensmerkmal der Rechtsprechung, sondern auch Bestandteil der Gewähr aus Art. 101 Abs. 1 S. 2 GG.677 Art. 101 GG versteht den Richter als Person in seiner richterlichen Funktion und er­ fasst grundsätzlich alle Richter.678 Das Gebot des gesetzlichen Richters ent­ hält sowohl einen Auftrag an den Gesetzgeber als auch den Maßstab für die jeweiligen Gesetze: Der gesetzliche Richter muss sich in jedem Einzelfall möglichst eindeutig aus einer (allgemeinen) Norm ergeben.679 Das Recht auf den gesetzlichen Richter schützt vor jeder sachfremden Einflussnahme – ins­ besondere auch durch die Judikative selbst – auf die Bestimmung und Zu­ sammensetzung des zuständigen Gerichts.680 Während Ausnahmeregelungen nicht mit dem Gebot des gesetzlichen Richters vereinbar sind,681 sind legislatorische Neuregelungen über gesetzli­ che Richter nicht a priori ausgeschlossen: Grundsätzlich steht es dem Gebot aus Art. 101 Abs. 1 S. 2 GG nicht entgegen, einen neuen Rechtsweg einzu­ führen, Rechtswege zusammenzulegen oder neue Anknüpfungspunkte für Verfahren zu etablieren.682 Eine Rechtsverletzung liegt aber vor, wenn die Einrichtung, innerhalb welcher Rechtsprechung ausgeübt wird, nicht den im

675  St. Rspr., vgl. etwa BVerfGE 17, 294 (298 f.); 18, 344 (349); 31, 181 (184); Jachmann-Michel, in: Maunz/Dürig (Begr.), GG, 84. Erg.-Lfg. (Aug. 2018), Art. 101, Rn.  29 ff. m. w. N.; Müller-Terpitz, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 101, Rn. 8. 676  BVerfGE 10, 200 (213); 14, 156 (162). 677  BVerfGE 21, 139 (146); ebenso BVerfGE 23, 85 (91): Art. 101 Abs. 1 S. 2 GG soll gewährleisten, dass „auch im Einzelfall ein unbeteiligter und unparteiischer Richter das Richteramt ausübt“. Siehe zur Neutralität und der inneren Unabhängigkeit des Richters bereits oben S. 103 ff. 678  Vgl. Jachmann-Michel, in: Maunz/Dürig (Begr.), GG, 84. Erg.-Lfg. (Aug. 2018), Art. 101, Rn. 30: „Kombination des formalen Elements der Ernennung mit dem funktionalen Element der Ausübung einer richterlichen Tätigkeit“. Zum Richter­ begriff siehe bereits oben S. 262 ff. 679  BVerfGE 6, 45 (50 f.); 17, 294 (298 f.); 19, 52 (59 f.); 21, 139 (145); 22, 254 (258 f.). Zur Problematik der möglichst genauen Vorabbestimmung siehe etwa Jachmann-Michel, in: Maunz/Dürig (Begr.), GG, 84. Erg.-Lfg. (Aug. 2018), Art. 101, Rn.  47 f. 680  BVerfGE 17, 294 (299); 82, 286 (296); 95, 322 (327); jüngst auch BVerfG, NJW 2018, 1155 (1155 f.); Vogel, jM 2018, 245 (247 f.); Morgenthaler, in: Epping/ Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 101, Rn. 3 ff.; ­Kunig, in: Münch/Kunig (Hrsg.), 6. Aufl., 2012, Art. 101, Rn. 2. 681  BVerfGE 24, 33 (54). 682  Vgl. BVerfGE 12, 264 (274 f.).

300

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Grundgesetz statuierten Anforderungen eines Gerichts entspricht.683 Umge­ kehrt macht ein Verstoß gegen Grundsätze der Art. 20, 92 oder 97 GG den entscheidenden Richter zum ungesetzlichen Richter.684 In der Literatur ist (aktuell) zudem die Frage, ob die Garantie aus Art. 101 Abs. 1 S. 2 GG auch für den Berichterstatter bestimmter Spruch­ körper an den Gerichten gilt, Gegenstand der Diskussion.685 Soweit der Berichterstatter Daten eines zur Entscheidung stehenden Falles zusammen­ trägt, aufbereitet, ordnet und letztlich die Entscheidungsfindung (möglicher­ weise stark prägend) vorbereitet, ist seine Funktion der eines entschei­ dungsunterstützenden Algorithmeneinsatzes nicht unähnlich. Auch die Vor­ gaben zum vorbereitenden und zum beauftragten Richter sind jedenfalls strukturell mit einer algorithmengestützten Entscheidungsvorbereitung und -unterstützung vergleichbar: Der vorbereitende Richter kann in der mündli­ chen Verhandlung eigenständig bestimmte Maßnahmen und Anordnungen treffen (vgl. etwa § 273 Abs. 2, § 527 Abs. 1 S. 1, Abs. 2 ZPO); der beauf­ tragte Richter übernimmt für gesetzlich festgelegte Fälle die Beweisauf­ nahme anstelle des Spruchkörpers (vgl. etwa § 355 Abs. 1 S. 2 ZPO i. V. m. § 361 Abs. 1, § 372 Abs. 2, § 375 Abs. 1, 1a, § 434 ZPO). In beiden Fällen trifft er aber keine Entscheidung in der Sache, sondern unternimmt ledig­ lich Handlungen, die der Vorbereitung der Sachentscheidung durch den Spruchkörper dienen; die Anforderungen des Art. 101 Abs. 1 S. 2 GG grei­ fen somit nicht.686 b) Exkurs: Gesetzlicher Richter und Privatautonomie Art. 101 Abs. 1 S. 2 GG bezieht nur Gerichte und Richter der staatlichen Gerichtsbarkeit ein. Private Gerichte, z. B. Schiedsgerichte, adressiert das Gebot nicht. Es stellt sich daher die grundsätzliche Frage, ob ein Rechtsu­ chender durch Verabredung eines Schiedsgerichts dem staatlichen (also dem 683  BVerfGE 11, 61 (62  f.); 11, 136 (138  f.); 14, 156 (161  ff.); siehe auch BVerfGE 17, 86 (98). 684  Vgl. etwa BVerfGE 26, 186 (194 ff.); 27, 312 (322). 685  Siehe etwa Vogel, jM 2018, 245 (248 ff.), wonach sich die Anforderungen des Art. 101 GG auch auf den (anstelle der Kammer bzw. des Senats alleinentscheidungs­ befugten, vgl. etwa § 87a Abs. 3 VwGO, § 79a Abs. 4 FGO, § 155 Abs. 4 SGG) Be­ richterstatter erstrecken, der wie ein Einzelrichter tätig wird; ebenso Roth, Das Grundrecht auf den gesetzlichen Richter, 2000, S. 36. Vgl. dazu auch Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 101, Rn. 13, sowie BGH, NJW 2018, 1261 (1261 f.). 686  So Roth, Das Grundrecht auf den gesetzlichen Richter, 2000, S. 40 f.; Jachmann-Michel, in: Maunz/Dürig (Begr.), GG, 84. Erg.-Lfg. (Aug. 2018), Art. 101, Rn. 40.



V. Verfassungsrechtliche Direktiven301

gesetzlichen) Richter entzogen werden kann.687 Das kann etwa bei der Nut­ zung von sog. Smart Contracts bezweifelt werden. Schließen zwei oder mehrere Parteien durch Vertrag staatliche Gerichte für Konflikte inter partes aus und wollen einvernehmlich einen Smart Contract oder einen Algorith­ mus den Konflikt beilegen lassen, so greift Art. 101 Abs. 1 S. 2 GG nicht. Eine solche Vereinbarung unterfiele der Privatautonomie – ebenso wie auch die generelle Zulassung der Schiedsgerichtsbarkeit (§§ 1025 ff. ZPO) ein Ausfluss des Art. 2 Abs. 1 GG ist. Mit Abschluss der Schiedsvereinbarung verzichten die Parteien in zulässiger Weise auf ihren Justizgewährungsan­ spruch durch den verfassungsrechtlich gewährleisteten gesetzlichen Richter (Art. 101 Abs. 1 S. 2 GG; vgl. auch § 16 S. 2 GVG).688 Rückschlüsse auf die Zulässigkeit des Einsatzes entscheidungsunterstützender Algorithmen in staatlichen Gerichten ergeben sich hieraus jedoch nicht. c) Bedeutung des Art. 101 Abs. 1 S. 2 GG für den Algorithmeneinsatz in der Justiz Wenngleich der Begriff des „gesetzlichen Richters“ in Art. 101 Abs. 1 S. 2 GG grundsätzlich weit zu verstehen ist und sein sachlicher Schutzbereich neben dem Gericht auch den einzelnen Richter umfasst, etabliert die Norm keinen von Art. 92 Hs. 1 und Art. 97 GG unabhängigen, eigenständigen Richterbegriff.689 Ist in materieller Hinsicht ein Gericht dann „gesetzlicher Richter“, wenn es in jeder Hinsicht den Anforderungen des Grundgesetzes entspricht, so umfasst dies vor allem auch das Rechtsprechungsmonopol der Richter i. S. d. Art. 92 Hs. 1 GG sowie deren (sachliche und persönliche) Unabhängigkeit.690 Richter i. S. d. Art. 92 Hs. 1, Art. 97 Abs. 1 GG können jedoch nur natürliche Personen sein.691 Auch für die Garantie des gesetzli­ chen Richters lässt sich also konstatieren, dass der zur Entscheidung des 687  Vgl. dazu Maunz, in: Maunz/Dürig (Begr.), GG, 83. Erg.-Lfg. (Apr. 2018), Art. 101 (Altaufl.), Rn. 22, 42 ff. 688  BGHZ 77, 65 (69); 144, 146 (148); Münch, in: Krüger/Rauscher (Hrsg.), MüKo-ZPO, Bd. 3, 5. Aufl., 2017, Vorbemerkung zu den §§ 1025 ff., Rn. 4 m. w. N. 689  Vgl. die Zusammenfassung bei Morgenthaler, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 101, Rn. 10 f. sowie 14. 690  Siehe noch BVerfGE 27, 312 (322) zur sachlichen Unabhängigkeit, BVerfGE 14, 156 (163) zur persönlichen Unabhängigkeit und BVerfGE 21, 139 (145) zur Neu­ tralität und (inneren) Distanz des Richters. 691  Siehe oben S. 261 ff. sowie 288  ff. Gestünde man – theoretisch – daneben den Rechtsunterworfenen zu, ihre Einwilligung zu einer vollautomatisierten Recht­ sprechung zu erteilen (vgl. dazu bereits die Überlegungen zur Einwilligung i. S. d. Art. 22 Abs. 2 lit. c DSGVO, oben S. 252 f.), käme dies einem „Wahlrecht Mensch oder Maschine“ gleich – was mit der Garantie des (ex ante feststehenden) gesetz­ lichen Richters nur schwer zu vereinen scheint.

302

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Einzelfalls berufene Richter eine natürliche Person sein muss:692 Das Recht aus Art. 101 Abs. 1 S. 2 GG ist bereits dann verletzt, wenn der Staat (bspw. durch Gesetz) zulässt, dass Richter, die nicht den Anforderungen des Art. 92 GG genügen, zu einer gerichtlichen Entscheidung berufen sind.693 Algorithmische Entscheidungsunterstützung verletzt den Anspruch auf den gesetzlichen Richter hingegen nicht, wenn und soweit sie die richterliche Prüfung und den Entscheidungsprozess weder ersetzt noch im Kern antastet. Garantiert Art. 101 Abs. 1 S. 2 GG die richterliche Mitwirkung an einer Ent­ scheidung, muss der über die Geschäftsverteilung bestimmte gesetzliche Richter nicht irgendwie, sondern gerade in seiner rechtsprechenden Funktion an der Entscheidungsfindung unmittelbar beteiligt sein – also an den tatsäch­ lichen Feststellungen einerseits und den rechtlichen Folgerungen andererseits: Er muss die Entscheidung letztlich selbst (jedenfalls mit-)verantworten.694 Die Garantie des gesetzlichen Richters darf kein Würfelspiel sein – etwa dahingehend, welche IT-Systeme insgesamt und welche entscheidungsunter­ stützende Software im Besonderen an welchen Gerichten zum Einsatz kommt. Deren Auswahl kann für die Garantie der Sachentscheidung durch den gesetzlichen (menschlichen) Richter schlicht keine Rolle spielen. Soweit Algorithmen den Richter aber lediglich unterstützen und ihm ein Hilfsmittel der Rationalität darstellen, bringt Art. 101 Abs. 1 S. 2 GG keine Einwände hiergegen vor. Keinesfalls darf es indes zu einem „Übernahmeautomatismus“ kommen, bei dem der Richter eine algorithmisch vorgeschlagene Lösung nur noch bestätigt und verkündet: Denn auch dann würde der Bürger seinem gesetzlichen Richter entzogen, „weil nicht diejenige Persönlichkeit, die in einer mündlichen Verhandlung vor ihm sitzt, tatsächlich die Entscheidung getroffen hat.“695 4. Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) Ein (entscheidungsunterstützender) Algorithmeneinsatz in der Justiz bedarf der Einbettung in verfassungsrechtliche Grundprinzipien. Rechtsprechung darf nicht zur „Fließbandproduktion“ verkommen, im Zentrum muss immer der Einzelfall, mithin das Individuum stehen. Sind die äußeren Grenzpfähle des Technikeinsatzes durch die Vorgaben der Art. 92 Hs. 1, Art. 97 Abs. 1 692  So

(723).

im Ergebnis auch (jedoch ohne nähere Begründung) Enders, JA 2018, 721

693  Pieroth, in: Jarass/Pieroth (Hrsg.), 15. Aufl., 2018, Art. 101, Rn. 6; SchulzeFielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 101, Rn. 41. 694  Müller-Terpitz, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 101, Rn. 8. 695  Enders, JA 2018, 721 (723).



V. Verfassungsrechtliche Direktiven303

und Art. 101 Abs. 1 S. 2 GG eingeschlagen, ist es vor allem Art. 103 Abs. 1 GG, der normative Leitlinien für eine verfassungskonforme Umsetzung aus­ gibt. a) Inhalt und Umfang des Anspruchs Das grundrechtsgleiche Recht (vgl. § 93 Abs. 1 Nr. 4a BVerfGG) verbürgt jedermann vor Gericht einen Anspruch auf rechtliches Gehör: Die Aussagen der Beteiligten bzw. der streitenden Parteien müssen nicht nur gehört, son­ dern auch inhaltlich gewürdigt und bei der Urteilsfindung gegebenenfalls berücksichtigt werden – audiatur et altera pars („Gehört werde auch die andere Seite“). Zusammengefasst enthält Art.  103 Abs.  1 GG drei „Verwirklichungsstufen“696 des grundrechtsgleichen Rechts: Die Norm etab­ liert erstens das Recht, sich vor Gericht zu äußern, zweitens das Recht, vom Gericht über den Verfahrensstoff informiert zu werden, damit der Betroffene sein Äußerungsrecht effektiv wahrnehmen kann, und schließlich das Recht darauf, dass das Gericht den Vortrag in der Sachentscheidung auch berück­ sichtigt.697 Der aus dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) und der Menschen­ würde (Art. 1 Abs. 1 GG) folgende698 Grundsatz soll auch verhindern, dass ein Betroffener bzw. Rechtsunterworfener zum bloßen Objekt verkommt; er dient also nicht (nur) der Erforschung der Wahrheit. In den Worten des BVerfG bedeutet das: „Der Einzelne soll nicht bloßes Objekt des Verfahrens sein, sondern er soll vor einer Entscheidung, die seine Rechte betrifft, zu Wort kommen, um Einfluss auf das Verfahren und sein Ergebnis nehmen zu können“699. Der Anspruch ermöglicht dem Einzelnen, als Subjekt Einfluss auf das Verfahren und sein Ergebnis nehmen zu können.700 Danach ist Art. 103 Abs. 1 GG (erst dann) verletzt, wenn besondere Umstände im Ein­ zelfall verdeutlichen, dass das Gericht tatsächliches Vorbringen eines Betei­ ligten entweder überhaupt nicht zur Kenntnis genommen oder bei der Ent­ scheidung nicht erwogen hat701 – etwa dann, wenn es das genaue Gegenteil 696  Wassermann,

DRiZ 1984, 425 (427 f.). in: Maunz/Dürig (Begr.), GG, 78. Erg.-Lfg. (Sept. 2016), Art. 103 Abs.  1, Rn.  62 m. w. N. Vgl. Sodan, Grundgesetz, 4. Aufl., 2018, Art. 103, Rn. 3; Radtke/Hagemeier, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (15.5.2015), Art. 103, Rn. 7 ff. 698  Ausdrücklich BVerfGE 7, 275 (278 f.); 55, 1 (5 f.). 699  BVerfG, Beschl. v. vom 18.1.2011 – 1 BvR 2441/10 –, juris, Rn. 10; vgl. auch bereits BVerfGE 84, 188 (190); 86, 133 (144 ff.). 700  Vgl. BVerfGE 9, 89 (95). 701  Vgl. BVerfGE 65, 293 (295); 70, 288 (293); 86, 133 (144 ff.). Eine Missach­ tung des Anspruchs auf rechtliches Gehör kann den Betroffenen zudem in seiner all­ 697  Remmert,

304

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

des Vorgebrachten annimmt oder aber einen Beteiligtenvortrag als nicht vorgetragen behandelt. Daneben soll das Gebot aus Art. 103 Abs. 1 GG als Prozessgrundrecht si­ cherstellen, dass die von den Fachgerichten zu treffende Entscheidungen frei von Verfahrensfehlern ergehen, die ihren Grund gerade in der unterlassenen Kenntnisnahme und Nichtberücksichtigung des Sachvortrags der Parteien haben: Die Nichtberücksichtigung von Vortrag oder von Beweisanträgen muss sich immer klar aus dem Prozessrecht ergeben.702 Der Anspruch auf rechtliches Gehör ist also das „prozessuale Urrecht“703 des (einzelnen) Men­ schen und zugleich ein objektivrechtliches, für ein rechtsstaatliches Verfahren im Sinne des Grundgesetzes schlechthin konstitutives Verfahrensprinzip.704 Vom Gewährleistungsumfang der Norm nicht umfasst ist die Sachentschei­ dung selbst. Art. 103 Abs. 1 GG deutet vielmehr eine „Eigenständigkeit der Verfahrensgerechtigkeit“705 an. Die (ausreichende) Gewähr rechtlichen Ge­ hörs ist nicht geeignet, eine objektiv (materiell-rechtliche) „richtige“ Ent­ scheidung des Einzelfalles zu garantieren. Auch umgekehrt ist es möglich, dass der Richter den Fall materiell-rechtlich richtig entscheidet, ohne zuvor den Parteien ausreichend rechtliches Gehör gewährt zu haben.706 b) Bedeutung und Rückschluss auf Algorithmeneinsatz in der Justiz aa) Verbot der vollständigen (Verfahrens-)Automatisierung Die Verfassung macht keine expliziten Vorgaben dazu, wie das rechtliche Gehör zu gewähren ist. Schutzrichtung und Umfang des Anspruchs auf recht­ liches Gehör wären in einem (teil-)automatisierten oder digitalisierten ebenso zu beachten wie im „analogen“ Verfahren. Ihm Geltung zu verschaffen, er­ scheint jedenfalls nicht a priori ausgeschlossen, sondern als Frage der prakti­ gemeinen Handlungsfreiheit gem. Art. 2 Abs. 1 GG i. V. m. dem Rechtsstaatsprinzip gem. Art. 20 Abs. 3 GG verletzen, vgl. BVerfG, NJW 2000, 1634 (1634). 702  BVerfG, Beschl. v. vom 18.1.2011 – 1 BvR 2441/10 –, juris, Rn.  11; BVerfGE 50, 32 (36); 60, 250 (252); 65, 305 (307); 69, 141 (144). Siehe aber auch bspw. BVerfGE 21, 191 (194); 60, 1 (5): Die Norm schützt nicht schlechthin davor, dass das Gericht ein Vorbringen aus Gründen des formellen oder materiellen Rechts ganz oder teilweise unberücksichtigt lässt. 703  BVerfGE 55, 1 (6); aufgegriffen in BVerfGE 107, 395 (408). 704  BVerfGE 6, 12 (14); 55, 1 (6). 705  Prütting, jM 2016, 354 (356). 706  Prütting, jM 2016, 354 (356). Praktisch folgt hieraus, dass ein Gerichtsurteil womöglich auch dann wegen Verstoßes gegen Art. 103 Abs. 1 GG im (jeweiligen Rechtsmittel-)Verfahren zu beanstanden ist, wenn das materiell-rechtliche Ergebnis der Entscheidung nach Auffassung des überprüfenden Gerichts keine Fehler aufweist.



V. Verfassungsrechtliche Direktiven305

schen Ausgestaltung, auch der einfachgesetzlichen Konkretisierung. Um den Beteiligten inhaltliches Vorbringen zu ermöglichen und zu berücksichtigen, scheint es nicht grundsätzlich unmöglich, dass auch eine Maschine tatsächli­ ches Vorbringen des Betroffenen aufnehmen, einordnen und analysieren kann – jedenfalls in schriftlichen Verfahren, etwa über Freitextfelder.707 Allerdings verstehen selbst die „smartesten“ Chatbots (in einer „mündli­ chen Verhandlung“) bzw. Dokumentanalysesysteme nicht alle Nuancen der natürlichen Sprache; sie beachten qua ihrer Natur nur das, worauf sie pro­ grammiert wurden bzw. das, was sie gelernt haben. Der am Verfahren Betei­ ligte hat jedoch einen Anspruch auf rechtliches Gehör vor Gericht, also vor einem Richter – nicht vor einem Computer – weil er davon ausgehen darf, dass gerade diejenige Entität, die in der Verhandlung vor ihm sitzt, ihn zu Wort kommen lässt und sein Vorbringen hört, auch diejenige ist, die letztlich die Sachentscheidung trifft. Kann eine Maschine nicht Richter i. S. d. Art. 92 Hs. 1 GG sein und ist das rechtliche Gehör vor dem (menschlichen) Richter zu gewähren, scheidet eine Vollautomatisierung des Verfahrens auch gem. 103 Abs. 1 GG aus.708 bb) Kein Verbot entscheidungsunterstützender Algorithmen Im Gegensatz zur vollständigen Automatisierung ist der Einsatz entschei­ dungsunterstützender Algorithmen grundsätzlich mit Art. 103 Abs. 1 GG vereinbar, wenn und soweit der Richter das Verfahren, insbesondere die mündliche Verhandlung leitet und die alleinige Letztentscheidungsbefugnis hat. Dem widerspricht auch die Zielrichtung der Norm nicht: Aus dem Rechtsstaatsprinzip folgt eine Pflicht des Staates (einschließlich der Ge­ richte), rational statt willkürlich zu entscheiden.709 Art. 103 Abs. 1 GG sichert 707  Indes beschränkt sich die Kommunikation zwischen Beteiligtem und Richter meist nicht auf die Schriftform – der Strafbefehl (§§ 407 ff. StPO) oder das schriftli­ che Verfahren gem. § 128 Abs. 2 ZPO bestätigen als Ausnahmen diese Regel. Auch der (juristisch und rhetorisch nicht geschulte) Bürger muss die Möglichkeit haben, gerade „auf seine Weise“ vorzutragen; hierfür spricht neben dem Einsatz von Dolmet­ schern und Übersetzern in gerichtlichen Verfahren auch der Grundsatz der Mündlich­ keit (vgl. dazu auch unten S. 366 f.). Einen absoluten Anspruch auf mündliche Äu­ ßerung verbürgt Art. 103 Abs. 1 GG aber nicht, ist er doch durch einfachgesetzliches Verfahrensrecht ausgestaltet, vgl. BVerfGE 9, 89 (95 f.). 708  Die Automatisierung der mündlichen Verhandlung einschließlich der Sachver­ haltsermittlung ist bereits technisch ausgeschlossen, vgl. oben S. 177 ff. Richter agieren zudem, insbesondere in emotional aufgeladenen Rechtsstreitigkeiten, als Konfliktschlichter; auch insoweit ist eine maschinelle Abbildung richterlicher Tätig­ keit kaum vorstellbar. 709  Remmert, in: Maunz/Dürig (Begr.), GG, 78. Erg.-Lfg. (Sept. 2016), Art. 103 Abs. 1, Rn. 23: „Art. 103 Abs. 1 GG ist daher […] ein verfahrensrechtliches Instru­

306

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

dieses Bekenntnis zur Rationalität durch die vorherige Anhörung der Verfah­ rensbeteiligten ab. (1) Anleihen in den Prozessordnungen Die Garantie des Art. 103 Abs. 1 GG ist „an das Tätigwerden eines Rich­ ters geknüpft“710, sie gilt also nur für die richterlichen (Kern-)Tätigkeiten.711 Die Verfahrensordnungen geben dem Richter konkrete Anweisungen an die Hand, welche Aspekte er im Sinne des Anspruchs auf rechtliches Gehör beachten muss. Eine besondere Stellung nehmen insoweit die gerichtlichen Hinweispflichten ein. Im Strafprozess entfalten neben der zentralen Rege­ lung der Hinweispflicht in § 265 auch der Untersuchungsgrundsatz des § 244 Abs. 2 sowie §§ 33, 33a, 311a, 356a StPO für bestimmte Entschei­ dungen während des Verfahrens und verschiedene Verfahrensabschnitte Relevanz. Für den Zivilprozess verlangen § 136 Abs. 3, § 139 ZPO, ergän­ zend auch § 156 Abs. 1, 2 S. 1 ZPO (Wiedereröffnung der mündlichen Verhandlung), dem Richter ab, die Prozessbeteiligten ausreichend zu Wort kommen zu lassen. Im Verwaltungsprozess gilt das Nämliche über § 104 Abs. 1 VwGO: Der Vorsitzende erörtert die Streitsache „mit den Beteilig­ ten“. Nach § 86 Abs. 3 VwGO muss er zudem darauf hinwirken, dass Formfehler beseitigt, unklare Anträge erläutert, sachdienliche Anträge ge­ stellt, ungenügende tatsächliche Angaben ergänzt und alle für die Feststel­ lung und Beurteilung des Sachverhalts wesentlichen Erklärungen abgegeben werden. Diese Hinweispflichten dienen – wie in den anderen Prozessarten auch – der Wahrung rechtlichen Gehörs und sollen insbesondere verhin­ dern, dass die Prozessbeteiligten durch die Entscheidung des Gerichts über­ rascht werden.712 Der Anspruch auf rechtliches Gehör findet daneben in § 108 Abs. 2 VwVfG ausdrückliche Erwähnung: Das Gericht darf ein Urteil nur auf Tatsachen und Beweisergebnisse stützen, zu denen die Beteiligten sich äußern konnten. Die Hinweis- und Aufklärungspflicht hat nicht nur den Zweck, die sachgemäße Durchführung des Verfahrens zu erleichtern und zu verhindern, dass die Verwirklichung der den Beteiligten zur Ver­ fügung stehenden formellen Verfahrensrechte und materiellen Ansprüche ment zur Sicherung rationaler gerichtlicher Entscheidungen“; vgl. auch BVerfGE 9, 89 (95); 61, 82 (105); 138, 64 (83). 710  Radtke/Hagemeier, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41.  Ed. (15.5.2015), Art. 103, Rn. 3. 711  BVerfGE 9, 89 (97). 712  BVerwG, NVwZ 2003, 1132 (1133); Radtke/Hagemeier, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (15.5.2015), Art. 103, Rn. 6; vgl. auch BVerfGE 86, 133 (144 f.).



V. Verfassungsrechtliche Direktiven307

an deren Unerfahrenheit, Unbeholfenheit oder mangelnden Rechtskenntnis scheitert.713 Die verfahrensrechtlichen Hinweispflichten im Speziellen und die prozess­ rechtskonforme Verhandlungsführung durch den (menschlichen) Richter ins­ gesamt blieben durch den Einsatz entscheidungsunterstützender Algorithmen unberührt. Der Betroffene muss die Möglichkeit haben, sich im Verfahren zu äußern. Hat er diese Möglichkeit im Einzelfall erhalten, sie aber nicht wahr­ genommen, so ist dem Anspruch aus verfassungsrechtlicher Sicht genügt. Der Anspruch auf rechtliches Gehör gewährt naturgemäß insbesondere auch kein Recht darauf, dass die Entscheidung gerade i. S. d. Vorbringens des Pro­ zessbeteiligten ergeht. (2) Rechtliches Gehör und das Problem drohender ­„Übernahmeautomatismen“ Eine Teilautomatisierung ist qua Verfassung nicht a priori ausgeschlossen, erweist sich jedoch als problematisch: Rein tatsächlich dürfte es schwerfal­ len, hinreichend sicher zwischen entscheidungsunterstützenden Systemen mit „Übernahmeautomatismus“ für den Richter einerseits und rein informativen, ausdrücklich unverbindlichen, datenbankähnlichen Vorschlägen bzw. Vor­ schlagssystemen andererseits zu trennen.714 Die Gefahr verwaschener Grenzlinien steigt mit den Fähigkeiten informationstechnischer Systeme, weil diese zugleich Hoffnungen und Vertrauen in ihre Rationalität, in ihre vermeintliche Unfehlbarkeit wecken. Für den zur Entscheidung berufenen Richter kann sich die Motivation, eine vom maschinell ermittelten Vorschlag abweichende Entscheidung zu treffen, als gering erweisen. Sofern der Rich­ ter nach einer (als rein vorbereitend angedachten) Abfrage des Systems nicht mehr gedanklich offen ist für (Gegen-)Argumente eines Beteiligten, liegt – jedenfalls dann, wenn das Gericht zuvor bereits über seine Einschätzung der Sach- und Rechtslage informiert hat – ein Verstoß gegen den Anspruch auf rechtliches Gehör auf der Hand.715 713  Vgl. BVerwGE 69, 198 (198 ff.). Siehe auch BVerfGE 42, 64 (73): „Das Ver­ fahrensrecht dient der Herbeiführung gesetzmäßiger und unter diesem Blickpunkt richtiger, aber darüber hinaus auch im Rahmen dieser Richtigkeit gerechter Entschei­ dungen“ (Hervorhebungen nicht im Original). 714  Vgl. Enders, JA 2018, 721 (723). 715  So Enders, JA 2018, 721 (723). Die Frage stellt sich indes zuvorderst im Zu­ sammenhang mit der richterlichen Unabhängigkeit, vgl. oben S. 291 ff. (abstrakt) sowie unten S. 422 ff. (konkrete Gestaltungsvorschläge). Ein entsprechender „Über­ nahmeautomatismus“, wonach Richter die Vorschläge eines Entscheidungsunterstüt­ zungssystems mehrheitlich übernähmen und sodann abweichenden Argumenten ver­ schlossen gegenüber stünden, ist allerdings spekulativ, jedenfalls nicht hinreichend

308

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

5. Grundrecht auf effektiven Rechtsschutz (Art. 19 Abs. 4 GG) a) Rechtscharakter und grundsätzliche Bedeutung des Art. 19 Abs. 4 GG Art. 19 Abs. 4 GG garantiert dem Bürger einen wirksamen und effektiven Rechtsschutz gegen Akte der öffentlichen Gewalt, soweit diese in seine Rechte eingreifen: Der richterliche Rechtsschutz gegen Akte der öffentlichen Gewalt ist möglichst lückenlos zu gewährleisten und umfasst den Zugang zu den Gerichten, die Prüfung des Streitbegehrens in einem förmlichen Verfah­ ren sowie die verbindliche gerichtliche Entscheidung.716 Der Betroffene hat in der Sache einen substantiellen Anspruch auf eine möglichst wirksame ge­ belegt. Der Einsatz entscheidungsunterstützender Algorithmen bedürfte ohnehin aus­ giebiger Testphasen – etwa in weniger (grundrechtlich) sensiblen Bereichen, bspw. kleineren Bußgeld- oder zivilrechtlichen Schadensersatzverfahren. Hier könnte unter „Realbedingungen“ (empirisch) geprüft werden, ob die Richter die algorithmischen Vorschläge „automatisch“ übernehmen und wie sie allgemein damit umgehen. Das in der Befürchtung eines „Übernahmeautomatismus“ zum Ausdruck gebrachte – vermu­ tete – Problem, dass Entscheider „es sich leicht machen“ und im Zweifel den „Weg des geringsten Widerstands“ gehen, besteht immerhin auch in der analogen Welt. Daher müssen Richter von sich aus eine innere Distanz zu den Prozessbeteiligten wahren – als Kehrseite der sachlichen Unabhängigkeit (vgl. bereits oben S. 103 ff.). Das Gericht muss den Vortrag der Prozessbeteiligten mit einer gewissen Offenheit zur Kenntnis nehmen und ernsthaft in Erwägung ziehen, es muss ihn jedoch nicht zwingend in die Entscheidung einfließen lassen oder seine Entscheidung darauf stüt­ zen. Im Übrigen kann es auch auf den Zeitpunkt des algorithmischen Entscheidungs­ vorschlags ankommen: Den Anspruch auf rechtliches Gehör kann es verletzen, wenn der Entscheidungsvorschlag bereits vor der Verhandlung, bspw. rein aktenbasiert, erfolgt und der Richter ihn ohne vertiefte Prüfung übernimmt. Vergleichbare Beein­ flussungen kann allerdings auch die Vorbereitung des Urteils durch einen Referendar (vgl. § 10 S. 1 GVG) auslösen. Um das Problem befürchteter Übernahmeautomatis­ men abzumildern, kommen de lege ferenda auch zusätzliche Verfahrensmechanismen in Betracht: Wenn bspw. der vor der Sachentscheidung zu Rate gezogene Algorith­ mus in seinem Vorschlag deutlich von dem abweicht, was der Richter den Beteilig­ ten (ohne Algorithmus) im Verfahren „in Aussicht gestellt“ hat, könnte ihnen erneut rechtliches Gehör gewährt werden. Das Informationsrecht aus Art. 103 Abs. 1 GG umfasst allerdings nicht die Vorab-Information darüber, wie das Gericht entscheiden wird, sondern nur organisatorische und äußere Aspekte, vgl. Radtke/Hagemeier, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (15.5.2015), Art. 103, Rn. 8  f. m. w. N. Dazu zählen insbesondere die Mitteilungen über den Beginn eines Gerichts­ verfahrens, die Termine, gerichtliche Verfahrensentscheidungen, Beweismittel, ver­ fahrensrelevante Tatsachen, auch wenn sie als gerichtsbekannt gelten, Ergebnisse von Beweisaufnahmen, verfahrensrelevante Handlungen anderer Beteiligter sowie die Akteneinsicht. 716  BVerfGE 8, 274 (326); 67, 43 (58); 104, 220 (231); 107, 395 (401); 113, 273 (310).



V. Verfassungsrechtliche Direktiven309

richtliche Kontrolle717 – in tatsächlicher wie rechtlicher Hinsicht.718 Art. 19 Abs. 4 GG ist ein Grundrecht auf Individualrechtsschutz,719 enthält aber auch die institutionelle Garantie einer Gerichtsbarkeit („Rechtsweg“). Die Rechts­ schutzgarantie steht in funktionalem Zusammenhang mit dem Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG);720 sie sichert den Zugang zum Ver­ fahren, während Art. 103 Abs. 1 GG seinen angemessenen Ablauf sicherzu­ stellen sucht.721 b) Technikeinsatz als Beschleunigungsfaktor gerichtlicher Entscheidungen Dem betroffenen Bürger ist rechtliches Gehör und (gerichtlicher) Rechts­ schutz zu gewähren – vor einem (menschlichen) Richter. Der Zugang zum Verfahren nach Rechtsverletzungen durch die öffentliche Gewalt, den Art. 19 Abs. 4 GG garantiert, ist dabei durch den Einsatz von Informationstechnik, die den Richter lediglich in seiner (Sach-)Entscheidung unterstützt, nicht berührt. Vielmehr stellt sich umgekehrt die Frage, ob gerade der Einsatz neuer Technologien die Rechtsschutzgarantie protegieren kann. Nach der Rechtsprechung des BVerfG hat der Bürger aus Art. 19 Abs. 4 GG „einen substanziellen Anspruch auf eine möglichst wirksame gerichtliche Kontrolle“722. Wenngleich in anderem Kontext getroffen, lässt sich diese Aussage für eine Grundausrichtung der Dritten Gewalt extrapolieren: Der 717  BVerfGE 718  Huber,

40, 272 (275); 93, 1 (13); 113, 273 (310). in: Mangoldt/Klein/Starck (Hrsg.), GG, 7.  Aufl., 2018, Art.  19,

Rn. 508. 719  Schmidt-Aßmann, in: Maunz/Dürig (Begr.), GG, 72. Erg.-Lfg. (Juli 2014), Art. 19 Abs. 4, Rn. 8. 720  Vgl. BVerfGE 81, 123 (129). 721  Relevant ist Art. 19 Abs. 4 GG vor allem in öffentlich-rechtlichen Streitigkei­ ten, für Verwaltungshandeln und für das (gerichtliche) Vorgehen dagegen. Die Norm entfaltet aber auch in anderen Bereichen Wirkung, etwa im Strafverfahren: Wenn­ gleich im Grundsatz Domäne des Tatrichters in dessen freier Ausgestaltung – statt vieler Miebach, in: Schneider (Hrsg.), MüKo-StPO, Bd. 2, 2016, § 261, Rn. 91 f., 129 – ist die richterliche Beweiswürdigung (in der Tatsacheninstanz) nicht unüber­ prüfbar, vgl. etwa Eschelbach, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 261, Rn. 63; Schünemann, Zweite Instanz in Strafsachen, in: Geisler/ Kraatz/Kretschmer et al. (Hrsg.), FS Geppert, 2011, S. 649 (653). Im Einzelfall kann das Grundrecht auf effektiven Rechtsschutz etwa einen Anspruch auf effektive Kont­ rolle der Beweiswürdigung im Strafverfahren nach § 261 StPO begründen. Grund­ sätzlich beschränkt sich die Aufgabe der Rechtsmittelinstanzen jedoch darauf, die erstinstanzliche Entscheidung in Bezug auf Logik-, Verfahrens- und Rechtsanwen­ dungsfehler zu prüfen, vgl. Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 301. 722  BVerfGE 113, 273 (310, Hervorhebung nicht im Original).

310

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Staat sollte Bestrebungen, die die Rechtsprechung verbessern (können), un­ terstützen. Zeigte sich etwa in einer Testphase, dass der Einsatz entschei­ dungsunterstützender Algorithmen den gerichtlichen Rechtsschutz durch (im weitesten Sinne) rationalere Entscheidungen „inhaltlich wirksamer“ gestalten kann, ließe sich hieraus zwar noch keine Verpflichtung, aber im Sinne der Gewährleistung einer möglichst wirksamen gerichtlichen Kontrolle doch eine Art „Nudge für den Staat“723 folgern. Beispielhaft zeitigt bereits der Umstieg von Papier- auf elektronische Ak­ ten sichtbare Vorteile. Prozessbeteiligte und Richter müssen nicht mehr ab­ warten, bis Papierakten lange Eingangs- und Postlaufzeiten absolvieren und schließlich händisch vorgelegt werden; auch simultanes Arbeiten mit der Akte, die sich am Bildschirm aufrufen lässt, ist möglich – selbst wenn gleichzeitig einem Anwalt Akteneinsicht gewährt wurde.724 So kann die Gewähr effektiven (weil beschleunigten) Rechtsschutzes gerade durch Tech­ nik steigen. Die Zugänglichkeit des Rechts bzw. der Zugang zum Recht können vom Einsatz moderner Technik profitieren.725 Auch und gerade der Einsatz entscheidungsunterstützender Algorithmen steht – indem er die Recht­ sprechung ein Stück weit rationaler machen und beschleunigen könnte – dem Grundrecht auf effektiven Rechtsschutz nicht diametral gegen­ über, sondern kann dieses umgekehrt in seiner Bedeutung stützen. 6. Justizgewährungsanspruch (aus Rechtsstaatsprinzip) Art. 19 Abs. 4 GG gewährleistet zuvorderst den Rechtsschutz in öffentlichrechtlichen Streitigkeiten. Die Norm ist ein Beispiel für speziell geregelte Rechtsschutzansprüche (vgl. auch Art. 14 Abs. 3 S. 4, Art. 34 S. 3 sowie Art. 93 GG). Nimmt der Staat aber das alleinige Gewaltmonopol für sich in Anspruch, muss er den Bürgern ganz grundsätzlich – insbesondere auch für zivil- und arbeitsrechtliche Streitigkeiten – eine Rechtsschutzmöglichkeit zur Verfügung stellen.726 Aus dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) folgt – i. V. m. den Grundrechten, insbesondere Art. 2 Abs. 1 GG – daher 723  Unter Nudging (etwa: anstupsen, schubsen) versteht die Verhaltensökonomik Methoden, (menschliche) Handlungen und Entscheidungen ohne Verbote, Gebote oder massive Änderung ökonomischer Anreize zu beeinflussen und oder zu steuern. Vgl. zu Begriff und Beispielen nur das grundlegende Werk von Thaler/Sunstein, Nudge, 2009, S. 9 ff. 724  Vgl. Ballhausen, IT-Einsatz in der Justiz, 2012, S. 42 f. 725  So auch Ballhausen, IT-Einsatz in der Justiz, 2012, S. 40 f. Vgl. auch Tegmark, Leben 3.0, 2017, S. 199. 726  Huster/Rux, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41.  Ed. (Stand: 15.2.2019), Art. 20, Rn. 199. Zum Konflikt und der praktischen Konkordanz von Jus­ tizgewährleistungspflicht und richterlicher Unabhängigkeit – etwa in Anbetracht der



V. Verfassungsrechtliche Direktiven311

auch ein allgemeiner Justizgewährungsanspruch.727 Der Staat muss zudem für eine funktionsfähige Strafrechtspflege sorgen.728 Zum Einsatz algorithmenbasierter Entscheidungsunterstützungssysteme in der Justiz gilt hier das zum Grundrecht auf effektiven Rechtsschutz Ge­sagte.729 7. Das Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) und seine Implikationen auf den justiziellen Algorithmeneinsatz a) Gesetzesbindung Die Rechtsprechung ist an Gesetz und Recht gebunden.730 In ihrem Art. 20 Abs. 3 etabliert die Verfassung das Rechtsstaatsprinzip als ein prägendes Leitprinzip für jedes staatliche Handeln. Art. 1 Abs. 3 GG verlangt den Staatsgewalten zusätzlich eine gesondert erwähnte Bindung an die Grund­ rechte ab. Aus der Bindung der (gesamten) rechtsprechenden Gewalt an Ge­ setz und Recht folgt, dass auch der Einsatz entscheidungsunterstützender Algorithmen nur innerhalb des Rechtsstaatsprinzips denkbar ist und somit auch die Algorithmen bzw. die Systeme selbst grundsätzlich der Gesetzesbin­ dung unterliegen. Frage, wann ein Richter eine Entscheidung treffen muss – siehe ergänzend Redeker, NJW 2000, 2796 (2797 f.). 727  BVerfGE 107, 395 (406 f.); siehe auch BVerfGE 93, 99 (107); Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 133. Geläufig ist auch die spiegelbildliche Bezeichnung der Justizgewährungspflicht. Vgl. zum Rechtsstaatprinzip „als solchem“ und speziell zu seinen Implikationen für den justiziellen Algorithmeneinsatz unten S. 311 ff. 728  BVerfGE 33, 367 (383); 46, 214 (222); 51, 314 (343 f.); 74, 257 (262); 77, 65 (76); 100, 313 (388 f.); 106, 28 (49); 107, 104 (118 f.); 107, 299 (316); Grzeszick, in: Maunz/Dürig (Begr.), GG, 48. Erg.-Lfg. (Nov. 2006), Art. 20, Abschn. VII, Rn. 142 f. 729  Vgl. oben S. 308  f. Einer Unterstützung durch Technik steht also auch der Justizgewährleistungsanspruch nicht entgegen. Soweit ein (allerdings rein organisato­ rischer, nicht inhaltlich unterstützender) IT-Einsatz zur Gewähr effektiven Rechts­ schutzes dienlich ist, kann der Richter sich grundsätzlich nicht auf seine Unabhängig­ keit stützen – so ausdrücklich Ballhausen, IT-Einsatz in der Justiz, 2012, S. 69; vgl. auch Heusch, in: Schmidt-Bleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 97, Rn. 13 f. Die richterliche Unabhängigkeit ist in der Regel nicht berührt bei Maßnahmen der Gerichts- bzw. Justizverwaltung, welche der Verbesserung der Orga­ nisation, bspw. effizientere Arbeitsabläufe zielen, wenn Rückwirkungen auf die rich­ terliche Entscheidungsfindung nicht zu befürchten sind, vgl. Heusch, in: SchmidtBleibtreu/Hofmann/Henneke (Hrsg.), GG, 14. Aufl., 2017, Art. 97, Rn. 14; Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 97, Rn. 29. 730  Dazu im Einzelnen Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 20, Rn. 285 ff. Zu den Vorgaben der Rechtsordnung an die richter­ liche Entscheidungsfindung siehe bereits oben S. 94 ff.

312

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Zur Garantie der unbedingten Gesetzesbindung bedürfte es insbesondere einer Fehlerkontrolle. Denn die Bindung an das Gesetz verbietet Entschei­ dungen gegen das Gesetz sowie Entscheidungen außerhalb des Gesetzes.731 Die Fehlerkontrolle und -korrektur im „analogen“ Verfahren vor dem menschlichen Richter erfolgt durch Rechtsmittel, wenngleich das allgemeine Rechtsstaatsprinzip keine Garantie eines Instanzenzuges bietet732 und auch der Gesetzgeber trotz der rechtsstaatlichen Tradition, Oberste Gerichtshöfe einzurichten (Art. 95 Abs. 1 GG), „von Verfassungs wegen nicht zur Bereit­ stellung eines Instanzenzuges für jeden Einzelfall oder für Gruppen von Fällen gezwungen“733 ist. Die bestehenden Rechtsmittelmöglichkeiten wä­ ren etwa durch den erstinstanzlichen Einsatz algorithmenbasierter Unterstüt­ zungssysteme nicht berührt.734 Um einer Aushöhlung des Rechtsstaatsprinzips schon im Ansatz zu begeg­ nen, sollte die Fehlerkontrolle aber bereits bei dem entscheidungsunterstüt­ zenden System selbst ansetzen. Dazu bedürfte es bspw. automatischer Kont­ rollmechanismen, die einen Entscheidungsvorschlag anhand der Kerndaten des zu entscheidenden Falles mit den Entscheidungsspielräumen der anzu­ wendenden Vorschriften abgleichen. Welche Vorschriften anzuwenden sind, ließe sich wiederum bspw. durch einen automatischen Datenbankabgleich mit vergleichbaren rechtskräftigen Fällen ermitteln. Wie der Richter den Ent­ scheidungsvorschlag insgesamt und die Aussagen des Kontrollalgorithmus verwertet, obliegt wiederum seiner Entscheidungsfreiheit – freilich ist auch und gerade er an Gesetz und Recht gebunden.735 Dem Erfordernis der Ge­ setzesbindung zu genügen, ist letztlich eine Frage der praktischen bzw. tech­ nischen Ausgestaltung eines Entscheidungsunterstützungssystems.736

731  Ausführlich Höpfner, RdA 2018, 321 (322 ff.); vgl. auch Grzeszick, in: Maunz/ Dürig (Begr.), GG, 51. Erg.-Lfg. (Dez. 2007), Art. 20, Abschn. VI, Rn. 72 f., 148; Huster/Rux, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 20, Rn. 171. 732  So das BVerfG in st. Rspr., etwa BVerfGE 4, 74 (94 f.); 11, 232 (233); 54, 143 (143); 78, 7 (18); 83, 24 (31); vgl. auch Voßkuhle, Rechtsschutz gegen den Richter, 1993, S.  186 f. 733  BVerfGE 42, 243 (248). 734  Anders kann es liegen, wenn in der Rechtsmittelinstanz dieselben Systeme zum Einsatz kommen wie in der Ausgangsinstanz. Zu diesem Problem bereits Martini/Nink, DVBl 2018, 1128 (1134 f.). 735  Die richterliche Entscheidung bleibt, wenngleich eingeschränkt (vgl. etwa § 261 StPO, § 286 ZPO), überprüfbar. Entscheidungsunterstützende Algorithmen äh­ neln der Sache nach etwa Sachverständigengutachten. 736  Zu Überlegungen für konkrete Einsatzszenarien siehe unten S. 359 ff.



V. Verfassungsrechtliche Direktiven313

b) Gewaltenteilung Der jedenfalls teilweise dem Rechtsstaatsprinzip entspringende737 Grund­ satz der Gewaltenteilung (Art. 20 Abs. 2 S. 2, Abs. 3 GG) fungiert als tragen­ des Organisationsprinzip der Verfassung, um die (politische) Machtverteilung im Staat und die „Mäßigung der Staatsherrschaft“ sicherzustellen.738 Er er­ möglicht die Kontrolle staatlichen Handelns durch die Abgrenzung seiner Gewalten und eine entsprechende Distanz zueinander: Die Legislative als Gewalt, die rechtliche Maßstäbe setzt, muss notwendigerweise eine andere sein als diejenige Gewalt, die nach den zuvor gesetzten Maßstäben entschei­ den, handeln oder urteilen soll. Rechtsetzung und Rechtsanwendung unter­ scheiden sich funktional, sodass die Verfassung ihre grundsätzliche Trennung verlangt. So ist die Gesamtstruktur des formellen Rechtsstaates ebenso wie der Grundsatz der obligatorischen demokratischen Legitimierung staatlichen Handelns auf das Gewaltenteilungsprinzip angewiesen.739 Allerdings ist es nicht grundsätzlich unzulässig und auch nicht unüblich, wenn sich Staatsgewalten verschränken: Soweit die beteiligten Organe unter­ schiedliche Strukturen aufweisen und über eigenständig strukturierte Ent­ scheidungskompetenzen verfügen, die sich von denen des anderen Organs unterscheiden, ergibt sich auch in diesen Konstellationen die Möglichkeit einer Kontrolle durch die Gewaltenteilung bzw. -gliederung.740 Beschließt der Gesetzgeber oder die Justizverwaltung, dass und wie Ma­ schinen gerichtliche Entscheidungen vorbereiten und unterstützen können, besteht jedenfalls die Gefahr eines unzulässigen Eingriffs in die Dritte Ge­ walt. Insoweit lässt sich eine Parallele zur Rechtsprechung über die richterli­ che Dienstaufsicht ziehen:741 Ein Eingriff in die richterliche Unabhängigkeit ist insbesondere dann anzunehmen, wenn ein Richter nur die vom Programm vorgefertigten Textbausteine verwenden darf. Daraus kann nur folgen: Jede Form der verbindlichen inhaltlichen Vorgabe in den Entscheidungsprozess tastet die richterliche Unabhängigkeit und den Grundsatz der Gewaltentei­ 737  Vgl. Huster/Rux, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 20, Rn. 156. 738  BVerfGE 3, 225 (247); 67, 100 (130). Das Prinzip der Gewaltenteilung ist allerdings nach Ansicht des BVerfG „nirgends rein verwirklicht“, vgl. BVerfGE 3, 225 (247); 95, 1 (15). 739  Grzeszick, in: Maunz/Dürig (Begr.), GG, 70. Erg.-Lfg. (Dez. 2013), Art. 20, Abschn. V, Rn. 58. 740  Grzeszick, in: Maunz/Dürig (Begr.), GG, 70. Erg.-Lfg. (Dez. 2013), Art. 20, Abschn. V, Rn. 41. Deutlich höhere Relevanz entfaltet der Grundsatz der Gewalten­ teilung i. R. d. Bedeutung des Art. 92 Hs. 1 GG; siehe dazu die Ausführungen oben S. 272 ff. 741  Dazu oben S. 291 ff.

314

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

lung an. Was daneben die konkrete Auswahl zwischen mehreren in Frage kommenden Software- bzw. IT-Systemen betrifft, kann im Sinne der Einheit­ lichkeit und der Ressourcenschonung nicht jeder Richter einzeln sein „Wunschprogramm“ nutzen. Die Richter müssen aber ein Mitspracherecht – ein Mindestmaß an Eigenverantwortung und Gestaltungshoheit für die einge­ setzten Systeme – haben, um externe Einflüsse in die Entscheidungsfindung zu vermeiden.742 Denkbar sind insbesondere Beteiligungen über die RichterBerufsverbände. c) Faires Verfahren – Art. 6 EMRK Das Recht auf ein faires Verfahren findet sich nicht ausdrücklich im Grundgesetz, seine Existenz ergibt sich aber aus dem Anspruch auf rechtli­ ches Gehör (Art. 103 Abs. 1 GG), der Rechtsweggarantie (Art. 19 Abs. 4 GG) und dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG).743 Einfachrechtlich sichert vor allem das Prozessrecht den Grundsatz ab. Konkrete Vorgaben aus dem Recht auf ein faires Verfahren ergeben sich insbesondere im normativen Zusammenspiel mit Art. 6 Abs. 1 EMRK (Fair-trial-Grundsatz) und der dazu ergangenen Rechtsprechung. Wenngleich Art. 6 EMRK formal im Rang eines einfachen (Bundes-)Ge­ setzes steht, ist das deutsche Recht (etwa die StPO) wegen der im Grundge­ setz verankerten Völkerrechtsfreundlichkeit sowie dessen inhaltlicher Aus­ richtung auf den Schutz der Menschenrechte (vgl. Art. 1 Abs. 2 GG) EMRKkonform auszulegen.744 Zusätzlich kommt auch dem case law des EGMR eine faktische Orientierungs- und Leitfunktion zu.745 In seiner Verknüpfung mit Art. 20 Abs. 3 GG steht der Rechtsanspruch auf ein faires Verfahren, wie ihn Art. 6 EMRK normiert, in seiner Hierarchie im Ergebnis über dem ein­ fachgesetzlichen Recht. Nach Art. 6 Abs. 1 S. 1 EMRK hat jede Person ein Recht darauf, dass über zivilrechtliche Streitigkeiten und strafrechtliche Anklagen „von einem unab­ hängigen und unparteiischen, auf Gesetz beruhenden Gericht in einem fairen 742  Vgl. bereits Deutscher Richterbund, Zehn-Punkte-Papier zur Stärkung des Rechtsstaats, Mai 2013, S. 8 f., für die Auswahl der „gewöhnlichen“, bisher einge­ setzten Informationstechnik. 743  BVerfGE 118, 212 (231 ff.); Gaede, in: Knauer (Hrsg.), MüKo-StPO, Bd. 3/2, 2018, Art. 6 EMRK, Rn. 35. 744  BVerfGE 128, 326 (367 ff.); Gaede, in: Knauer (Hrsg.), MüKo-StPO, Bd. 3/2, 2018, Art. 6 EMRK, Rn. 6 f. 745  BVerfGE 128, 326 (367  ff.); BVerwGE 110, 203 (211); vgl. auch bereits BVerfGE 74, 358 (370). Vgl. zur (problematischen) demokratischen Legitimation der Rechtsfortbildung durch EuGH und EGMR ergänzend auch Landau, NStZ 2015, 665 (665 ff.).



V. Verfassungsrechtliche Direktiven315

Verfahren, öffentlich und innerhalb angemessener Frist verhandelt wird“. Die Norm fixiert vier Einzelkomponenten: das Recht auf eine Entscheidung durch ein Gericht746, das Recht auf ein faires Verfahren (Fair-trial-Grundsatz)747, das Recht auf eine öffentliche Verhandlung sowie auf eine Verhandlung in­ nerhalb angemessener Frist748. Der Fair-trial-Grundsatz untersagt es, einen Prozessbeteiligten zum bloßen Objekt der gerichtlichen Entscheidungsfin­ dung herabzuwürdigen: Er ist ein mit eigenen Rechten ausgestattetes Subjekt, das auf Ablauf und Ergebnis des Verfahrens einwirken kann.749 Daneben im­ pliziert ein fair trial insbesondere den Grundsatz des kontradiktorischen Ver­ fahrens bzw. (allgemeiner) der Waffengleichheit.750 Im Strafprozess muss der Angeklagte die Möglichkeit haben, sich effektiv verteidigen, insbesondere eigene Fragen an einen Belastungszeugen richten zu können (Art. 6 Abs. 3 lit. d EMRK). Wenngleich das Grundgesetz kein kodifiziertes „Recht auf ein faires Verfahren“ kennt, deckt es die Schutzgehalte des Art. 6 Abs. 1 EMRK aber bereits grundsätzlich ab.751 Auch hinsichtlich der Garantie eines unab­ hängigen und unparteiischen Gerichts geht die Vorschrift in ihrem Schutzge­ halt nicht über Art. 92 GG hinaus.752 Mit Blick auf mögliche Automatisierungsbestrebungen in der Justiz lassen sich dem Fair-trial-Grundsatz noch weitere Gehalte zuschreiben. So postu­ liert etwa die Europäische Kommission für die Effizienz der Justiz 746  Das zur Entscheidung berufene Gericht muss auf dem Gesetz beruhen; Aus­ nahmegerichte sind unzulässig, vgl. Paeffgen, in: Wolter (Hrsg.), SK-StPO, Bd. 10, 5. Aufl., 2017, Art. 6 EMRK, Rn. 64; Valerius, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), Art. 6 EMRK, Rn. 8. Ein entscheidungsunterstützender ITEinsatz müsste aber ohnehin gesetzlich fixiert sein. 747  Zu einem fairen Verfahren gehört auch ein Mindestmaß an Transparenz. Vgl. dazu sogleich unten S. 331 ff. 748  Für das Recht auf eine Verhandlung innerhalb angemessener Frist kann eine unterstützende Teilautomatisierung (insbesondere der richterlichen Tätigkeit), die dem Richter erlaubt, seine Ressourcen auf die juristische Kerntätigkeit zu konzentrie­ ren, von spürbarem Vorteil sein. Ähnlich Dymitruk, Ethical Artificial Intelligence in Judiciary, in: Schweighofer/Kummer/Saarenpää (Hrsg.), Internet of Things, 2019, S. 451 (455): „Since delayed justice is denied justice, one should not ignore the ef­ ficiency potential the creators of the AI systems offer to the judiciary“. 749  BVerfGE 107, 395 (408); Valerius, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), Art. 6 EMRK, Rn. 9; ähnlich bereits BVerfGE 64, 135 (145). 750  Vgl. BVerfGE 38, 105 (111); 110, 226 (253); Paeffgen, in: Wolter (Hrsg.), SK-StPO, Bd. 10, 5. Aufl., 2017, Art. 6 EMRK, Rn. 79; Schmitt, in: Meyer-Goßner/ Schmitt (Hrsg.), StPO, 62. Aufl., 2019, MRK Art. 6, Rn. 3 f.; Valerius, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), Art. 6 EMRK, Rn. 10 f. m. w. N. 751  Insbesondere aus Art. 2 Abs. 1, Art. 20 Abs. 3 GG, vgl. dazu BVerfGE 118, 212 (231 ff.), sowie Gaede, in: Knauer (Hrsg.), MüKo-StPO, Bd. 3/2, 2018, Art. 6 EMRK, Rn. 35. 752  Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62.  Aufl., 2019, MRK Art.  6, Rn.  10 m. w. N.

316

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(CEPEJ)753 in ihrer „European Ethical Charter on the Use of Artificial Intel­ ligence in Judicial Systems and their environment“ nach einer Übersicht da­ rüber, wo und wie Algorithmen bereits Einzug in die Rechtsprechung gehal­ ten haben: „There is also a need to consider whether these solutions are compatible with the individual rights enshrined in the European Convention on Human Rights (ECHR). These include the right to a fair trial (particularly the right to a natural judge established by law, the right to an independent and impartial tribunal and equality of arms in judicial proceedings)“754.

In dieser Lesart enthält der Fair-trial-Grundsatz zusätzlich ein „Recht auf den menschlichen Richter“. Zwar stellt die Wendung „natural justice“ ledig­ lich einen Fachterminus des englischsprachigen Rechtsraums dar, der inhalt­ lich etwa einer „duty to act fairly“ entspricht.755 Die CEPEJ scheint aber bewusst darüber hinausgehen zu wollen („natural judge“). Im Kontext der „European Ethical Charter“ spricht alles dafür, dass die CEPEJ das right to a natural judge genau auf diese Weise postuliert – als ein Recht auf eine natür­ liche Person als Richter.756 Dafür streitet auch die französische Fassung („droit au juge naturel“); eine deutsche Version liegt nicht vor. In Deutsch­ land folgt ein solches Recht aber ohnehin bereits aus Art. 92 Hs. 1 und Art. 101 Abs. 1 S. 2 GG.

753  Das Ministerkomitee als Entscheidungsorgan des Europarats hat die CEPEJ 2002 ins Leben gerufen. 754  Europarat/Europäische Kommission für die Effizienz der Justiz (CEPEJ), Ethi­ cal Charter on the Use of AI, 2018, S. 15 (Hervorhebung nicht im Original). 755  Siehe etwa Shauer, William & Mary Law Review 18 (1976), 47 (49 ff.). 756  Als eine der praktisch bedeutsamsten Garantien der EMRK ist Art. 6 nicht eng auszulegen, vgl. EGMR-E 1, 100 (101, Rn. 25) – Delcourt/BEL (in der deutschen Fassung): „In einer im Sinne der Konvention demokratischen Gesellschaft nimmt eine geordnete Rechtspflege einen derart herausragenden Platz ein, dass eine restrik­ tive Auslegung von Art. 6 Abs. 1 Ziel und Zweck dieser Vorschrift nicht entsprechen würde.“ Vgl. dazu auch EGMR-E 2, 70 (78, Rn. 30) – Adolf/AUT; EGMR-E 2, 321 (325 f., Rn. 25 f.) – Axen/D. Trotz dieses weiten Geltungsbereichs lässt sich dem Normtext ein „Recht auf den natürlichen Richter“ nicht unmittelbar entnehmen: Um­ fasst sind zuvorderst Verfahrensgerechtigkeit sowie die Teilhabe am Prozess, auch am Entscheidungsprozess des Richters, vgl. Gaede, in: Knauer (Hrsg.), MüKo-StPO, Bd. 3/2, 2018, Art. 6 EMRK, Rn. 2: „Recht, in einem ergebnisoffen zu gestaltenden Verfahren umfassend an der Erarbeitung der Entscheidungsgrundlage mitzuwirken und insofern am Prozess des Richtens teilzuhaben“.



V. Verfassungsrechtliche Direktiven317

8. Demokratieprinzip und Volkssouveränität – die demokratische Legitimation gerichtlicher Entscheidungen In Art. 20 Abs. 1, Abs. 2 S. 1 verbürgt das Grundgesetz einen weiteren zentralen und unabänderlichen (vgl. Art. 79 Abs. 3 GG) Grundsatz: Das De­ mokratieprinzip (vgl. auch Art. 10 EUV) verlangt, dass im demokratischen Bundesstaat alle Staatsgewalt vom Volke ausgeht (nachfolgend a). Umge­ kehrt bedeutet dies, dass jegliches staatliche Handeln demokratisch legiti­ miert sein muss, also auf den Willen des Volkes zurückzuführen ist. Die de­ mokratische Legitimation der Judikative nimmt dabei bereits eine Sonder­ stellung ein (nachfolgend b). Plant der Staat, Entscheidungen der Judikative als Dritter Staatsgewalt ganz oder teilweise durch automatische Einrichtungen zu erlassen, bedarf die demokratische Legitimation eines solchen Vorgehens jedenfalls einer gesonderten Betrachtung (nachfolgend c). a) Grundsätze Der grundgesetzliche Begriff der demokratischen Legitimation757 meint nicht die Rechtfertigung des Staates selbst, sondern er beschreibt die Recht­ fertigung staatlichen Handelns: Sämtliche Akte staatlicher Gewalt müssen auf den Willen des (deutschen, vgl. Art. 116 GG) Volkes zurückgehen; ho­ heitliches Handeln ist dem Volk gegenüber zu verantworten.758 Auf diese Weise entsteht ein Zurechnungszusammenhang zwischen Volk und Staat. Dieser erfolgt „vor allem durch die Wahl des Parlaments, durch die von ihm beschlossenen Gesetze […] sowie durch die grundsätzliche Weisungs­ gebundenheit der Verwaltung“.759 Nach der Rechtsprechung des BVerfG genügt es in aller Regel, dass sich die Legitimation mittelbar auf das Volk als Träger der Staatsgewalt zurückführen lässt; sie muss also nicht zwangs­ läufig durch unmittelbare Wahlen erfolgen.760 Hoheitliche Maßnahmen müssen aber auf einer irgendwie gearteten Willensbildung basieren, die auf den Hoheitsträger und letztlich den Souverän zurückgeht. Der Begriff der demokratischen Legitimation umfasst hingegen nicht andere, ebenfalls be­ 757  Die Literatur unterscheidet teilweise zwischen Legitimation, also dem Prozess des Rechtfertigens, und Legitimität, also dem Resultat des Legitimationsprozesses als spezifische Eigenschaft, vgl. Voßkuhle/Sydow, JZ 2002, 673 (674). Weil die nachfol­ genden Ausführungen hierzu aber recht abstrakt bleiben, sowie aufgrund der etymo­ logischen Verwandtschaft beider Begriffe (lat. legitimus: rechtmäßig, gesetzmäßig, gehörig, zutreffend), kann eine Differenzierung hier unterbleiben. 758  Dazu und zum Folgenden Voßkuhle/Kaiser, JuS 2009, 803 (803). 759  BVerfGE 83, 60 (72); 93, 37 (66). 760  BVerfGE 47, 253 (275).

318

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

deutsame Legitimationskomponenten wie die Akzeptanz oder die Entschei­ dungsrichtigkeit.761 Die Rechtsordnung kennt mehrere Legitimationsformen der Zurechnung staatlicher Herrschaft (als Legitimationsobjekt) zum Volk (dem Legitimations­ subjekt):762 die institutionelle und funktionelle763 demokratische Legitimation sowie die konkrete Legitimation des Sachwalters, die ihrerseits unterteilt ist in eine organisatorisch-personelle und eine sachlich-inhaltliche Komponen­ te.764 Ziel ist es, den Inhalt staatlichen Handelns an den Willen des Volkes rückzubinden. Dies geschieht einerseits über Vorrang und Vorbehalt des Ge­ setzes (Art. 20 Abs. 3 GG) sowie andererseits über demokratische Verant­ wortlichkeiten und Kontrollmöglichkeiten, also insbesondere Weisungs- und Aufsichtsrechte. Art. 20 Abs. 2 S. 1 GG soll auf diese Weise die lückenlose demokratische Legitimation und Zurechnung aller staatlichen Gewalt sicher­ stellen.765 b) Demokratische Legitimation der Judikative Demokratische Legitimation bedeutet für alle drei Gewalten jeweils auch eine potenzielle Inhaltskontrolle des Volkes über die Ausübung hoheitlicher Gewalt.766 Wenngleich das Demokratieprinzip zuvorderst bezüglich der Ex­ ekutive sowie der parlamentarischen Gesetzgebung (wissenschaftliche) Be­ achtung findet, besteht Einigkeit darüber, dass auch die Tätigkeit der Rich­ ter – wie jede andere Ausübung hoheitlicher Staatsgewalt – allgemein der demokratischen Legitimation bedarf.767 So stellt auch Art. 20 Abs. 2 S. 2 GG ausdrücklich den Zusammenhang zwischen Rechtsprechung und Volk her. Für die Judikative als Dritter Gewalt machen das einfache Recht und 761  Voßkuhle/Kaiser, JuS 2009, 803 (803); zu Transparenz und Akzeptanz so­ gleich unten S. 330 ff. 762  Vgl. etwa Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7.  Aufl., 2018, Art. 20, Rn. 156 ff. 763  Skeptisch dazu Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 20, Rn. 169. 764  Dazu auch Mehde, Neues Steuerungsmodell und Demokratieprinzip, 2000, S. 184 ff. Das BVerfG benennt – ohne sachliche Unterschiede oder Konsequenzen – die Kategorien etwas anders („institutionelle, funktionelle, sachlich-inhaltliche und personelle Legitimation“), vgl. BVerfGE 93, 37 (66 f.). 765  Voßkuhle/Kaiser, JuS 2009, 803 (803). 766  Tschentscher, Demokratische Legitimation der dritten Gewalt, 2006, S. 1. 767  Vgl. Grzeszick, in: Maunz/Dürig (Begr.), GG, 57.  Erg.-Lfg. (Jan. 2010), Art. 20, Abschn. II, Rn. 235; Voßkuhle/Sydow, JZ 2002, 673 (674) m. w. N.; a. A. aber wohl Roellecke, Zur demokratischen Legitimation der rechtsprechenden Gewalt, in: Isensee/Lecheler (Hrsg.), Freiheit und Eigentum, 1999, S. 553 (560).



V. Verfassungsrechtliche Direktiven319

daraus folgend die gerichtliche Praxis die demokratische Zurechnung beson­ ders plakativ: Urteile ergehen „im Namen des Volkes“ (vgl. nur § 311 Abs. 1 ZPO, § 268 Abs. 1 StPO, § 117 Abs. 1 S. 1 VwGO). Wie aber lässt sich die demokratische Legitimation der Dritten Gewalt tatsächlich gewährleisten?768 Die Verfassung normiert den Status des Rich­ ters als Amtswalter ausdrücklich in Art. 33, 97 und 98 GG. Über den Begriff der Rechtsprechung als Funktion besteht zwar keine Einigkeit.769 Art. 20 Abs. 2 S. 2 GG nennt aber die Judikative als eigenständige, demokratisch legitimierte Staatsgewalt. Nach Art. 92 Hs. 1 GG ist sie ausschließlich den Richtern anvertraut. Die Rechtsprechung als Funktion sowie deren Ausübung durch die Richter sind dadurch funktionell-institutionell legitimiert. Für den einzelnen Richter erscheinen die organisatorisch-personelle und die sachlich-inhaltliche Legitimation hingegen problematisch. Für erstere ergibt sich das Problem in struktureller Hinsicht bereits daraus, dass die ­ Richterernennungsverfahren in Bund und Ländern sehr unterschiedlich aus­ gestaltet sind.770 Immerhin lässt sich die personelle Legitimation durch die Ernennung zum Richter als solche und die Zuweisung des Richteramts gut abbilden.771 Für die sachlich-inhaltliche Legitimation gilt: Wegen der Unab­ hängigkeit der Richter (Art. 97 GG) kommt weder eine demokratische Ver­ antwortlichkeit noch eine Weisungsgebundenheit in Betracht.772 Die Unab­ hängigkeit verhindert so eine enge (personelle und sachliche) Rückbindung der richterlichen Arbeit an den Willen des Volkes.773 Die demokratische Legitimation des Richters bzw. des richterlichen Entscheidens ist begrenzt auf die gesetzliche Steuerung. Die richterliche Unabhängigkeit verhindert 768  Zur demokratischen Legitimation speziell des BVerfG Di Fabio, APuZ 35–36 (2011), 3 (3 ff.). Die Legitimation der Verfassungsrichter ergibt sich aus Art. 94 Abs. 1 S. 2 GG. 769  Siehe oben in der Analyse zu Art. 92 Hs. 1 GG, S. 262 ff. 770  Die Grundmodelle der Richterernennung sind: die Auswahl und Ernennung durch den zuständigen Minister bzw. ihm nachgeordnete entsprechende Stellen der Exekutive, die Wahl durch Parlamente bzw. Ausschüsse, sowie die Wahl durch Rich­ terwahlausschüsse, die aus Vertretern der Exekutive, der Legislative und der Richter­ schaft zusammengesetzt sind. Die Verfassung stellt den Ländern jedenfalls frei, die Entscheidung über die Anstellung ihrer Landesrichter einem Richterwahlausschuss zu übertragen (Art. 98 Abs. 4 GG) Die Mehrzahl der Länder hat davon Gebrauch ge­ macht, vgl. die Übersicht bei Hillgruber, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg(Jan. 2010), Art. 98, Rn. 49. Seine eigene Unabhängigkeit mit Blick auf Ernennungen und Beförderungen durch das Justizministerium hat jüngst das VG Wiesbaden infrage gestellt, vgl. VG Wiesbaden, Beschl. v. 28.3.2019 – 6 K 1016/15.WI –, juris, Rn. 54 ff. 771  Vgl. Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 20, Rn. 169. 772  Voßkuhle/Kaiser, JuS 2009, 803 (804). 773  Voßkuhle/Sydow, JZ 2002, 673 (682).

320

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

eine Einflussnahme auf bzw. einen Eingriff in Einzelentscheidungen. Weder den Parlamenten noch der Verwaltung steht eine Befugnis zur Einzelkorrek­ tur zu.774 Aus diesem Befund heraus erlangt die Gesetzes- bzw. Rechtsbindung der richterlichen Tätigkeit (Art. 20 Abs. 3 GG und Art. 97 Abs. 1 GG) ihre hohe Relevanz. Sie erst ermöglicht die sachlich-inhaltliche Legitimation.775 Im Sinne der demokratischen Legitimation der Rechtsprechung ist die richterli­ che Unabhängigkeit nur hinzunehmen, „wenn und weil die Rechtsprechung inhaltlich der Gesetzesbindung unterliegt“776. Die Gesetzesbindung ist abso­ lut, sie gilt trotz bestehender Wertungs- und Entscheidungsspielräume: Das Gesetz bleibt Maßstab und Grenze des richterlichen Vorgehens.777 Daneben sichert der Instanzenzug die gewalteninterne Kontrolle und unterstreicht die demokratische Legitimation, indem er die Bindung des Richters an das Ge­ setz auch in der Organisation und Anordnung der Gerichte sicherstellt.778 Als weitere Legitimationsstützen kommen ergänzend der Öffentlichkeits(§ 169 GVG) und der Mündlichkeitsgrundsatz (insbesondere § 128 Abs. 1 ZPO; §§ 226, 261, 264 StPO; § 101 Abs. 1 VwGO), die Begründungspflicht für richterliche Entscheidungen, die (beruflich-persönliche) Qualifikation der Berufsrichter sowie die Beteiligung ehrenamtlicher Richter, die den juristi­ schen Sachverstand der Berufsrichter um einen Rückbezug zum Volk und den „gesunden Menschenverstand“ ergänzen, in Betracht.779

774  Tschentscher,

Demokratische Legitimation der dritten Gewalt, 2006, S. 168. Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 20, Rn. 168: Die „materielle Legitimation der Rechtsprechung [ist] funktionsge­ mäß auf die Gesetzesbindung beschränkt“. 776  Grzeszick, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg. (Jan. 2010), Art. 20, Abschn. II, Rn. 247. 777  Wegen seiner Unabhängigkeit bleibt die demokratisch-legitimatorisch zentrale Gesetzestreue des Richters aber insgesamt eine „rechtlich eher schwach gesicherte Erwartung“, so Grzeszick, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg. (Jan. 2010), Art. 20, Abschn. II, Rn. 237. 778  Vgl. Voßkuhle/Sydow, JZ 2002, 673 (679). Gleiches gilt für das Kollegialprin­ zip der Kammern und Senate, das für Amts- und Einzelrichter aber in dieser Hinsicht nicht relevant ist. 779  So jedenfalls Voßkuhle/Sydow, JZ 2002, 673 (680); vgl. auch Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 20, Rn. 171, dort Fn. 83; zurückhaltender Grzeszick, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg. (Jan. 2010), Art. 20, Abschn. II, Rn. 242, 244 ff. 775  Vgl.



V. Verfassungsrechtliche Direktiven321

c) Demokratische Legitimation beim Einsatz automatischer Systeme in der Justiz aa) Problemlage Setzt der Staat automatische Systeme ein, stellt sich die Frage nach der demokratischen Legitimation hoheitlichen Handelns in besonderer Weise. Das gilt zunächst unabhängig davon, ob reine Datenverarbeitungssysteme (z. B. Software zur Aktenverwaltung), Automaten (z. B. das Risikomanage­ mentsystem im automatisierten Besteuerungsverfahren), Künstliche Intelli­ genz oder (derzeit kaum vorstellbar) autonome Systeme zum Einsatz kom­ men. In der Regel programmiert die einsetzende Behörde bzw. staatliche Stelle eine Software nicht selbst. Nutzt sie etwa Datenverarbeitungssysteme, vergibt sie den Auftrag, das System herzustellen oder zu programmieren, vor allem anhand vergaberechtlicher Kriterien im öffentlich-rechtlichen Beschaf­ fungsmanagement. Im besonderen Kontext der Judikative kann diese Vorgehensweise die de­ mokratische Rückkopplung zum Volk erschweren und verschleiern. Die Programme und Algorithmen, die hoheitliche Entscheidungen treffen oder zumindest (mit)vorbereiten können, stammen nicht vom Hoheitsträger selbst, sondern von privaten, gewinnorientierten Unternehmen mit ökonomischer (und sozialer) Macht. Diese Privaten könnten so indirekt Hoheitsgewalt aus­ üben und sogar Recht durchsetzen, ohne in vergleichbarer Weise wie der menschliche Richter demokratisch legitimiert zu sein. Dem lässt sich entgegnen, dass Teilprivatisierungen in der Justiz nicht generell ausgeschlossen sind. Dass andere hoheitliche, aber auch private Stellen gerichtliche Aufgaben wahrnehmen, ist seit längerem in der Diskus­ sion und findet bereits statt.780 So ist es auf dem Gebiet der freiwilligen Gerichtsbarkeit in vielen Fällen zumindest grundsätzlich denkbar, einzelne Aufgaben auf andere Stellen zu übertragen.781 Eine Teilprivatisierung er­ scheint generell möglich bei nicht-richterlichen Aufgaben, die noch zum Einflussbereich der Gerichte gehören. Das betrifft insbesondere soziale Dienste im Strafvollzug, aber auch die Diskussion um eine Privatisierung der und zum Folgenden Hoffmann-Riem, JZ 1999, 421 (425 ff.) m. w. N. lässt sich darüber streiten, ob eine einverständliche Scheidung ohne komplizierte rechtliche Folgefragen – als Pendant zur Eheschließung, die auch vor dem Standesamt erfolgt – zwingend ein Gericht beschließen muss. Gleiches gilt für die Registerführung etwa der Handelsregister, die grundsätzlich auch durch Industrieund Handelskammern in Betracht käme (vgl. auch §§ 8, 8b und 9a HGB). Eine Viel­ zahl hoheitlicher Aufgaben erfüllen zudem Notare (§§ 20 ff. BNotO). Vgl. dazu Hoffmann-Riem, JZ 1999, 421 (425 ff.). 780  Dazu

781  Bspw.

322

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Justizvollzugsanstalten sowie die bereits eingesetzten privaten Sicherheits­ dienste im Strafvollzug, etwa beim Gefangenentransport.782 Als besonders geeignet für eine Teilprivatisierung scheint daneben die Eigenverwaltung der Justiz, also bspw. die Lohnbuchhaltung sowie die Verwaltung der Justizkasse, Hilfsgeschäfte wie Aktentransporte und Pförtnerdienste sowie die Soft­ warebetreuung für die Schreib-, Aktenverwaltungs- und Datenverarbeitungs­ programme. Das Mahn- oder Grundbuchverfahren hat durch seine Automa­ tion bereits eine Teilprivatisierung durchlaufen. Die Verantwortungsteilung zwischen Staat und Privaten unterliegt also einem stetem Wandel.783 Bislang sind indes per se nur vorbereitende und Hilfsaufgaben einer (teilweisen) Pri­ vatisierung zugänglich. Die gerichtlichen und richterlichen Kerntätigkeiten und -aufgaben sind nicht Teil aktueller Privatisierungsbestrebungen. Für die Verwaltung stellte sich das Problem der demokratischen Rückbin­ dung bislang nicht in dieser Schärfe. Der Einsatz „linearer“ Algorithmen und rein regelbasierter Systeme verlagert die menschliche Entscheidung nur vor – in Gestalt der Willensbildung. Der Kern der Entscheidung selbst ver­ bleibt dadurch beim Menschen. Für vollautomatisch erlassene Verwaltungs­ akte (§ 35a VwVfG, § 31a SGB X, § 155 Abs. 4 S. 1 AO) geht der Gesetz­ geber bspw. davon aus, dass eine echte menschliche Willensbildung stattfin­ det – und diese eben vorgezogen ist.784 Die menschliche Willensbetätigung vollzieht sich in dem Moment, in dem der zuständige Staatsdiener entschie­ den hat, das informationstechnische System in seiner Behörde zu nutzen.785 Der Einsatz solcher Systeme, wie sie etwa die Finanzämter im Besteuerungs­ verfahren einsetzen (vgl. § 155 Abs. 4 AO), bleibt jedenfalls immer demo­ kratisch legitimiert, solange das System nichts „Eigenes“ addiert, sondern nur den menschlichen Prozess unterstützt.786 Insbesondere lernende Systeme und Anwendungen Künstlicher Intelligenz lassen aber daran zweifeln, dass ihr Einsatz in einer lückenlosen Legitimati­ 782  Hoffmann-Riem,

JZ 1999, 421 (427 f.). JZ 1999, 421 (429): „Die Vorbereitung der Bescheide dafür [der Mahnbescheide, Anm. d. Autors] kann ohne Weiteres auf Private übertragen wer­ den“, der Erlass müsse aber zwingend hoheitlich durch das Gericht erfolgen. 784  Vgl. BT-Drs. 18/8434, S. 122; Schmitz/Prell, NVwZ 2016, 1273 (1276). 785  Zum Aspekt der Zurechnung sei ergänzt, dass das Gesetz selbst in vielen Be­ reichen davon abgerückt ist, dass jeder Verwaltungsakt in jedem Fall einen konkreten Willensentschluss verlangt, vgl. Stegmüller, NVwZ 2018, 353 (354). So liegt es etwa bei der Genehmigungsfiktion gem. § 42a VwVfG: Allein durch Ablauf einer Frist und ohne, dass ein menschlicher Sachbearbeiter den konkreten Willen zur Genehmigung gebildet hat, ergeht eine hoheitliche Entscheidung – in Gestalt des sog. fiktiven Ver­ waltungsaktes. 786  Insbesondere besteht zwischen „automatisch“ bzw. „automatisiert“ und „auto­ nom“ ein großer Unterschied, vgl. bereits oben S. 151. 783  Hoffmann-Riem,



V. Verfassungsrechtliche Direktiven323

onskette787 möglich ist und den Anforderungen des Art. 20 Abs. 1, Abs. 2 S. 1 GG genügt. Denn sowohl die Implementierung solcher Systeme (als behördliche Auswahlentscheidung) als auch deren konkrete Maßnahmen bzw. Entscheidungen (auf der Grundlage des geltenden Rechts) müssen dem staats- und haftungsrechtlich verantwortlichen Entscheidungsträger eindeutig und nachvollziehbar zuzuordnen sein. Bei (teil)automatisierten Systemen bleibt die Kette demokratischer Legiti­ mation geschlossen, wenn diese Systeme nichts hinzufügen, was über die menschliche Implementierungsentscheidung hinausreicht. Erst dann, wenn eine Maschine eigenständig „denkt“ oder etwas erzeugt bzw. „schafft“, ent­ fällt eine Zurechnung zur Amtsperson und deren demokratischer Legitimati­ on.788 In diesem Fall müsste das System selbst legitimationsfähig sein.789 Für ein Entscheidungsunterstützungs- oder Entscheidungssystem in der Justiz ist das kaum vorstellbar. bb) Folgerungen Ausgehend von den Grundsätzen und der skizzierten Problemlage stellt sich die Frage, welche Voraussetzungen ein informationstechnisches, auto­ matisches System erfüllen müsste, damit sein Einsatz in der Justiz demokra­ tisch legitimiert sein kann. (1) Funktionell-institutionelle sowie organisatorisch-personelle Legitimation Die Überlegungen zur funktionell-institutionellen Legitimation führen hier nicht weiter: Die Frage, ob eine Maschine (theoretisch) als Richter demokra­ tisch legitimiert sein kann, hängt davon ab, ob sie „Richter“ i. S. d. Art. 92 Hs. 1 GG sein kann.790 Beim lediglich entscheidungsunterstützenden Algo­ rithmeneinsatz spielt die funktionell-institutionelle Legitimation also nur eine untergeordnete Rolle. Etwas seichtere argumentative Einstiegsstellen bietet die organisatorischpersonelle Legitimation. Der Einsatz automatischer Systeme in der Verwal­ tung zeigt, dass die Behörde die Software an irgendeinem Punkt hoheitlich 787  Das

Bild verwendet z. B. BVerfGE 47, 253 (275); 107, 59 (87). die parallele Situation der demokratischen Legitimation von Amtsträgern und ihren Entscheidungen bei BVerfGE 93, 37 (67 ff.). 789  Meyer, Der Einsatz von Robotern zur Gefahrenabwehr, in: Hilgendorf (Hrsg.), Robotik im Kontext von Recht und Moral, 2014, S. 211 (223 ff.). 790  Vgl. oben S. 361 ff. 788  Vgl.

324

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

implementiert und für den Einsatz sowie den Kontakt zum Bürger freigegeben hat. Sie handelt dabei mit Zurechnungswillen – ein bewusster Einsatz des Systems. Eine Parallele zum Einsatz solcher Verfahren in der Justiz ist aber nicht leicht zu ziehen. Eine organisatorisch-personelle demokratisch legiti­ mierende Zurechnung ist zwar auch dort grundsätzlich möglich. Sie verliefe dann aber zum Gesetzgeber, zum Landesjustizministerium oder zur Gerichts­ verwaltung – und nicht zum einzelnen Richter selbst. Die Rechtsprechung ist wiederum nach Art. 92 Hs. 1 GG den Richtern vorbehalten und nicht der Gerichtsverwaltung, den Landesjustizministerien oder dem Gesetzgeber. Im Sinne der Gewaltenteilung müsste dann auch tatsächlich der einzelne Richter über die Anwendung solcher Systeme im Einzelfall entscheiden.791 (2) Sachlich-inhaltliche Legitimation Näherer Betrachtung bedarf sodann die sachlich-inhaltliche (oder materi­ elle792) Legitimation. Diese vollzieht sich in erster Linie anhand der Geset­ zesbindung (Art. 97 Abs. 1, Art. 20 Abs. 3 GG) und speist sich durch die Bindung an die Parlamentsgesetze sowie durch Aufsicht und Weisung.793 Bereits die demokratische Legitimation des (menschlichen) Richters hängt entscheidend davon ab, „inwieweit die Gesetzesbindung inhaltlich verwirk­ licht werden kann“.794 Wäre es also möglich, zu garantieren, dass ein auto­ matisches System die Gesetzesbindung lückenlos befolgt, käme auch eine sachlich-inhaltliche demokratische Legitimation in Betracht. Dazu müsste das System alle Gesetze aller Rechtsgebiete sowie auch relevante unge­ schriebene Rechtssätze beherrschen, jedenfalls aber hierauf zugreifen kön­ nen. Die Ergebnisse zu den technischen Grenzen795 verdeutlichen indes, dass 791  Das wäre ein deutlicher struktureller Unterschied zu vollautomatisierten Ver­ waltungsentscheidungen: Eben weil es technischen Einrichtungen an einer Willensfä­ higkeit mangelt und der Erlass eines Verwaltungsaktes gerade die behördliche Wil­ lensbildung voraussetzt, geht der Gesetzgeber des § 35a VwVfG davon aus, dass die Willensbildung in automatisierten Verwaltungsverfahren auf den Zeitpunkt der Imple­ mentierung des automatischen Systems vorgezogen sein muss ist, vgl. (erneut) BTDrucks. 18/8434, S. 122. In der Rechtsprechung müsste die Entscheidung darüber, ein automatisches Assistenzsystem zu nutzen, immer dem erkennenden Richter obliegen; die Willensbildung über den Einsatz eines automatischen Systems und die Sachent­ scheidung wären also in einer Person (bzw. einem Spruchkörper) gebündelt. 792  So etwa Jestaedt, Demokratieprinzip und Kondominialverwaltung, 1993, S.  270 ff. 793  Vgl. BVerfGE 130, 76 (124); 137, 185 (232 f.); 139, 194 (225); Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 20, Rn. 168. 794  So das „Kontrollmodell“ bei Tschentscher, Demokratische Legitimation der dritten Gewalt, 2006, S. 377. 795  Vgl. oben S. 177 ff.



V. Verfassungsrechtliche Direktiven325

die formale Garantie einer vollumfänglichen Gesetzesbindung automatischer Systeme bereits wegen vorhandener Mehrdeutigkeiten im Recht, auszufül­ lender Wertungsspielräume und des Grabens zwischen natürlicher und for­ maler (Maschinen-)Sprache utopisch ist. Im Übrigen ist aber auch insoweit nach Art und Funktionsweise des technischen Systems zu differenzieren.796 (a) Unterscheidung nach der Art der denkbaren Systeme (aa) Regelbasierte Entscheidungssysteme Rein regelbasierte Systeme folgen klaren administrativen Vorgaben und einer ex ante bis ins Detail nachvollziehbaren Entscheidungslogik. Auch wenn der einzelne Staatsdiener nicht den exakten technischen Ablauf eines solchen algorithmischen Systems versteht, widersprechen dessen Prognosen und Entscheidungen nicht a priori den Anforderungen an die demokratische Legitimation. (bb) Dynamische Entscheidungssysteme Beim Einsatz lernender bzw. datenbasierter Systeme ist die demokratische Legitimationszurechnung demgegenüber nicht ohne Weiteres gegeben. Das Problem stellt sich insbesondere für künstliche neuronale Netze. Diese kön­ nen ihre Entscheidungen durch ein Zusammenwirken unzähliger Entschei­ dungsknoten treffen und weisen damit einen für (informationstechnische) Laien, aber selbst für Experten regelmäßig nicht nachvollziehbaren Prozess der Entscheidungsfindung auf.797 Vorstellbar ist deren Einsatz im Kontext hoheitlicher Entscheidungen daher nur, soweit hinreichend sichergestellt ist, dass sie bei ihren Entscheidungen den normativen Vorgaben des Parlaments – namentlich Gesetz und Recht (Art. 20 Abs. 3 GG) – tatsächlich folgen.798 Beim Einsatz solcher Systeme, die sich laufend selbstständig optimieren, besteht die Gefahr, dass der Gesetzgeber – ähnlich wie bei dynamischen Gesetzesverweisen – die Macht über den konkreten Regelungsinhalt aus der Hand gibt.799 Es bedarf daher jedenfalls tragfähiger Transparenz- und Kont­ 796  Vgl. zu dieser Differenzierung bereits oben S.  149 f. (zur Terminologie), S. 202 ff. (zur Fähigkeit, Einzel- und Ausnahmefälle adäquat erfassen zu können) sowie unten S. 335 f. (zur Transparenz).  797  Vgl. oben S. 149 f. 798  Vgl. bereits Martini/Nink, DVBl 2018, 1128 (1134). 799  Vgl. für die Verwaltung Hill, Verwaltung und Management 24 (2018), 287 (290); Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 35a, Rn. 47.

326

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

rollmechanismen, die den Entscheidungsprozess daraufhin zu überprüfen in der Lage sind, ob sie die normativen Vorgaben qualitativ umsetzen oder ein Eigenleben jenseits des Gesetzes entwickeln.800 Hier zeigt sich ein Zielkonflikt: Dynamische Entscheidungssysteme sind, anders als ihre statischen Pendants, in der Lage, unvorhergesehene bzw. nicht exakt antizipierte Aspekte in die Entscheidungsfindung einfließen zu lassen und auch neue, unbekannte Sachverhalte passgenau einzuordnen; im Sinne der Einzelfallgerechtigkeit sind datenbasierte Systeme für die Entscheidungsqualität im Vorteil.801 Hinsichtlich der demokratischen Legitimation derart getroffener Entscheidungen sind sie hingegen im Nachteil. Allerdings ist auch bei künstlichen neuronalen Netzen eine zur demokra­ tischen Legitimation ausreichende Nachvollziehbarkeit der Arbeitsweise nicht ausgeschlossen. Zwar können gleiche Trainingsdaten zweier „bauglei­ cher“ Systeme zu unterschiedlichen neuronalen Netzen führen, weil die Al­ gorithmen u. a. Zufallsinitialisierungen vorsehen, die sich – in einem Fall mehr, im anderen Fall weniger – auf die Trainingsergebnisse auswirken.802 Das bedeutet: Wenn man zwei gleiche Netze mit denselben Trainingsdaten trainiert und diese Netze dann jeweils auf neue Daten (einen neuen Fall) angewendet werden, können unterschiedliche Ergebnisse herauskommen.803 Sobald der Programmierer jedoch ein künstliches neuronales Netz vorgege­ ben hat, so sind dessen Berechnungen determiniert. Darüber hinaus sind sie auch grundsätzlich nachvollziehbar: Die Anwendung des Netzes auf gege­ bene Eingangsvariablen – also die Arbeitsweise – lässt sich lückenlos be­ rechnen.804 Das einzige sehr schwierig (aber nicht unmöglich) zu findende Puzzle­ stück der Nachvollziehbarkeit ist die Berechnung der internen Gewichtungen des Netzes, also die Details des Trainingsvorgangs. Insoweit ist zu differen­ zieren: Wenn der Trainingsalgorithmus die Zufallsinitialisierungen mit­ schreibt, ist es möglich, den Trainingsprozess en détail nachzuvollziehen. 800  Dazu auch Guckelberger, Automatisierte Verwaltungsakte, in: van Oostrom/ Weth (Hrsg.), FS Herberger, 2016, S. 397 (411 f.); Martini, JZ 2017, 1017 (1021 f.). 801  Vgl. oben S. 201 ff. 802  Vgl. zu den Lernregeln neuronaler Netze etwa Rey/Wender, Neuronale Netze, 3. Aufl., 2018, S. 52 ff. 803  Vgl. etwa Brownlee, Why Initialize a Neural Network with Random Weights?, https://machinelearningmastery.com/why-initialize-a-neural-network-with-randomweights/ (10.6.2020). Allenfalls diese Besonderheit könnte man „indeterminiert“ nen­ nen. 804  Das folgt unmittelbar aus der mathematischen Definition neuronaler Netze, vgl. etwa Schwaiger/Steinwendner, Neuronale Netze programmieren, 2019, S. 63 ff., 129 ff. Siehe auch Ertel, Grundkurs Künstliche Intelligenz, 4. Aufl., 2016, S. 248 ff.



V. Verfassungsrechtliche Direktiven327

Ansonsten lässt sich das Training nicht lückenlos rekonstruieren. Das bezieht sich indes nur auf den Trainingsvorgang: Wenn ein neuronales Netz erst „fertig“ trainiert zum Einsatz kommt, ist seine Arbeitsweise (theoretisch) eindeutig und vollständig nachvollziehbar.805 Das bedeutet im Ergebnis, dass die demokratische Legitimation von der konkreten Ausgestaltung abhängt – Wie wird das System trainiert? Wie ist der Trainingsvorgang ausgestaltet? – aber nicht von vornherein ausgeschlos­ sen ist. (cc) Parallele zum Verwaltungsverfahren Vor diesem technischen Hintergrund lässt sich erneut eine Wertung aus dem Verwaltungsrecht auf die Überlegungen zur Teilautomatisierung gericht­ licher Entscheidungen übertragen: Setzt eine Behörde informationstechnische Systeme als Hilfsmittel ein (vgl. § 28 Abs. 2 Nr. 4, § 37 Abs. 5, § 39 Abs. 2 Nr. 3 VwVfG) oder erlässt einen Verwaltungsakt vollständig durch automati­ sche Einrichtungen (§ 35a VwVfG), bedient sie sich hierbei einer Standardi­ sierung normativer Vorgaben, die dann in Programmcode fließen und wie eine Verwaltungsvorschrift wirken.806 Die Behörde darf aber die Letztverantwortung für den Inhalt eines mit Hilfe privater Unternehmen erstellten Programms nicht auf den Privaten delegieren; sie selbst muss mit der Letzt­ verantwortung gleichsam die Entscheidungshoheit behalten.807 Dynamische Entscheidungssysteme maschinellen Lernens808 sind auf­ grund ihrer Fähigkeiten zur Analyse großer Datenmengen und Mustererken­ nung auch in der Lage, neue Lösungen für rechtliche Fragestellungen zu er­ arbeiten, die bei der Programmierung noch nicht vorhergesehen wurden.809 Der Automatisierungsprozess verlagert sich dabei von der konkreten Ent­ 805  Grundsätzlich mögliche Nachvollziehbarkeit bedeutet freilich nicht, dass auch (technische) Laien die Funktionsweise vollständig verstehen (können). 806  Vgl. bereits Martini/Nink, NVwZ-Extra 2017, 1 (10). 807  Groß, VerwArch 95 (2004), 400 (410); Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 35a, Rn. 19. 808  Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9.  Aufl., 2018, § 35a, Rn. 47, verwendet den Begriff „indeterminierte Systeme“, den er zudem mit „selbst­ lernenden Algorithmen“ gleichsetzt. Diese Terminologie ist irreführend, weil auch die für den Einsatz in der Verwaltung denkbaren Systeme maschinellen Lernens in ihrer Arbeitsweise determiniert sind – etwa durch den Daten-Input und das Training. Die Zufallsergebnisse tatsächlich „indeterminierter“ Systeme wären mit Art. 20 Abs. 3 GG a priori unvereinbar. 809  Vgl. dazu auch Lazaratos, Rechtliche Auswirkungen der Verwaltungsautoma­ tion auf das Verwaltungsverfahren, 1990, S. 272 ff.; Polomski, Der automatisierte Verwaltungsakt, 1993, S. 98 ff.

328

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

scheidung in die Phase der Programm- bzw. Softwareentwicklung.810 Mit Blick auf die demokratische Legitimation ist das im Verwaltungsverfahren jedenfalls dann denkbar, wenn eine demokratisch legitimierte (natürliche) Person entscheidet, welche Verfahrensergebnisse unerwünscht (und evtl. durch Neuprogrammierung oder Training des Programms zu korrigieren) sind. Es ist hingegen nicht zwingend geboten und vielfach auch nicht zu er­ reichen, dass die Behördenmitarbeiter jeweils im Einzelnen verstehen, wie ein als Hilfsmittel eingesetztes Programm technisch erstellt wurde.811 Das gilt unabhängig von der Art des technischen Hilfsmittels. Dem Erfordernis demokratischer Legitimation genügt es indes nicht mehr, wenn das System selbstständig definiert, welche Ergebnisse erwünscht und welche Anpas­ sungsprozesse vorzunehmen sind – zumindest dann, wenn dies unabhängig von den zuständigen Behördenmitarbeitern geschieht. Nur Menschen können normative Vorgaben machen; eine Entscheidungssteuerung ex machina kann den Grundsätzen demokratischer Legitimation nicht genügen. Überträgt man diese Grenzziehung auf die richterliche Entscheidungsfin­ dung, gilt auch dort: Das notwenige Maß an demokratischer Legitimation ist nur dann gegeben, wenn ein technisches System nicht eigenständig be­ wertet, welche Ergebnisse (normativ) erwünscht sind und welche nicht. Die Letztentscheidung über normative und Wertungsfragen in einem gerichtli­ chen Verfahren muss immer dem demokratisch, insbesondere sachlich-in­ haltlich legitimierten Richter vorbehalten bleiben. Die Automatisierung des richterlichen Entscheidungsprozesses darf nicht weiter gehen als im Ver­ waltungsverfahren. Denkbar ist allerdings, dass ein automatisches System dem Richter anhand vorgegebener Maßstäbe Entscheidungsvorschläge un­ terbreitet. (b) Praktische Umsetzung? Demokratische Legitimation eines automatischen Entscheidungsunterstüt­ zungssystems herzustellen, erschöpft sich nicht in einem rein formalen Akt. Die sachlich-inhaltliche Legitimation in Form der (maßgeblichen)812 strik­ ten Gesetzesbindung muss auch praktisch umsetzbar bzw. nachweisbar sein. Denkbar ist etwa, dass das technische System die beiden juristischen Staatsprüfungen absolvieren muss oder echte Fallakten testweise bearbei­ tet – und ggf. direkt eine Sachentscheidung vorschlägt. Derlei Gedanken­ 810  Vgl. Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9. Aufl., 2018, § 35a, Rn.  19 f. 811  Stelkens, in: Stelkens/Bonk/Sachs (Hrsg.), VwVfG, 9.  Aufl., 2018, § 35a, Rn. 47. 812  Vgl. oben S. 318 ff.



V. Verfassungsrechtliche Direktiven329

spiele muten aufgrund der (noch) bestehenden technischen Grenzen reali­ tätsfremd an. Gerade die Fortschritte auf dem Gebiet der Künstlichen Intel­ ligenz, insbesondere bei der Erkennung und Verarbeitung natürlicher Spra­ che (Natural Language Processing),813 zeigen jedoch, dass eine solche Prüfung für Computerprogramme durchaus in den Bereich des Möglichen rücken kann. Trotz aller Unwägbarkeiten der technologischen Entwicklung bleibt immerhin auch und gerade das maschinelle Lernen „ein von mensch­ lichem Verhalten determiniertes Werkzeug“814 und sind auch lernende Sys­ teme weiterhin „Repräsentanten menschlichen Einordnungs- und Entschei­ dungs­wissens“815. Die (abstrakten) Zielvorgaben an ein technisches System, das richterliche Entscheidungen unterstützt, muss der Gesetzgeber in seiner Rolle als Herz­ stück des demokratischen Willensbildungsprozesses freilich selbst festlegen. Gleiches gilt für mögliche Fehlerfolgen und Vorgaben an die Fehlerresistenz. Was den Einsatz solcher Systeme in der richterlichen Praxis betrifft, mahnen jedoch der Grundsatz der Gewaltenteilung (Art. 20 Abs. 2 S. 2, Art. 1 Abs. 3 GG) sowie ergänzend § 26 DRiG zur notwendigen Distanz der Legislative und Exekutive zur richterlichen Entscheidungstätigkeit: Legislative Steue­ rung und die Kontrolle durch eine (grundsätzlich zulässige) Dienstaufsicht dürfen die richterliche Unabhängigkeit (Art. 97 GG) nicht antasten.816 cc) Demokratische Legitimation durch (Teil-)Automatisierung? Die demokratische Legitimationsbasis des Richters ist „dünn, um nicht zu sagen: prekär“.817 Indem sie der richterlichen Unabhängigkeit einen hohen Stellenwert zumisst, lässt die Verfassung selbst Unterschiede zum Legitima­ tionsniveau der Verwaltung zu bzw. fordert diese sogar.818 Vor diesem Hin­ 813  Als Beleg für die enormen Fortschritte können etwa die Entwicklungssprünge der sog. digitalen Assistenten (Amazons „Alexa“, Apples „Siri“, Microsofts „Cortana“ oder der Google Assistant) dienen. 814  Yuan, RW 2018, 477 (504). 815  Herberger, Rethinking Law 2/2019, 42 (43). 816  Vgl. auch Sommermann, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7.  Aufl., 2018, Art. 20, Rn. 221 f. Sofern man ergänzend weitere Legitimationsstützen heran­ zieht (vgl. Voßkuhle/Sydow, JZ 2002, 673 (679 f.)), bleiben diese unberührt: Der Ins­ tanzenzug sowie der Mündlichkeits- und der Öffentlichkeitsgrundsatz können beim Einsatz automatischer Systeme ebenso wie in rein „analogen“ Gerichtsverfahren die demokratische Legitimation der Dritten Gewalt stärken. 817  Voßkuhle/Sydow, JZ 2002, 673 (682). 818  Grzeszick, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg. (Jan. 2010), Art. 20, Abschn. II, Rn. 245; ähnlich Tschentscher, Demokratische Legitimation der dritten Gewalt, 2006, S. 263 f.

330

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

tergrund könnte die algorithmisch-rationale Absicherung menschlicher Ent­ scheidungen eine neue und zusätzliche Stütze der demokratischen Legitimie­ rung der Dritten Gewalt darstellen. Das kann insbesondere dann der Fall sein, wenn gleichzeitig die Akzeptanz solcher Methoden in der Bevölkerung steigt. Indem ein Algorithmus die menschliche Entscheidung bspw. auf kog­ nitive Verzerrungen oder Diskriminierungen prüft, könnte das die Gesetzes­ bindung des Richters und die Einzelfallgerechtigkeit seiner Entscheidungen im Ergebnis sogar stärken.819 Das BVerfG betont, dass es nicht auf eine bestimmte Form der (institutio­ nellen, funktionellen, sachlich-inhaltlichen oder personellen) Legitimation ankommt.820 Entscheidend ist deren Effektivität und damit das Legitimati­ onsniveau, welches sich aus einer Gesamtschau aller relevanten Umstände ergibt.821 Die typisierende, mechanische Arbeitsweise von Maschinen ist zwar nicht geeignet, das richterliche Vorgehen, das eben nicht schematisch ist, sondern sich an den Einzelheiten des konkreten Falles orientiert, in Gänze abzubilden. Auch hier gilt aber wiederum: Die demokratische Rückbindung kann gewährleistet sein, sofern der Richter die Letztentscheidungsbefugnis hat und auch tatsächlich selbst die Entscheidung trifft. Algorithmen können ihn hierbei unterstützen.822 9. Transparenz und Akzeptanz Neben dem Rechtsstaats- und dem Demokratieprinzip formuliert die Rechtsordnung weitere abstrakte Zielbestimmungen für die hoheitliche Ent­ scheidungsfindung – namentlich die Transparenz und die Akzeptanz.

819  Die Verfassung selbst geht freilich von der Irrtumsfähigkeit des Menschen aus – auch und besonders dann, wenn der einzelne Mensch in ein staatliches Amt gelangt, vgl. Grzeszick, in: Maunz/Dürig (Begr.), GG, 70. Erg.-Lfg. (Dez. 2013), Art. 20, Abschn. V, Rn. 33. Sie akzeptiert also menschliche Fehler auch in hoheitli­ chen Entscheidungen. 820  BVerfGE 47, 253 (275); 107, 59 (87). 821  Siehe auch Huster/Rux, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 20, Rn. 62 f. 822  Nicht beantwortet ist damit die rechtspolitische und gesellschaftliche Frage, ob wir, selbst wenn der Einsatz algorithmenbasierter Systeme rationalere Entschei­ dungen ermöglicht, Maschinen bzw. deren Herstellern und Programmierern – also demokratisch nicht unmittelbar legitimierten Stellen ohne die Befähigung zum Rich­ teramt – einen derart sensiblen Bereich wie die Rechtsprechung auch nur teilweise anvertrauen wollen.



V. Verfassungsrechtliche Direktiven331

a) Transparenz aa) Begriff und Inhalt Staatliches Handeln – und damit auch jede gerichtliche Entscheidung – ist grundsätzlich begründungsbedürftig; die Begründung ist Voraussetzung de­ mokratischer Transparenz und rechtsstaatlicher Rationalität.823 Im Rechts­ staat muss jede Erscheinungsform staatlicher Machtausübung vorherseh­ bar824 und rekonstruierbar825 sein: Der Einzelne muss grundsätzlich nach­ vollziehen und sich darauf einstellen können, aus welchen Gründen staatliche Handlungsträger welche Entscheidungen treffen.826 Das Grundgesetz kennt – anders als das Unionsrecht (vgl. nur Art. 1 Abs. 2 EUV [„Entscheidungen möglichst offen und möglichst bürgernah“], Art. 15 AEUV [Grundsatz der Offenheit], Art. 5 Abs. 1 lit. a DSGVO [datenschutz­ rechtlicher Transparenzgrundsatz], Art. 41 Abs. 2 lit. c GRCh) – zwar kein explizit normiertes Transparenzgebot.827 Aus den verfassungsrechtlichen Verbürgungen zu Demokratie und Rechtsstaat entspringt aber die objektivrechtliche Verpflichtung des Staates, die Handlungen seiner Einrichtungen (öffentlich und dadurch) nachvollziehbar auszugestalten.828 Transparenz muss der Staat jedenfalls immer dort sicherstellen, wo der Einzelne von einer staatlichen Maßnahme betroffen ist und ohne Kenntnis ihres Zustandekom­ mens keine Chance hat, sich dagegen zu wehren bzw. seine Rechte wahrzu­ nehmen (Waffengleichheit). Das Recht auf ein faires Verfahren (Art. 20 Abs. 3 GG i. V. m. Art. 2 Abs. 1 sowie Art. 6 EMRK), das Recht auf rechtli­ ches Gehör (Art. 103 Abs. 1 GG) sowie das Gebot effektiven Rechtsschutzes 823  Schmidt-Aßmann, in: Maunz/Dürig (Begr.), GG, 72. Erg.-Lfg. (Juli 2014), Art. 19 Abs. 4, Rn. 253 m.  w.  N. Eine Ausnahme bildet etwa § 93d Abs. 1 S. 3 BVerfGG, wobei „bedarf keiner Begründung“ nicht bedeutet, dass der Entscheidung keine juristische Prüfung vorausgehen muss. Vgl. zur Begründung bereits oben S.  122 ff. 824  Dazu etwa BVerfGE 133, 143 (158, Rn. 41); OVG Berlin-Brandenburg, LKV 2008, 369 (372 f.). 825  Vgl. zur Gewährleistung gerichtlicher Kontrolle BVerfGE 110, 33 (54 f.). 826  Huster/Rux, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41.  Ed. (Stand: 15.2.2019), Art. 20, Rn. 182; vgl. zum. Bestimmtheitsgebot auch BVerfGE 108, 186 (234 f.); 110, 33 (53 f.); zur Transparenz hoheitlichen Handelns weiterhin Kunig, Das Rechtsstaatsprinzip, 1986, S. 396 ff.; speziell zur transparenten Ausgestaltung algo­ rithmenbasierter Verfahren Martini, Blackbox Algorithmus, 2019, S. 176 ff.; Edwards/ Veale, Duke Law & Technology Review 16 (2017), 18 (38 ff.). 827  Vgl. Martini, Blackbox Algorithmus, 2019, S. 68 f. m. w. N. 828  Vgl. etwa RhPfVerfGH, NVwZ 2018, 492 (493 f., Rn. 17); Schmidt-Aßmann, in: Maunz/Dürig (Begr.), GG, 72. Erg.-Lfg. (Juli 2014), Art. 19 Abs. 4, Rn. 253 f.; für die demokratische Willensbildung ausdrücklich BVerfGE 40, 296 (327).

332

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(Art. 19 Abs. 4 GG) geben die rechtsstaatliche Transparenz als Direktive der verfassungsrechtlichen Ordnung aus. Aus ihr folgen in gleicher Schutzrich­ tung bspw. auch die im einfachen Recht ausgestalteten Pflichten, hoheitliche Entscheidungen zu begründen (vgl. etwa § 39 VwVfG), oder das Recht auf Akteneinsicht (vgl. etwa § 29 VwVfG). Für gerichtliche Entscheidungen normiert das jeweilige Prozessrecht die einzelnen Begründungspflichten (vgl. für Urteile etwa § 267 StPO, § 313 Abs. 1 Nr. 6, Abs. 3 ZPO, § 117 Abs. 2 Nr. 5 VwGO). Algorithmenbasierte Entscheidungs- oder Entscheidungsunterstützungssys­ teme in der Rechtsprechung verfassungskonform einzusetzen, kann nur ge­ lingen, wenn der Staat ein hinreichendes Maß an organisatorischer wie auch – in jedem konkreten Anwendungsfall – inhaltlicher Transparenz si­ cherstellt. bb) Organisatorische Transparenz – Zurechnung Organisatorische Transparenz bedingt die Zurechnung der Entscheidungen bzw. Entscheidungsvorschläge zum Staat. Insoweit lässt sich eine Parallele zu vollautomatisiert erlassenen Verwaltungsakten (vgl. etwa § 155 Abs. 4 AO, § 31a SGB X) ziehen: An irgendeiner Stelle muss der Staat die Software bzw. das informationstechnische System einsetzen und für den Außenkon­ takt, also das Verhältnis Staat-Bürger, freigeben. Erforderlich ist dabei immer ein Zurechnungswille (des Hoheitsträgers); dieser kann bereits auf den Zeit­ punkt der Programmierung fallen,829 liegt aber jedenfalls im bewussten Einsatz des automatischen Systems.830 Erhellend wirkt auch der Blick auf die Frage, wie sich die Rechtsordnung vor Inkrafttreten der § 35a VwVfG, § 155 Abs. 4 AO, § 31a SGB X zu automatisierten Entscheidungen verhielt: So verwenden bspw. § 28 Abs. 2 Nr. 4, § 37 Abs. 5, § 39 Abs. 2 Nr. 3 VwVfG den Terminus „mit Hilfe automatischer Einrichtungen“. Der Gesetzgeber des VwVfG kann damit keine vollautomatisiert erlassenen Verwaltungsakte ge­ meint haben: Die Erläuterungen sehen als höchsten Automationsgrad den Fall, in dem die automationsgestützte Bearbeitung einsetzt, nachdem ein 829  So für den Steuerverwaltungsakt Seer, StuW 2015, 315 (323): „Der antizi­ pierte Handlungs-, Regelungs- und Bekanntgabewille der Finanzbehörde hat seinen Ausdruck bereits in der Vorprogrammierung des Datenverarbeitungssystems erfah­ ren“ (Hervorhebung im Original). Lediglich der Abschluss des Willensbildungspro­ zesses liege im Zeitpunkt der maschinellen Verarbeitung. Ähnlich bereits BFH, DStRE 1998, 933 (934): Bei einer ausschließlich programmgesteuerten Erstellung eines Steuerbescheides sei „nicht der Zeitpunkt des Rechnerlaufs oder der Versen­ dung des betreffenden Bescheides“, sondern „der Zeitpunkt der Einrichtung des Rechnerprogramms“ maßgeblich. 830  Vgl. Braun Binder, NVwZ 2016, 960 (963 f.).



V. Verfassungsrechtliche Direktiven333

menschlicher Sachbearbeiter die zu Grunde liegenden Daten „verantwortlich ermittelt oder geprüft“ hat und „keinerlei verantwortliche Wertung mehr er­ forderlich ist“.831 Dies setzt jedenfalls teilweise eine personelle Bearbeitung voraus und führt, neben der Programmierung, durch die verantwortungsvolle Dateneingabe und -prüfung zu einer Präjudizierung der Entscheidung im Einzelfall.832 Wertungen waren nach Ansicht des VwVfG-Gesetzgebers der 7. Wahlperiode zwingend menschlichen Sachbearbeitern vorbehalten. An dieser legislativen Grundannahme hat sich auch fast ein halbes Jahrhundert später nichts geändert, wie die Erwägungen zu § 35a VwVfG und § 31a SGB X zeigen.833 Im justiziellen Einsatz stellt sich vor dieser Vergleichsfolie die Frage nach dem Anknüpfungspunkt der organisatorischen Transparenz: Willensbildung und Zurechenbarkeit können sich auf den Staat insgesamt (vgl. auch den Wortlaut des Art. 34 S. 1 GG), auf das jeweilige Gericht als organisatorische Einheit oder – richtigerweise – auf den einzelnen entscheidenden Richter bzw. Spruchkörper beziehen. Denn für eine gerichtliche Entscheidung verantwortlich zeichnet immer der jeweilige Spruchkörper (Kammer, Senat) bzw. (Einzel-)Richter, nicht das Gericht. Ein formales Argument unterstreicht dies: So bieten die obligatorischen Unterschriften der Berufsrichter (vgl. etwa § 275 Abs. 2 S. 1 StPO, § 315 Abs. 1 S. 1 ZPO) einen Ansatzpunkt für die obligatorische Zurechnung: Die Unterschriften bekunden die Überein­ stimmung der Urteilsgründe mit dem Beratungsergebnis834 und grenzen den Urteilsentwurf vom Urteil ab835. Das Fundament für die Zurechenbarkeit zum einzelnen Richter bzw. zum Spruchkörper legt aber die richterliche Unabhängigkeit (Art. 97 Abs. 1 GG): Die einzelnen Richter müssen selbst entscheiden (können), ob sie ein auto­ matisches Entscheidungsunterstützungssystem nutzen oder nicht.836 Eine Zurechenbarkeit des algorithmischen Entscheidungsvorschlags lediglich zum Gericht als organisatorischer Einheit kann daher kein ausreichendes Maß an 831  BT-Drs.

7/910, S. 59. Binder, NVwZ 2016, 960 (963 f.) m. w. N. 833  Vgl. BT-Drs. 18/8434, S. 120 ff. Der ursprüngliche Gesetzentwurf zur Moder­ nisierung des Besteuerungsverfahrens war auf die Änderungen in der AO begrenzt und enthielt somit auch noch keine Erläuterungen zur Frage der Automation außer­ halb des Besteuerungsverfahrens, siehe BT-Drs. 18/7457, S. 83. 834  Vgl. nur etwa Meyer-Goßner, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, § 275, Rn. 19. 835  Vgl. auch § 313 Abs. 1 Nr. 2 ZPO: Die Relevanz der Richternamen im Rub­ rum ergibt sich aus § 547 Nr. 1–3 ZPO (vorschriftsmäßige Besetzung; abgelehnte oder ausgeschlossene Richter) sowie aus § 563 Abs. 1 S. 2 ZPO (Zurückverweisung an das Berufungsgericht). 836  Vgl. oben S. 293 ff. 832  Braun

334

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

(organisatorischer) Transparenz herstellen.837 Diesem Leitgedanken ist auch das Verfahrensrecht mit seinen Grundsätzen – etwa der Mündlichkeit – ver­ schrieben: Der Prozessbeteiligte (bzw. auch die Öffentlichkeit) soll nachvoll­ ziehen können, wer über die Rechtssache wie entscheidet. In Gerichtsverfah­ ren entscheiden Personen; die Person des Richters erörtert die Sach- und Rechtslage – nicht die Gerichte als solche. Ist das Prozessrecht damit perso­ nell auf den Richter zugeschnitten, entspricht es dessen Schutzzwecken am ehesten, dass die einzelnen Entscheidungen unmittelbar dem Richter zuzu­ rechnen sein müssen. Für Entscheidungsvorschläge eines algorithmischen Systems kann dann nichts anderes gelten. cc) Inhaltliche Transparenz – Nachvollziehbarkeit (1) Grundsatz Neben der äußeren, organisatorischen Transparenz ist es vor allem die inhaltliche Nachvollziehbarkeit einer hoheitlichen Entscheidung, die rechts­ staatlichen Grundsätzen genügen muss. Der Einsatz neuer algorithmenba­ sierter Verfahren im hoheitlichen Bereich stellt den Staat vor die Herausfor­ derung, dass mit zunehmender Komplexität der Systeme auch die Schwie­ rigkeit ansteigt, deren Arbeitsweise und Ergebnisse nachvollziehbar auszu­ gestalten. Insbesondere Systeme, die auf maschinellen Lernverfahren beruhen, lassen nicht ohne Weiteres erkennen, wie sie zu ihren Schlüssen und Ergebnissen gelangen; sie erscheinen (jedenfalls) aus Sicht der von ei­ ner algorithmischen Entscheidung Betroffenen oftmals als Blackbox. Trans­ parenz im Sinne einer eindeutigen inhaltlichen Nachvollziehbarkeit ist ins­ besondere beim Einsatz maschineller Lernverfahren nur erschwert zu ge­ währleisten.838 Transparenzpflichten bestehen indes nicht grenzenlos. Auch die Betriebsund Geschäftsgeheimnisse der Software- bzw. Systemhersteller genießen grundsätzlich den Schutz der Rechtsordnung: So gesteht bspw. § 6 IFG 837  Die Grundsätze der Beamten- und Richterhaftung bedingen keinen gegenteili­ gen Schluss: Zwar folgt aus Art. 34 S. 1 GG, § 839 Abs. 2 S. 1 BGB, dass die Verant­ wortlichkeit einer richterlichen Amtspflichtverletzung grundsätzlich den Staat oder die Körperschaft, in deren Dienst der Richter steht, trifft. Die staatshaftungsrechtliche und strafrechtliche Verantwortlichkeit betrifft jedoch lediglich Amtspflichtverletzun­ gen und ist nicht übertragbar auf die Frage der grundsätzlichen Zurechenbarkeit und Transparenz hoheitlicher Entscheidungen. 838  Vgl. Rice, Transactions of the American Mathematical Society 74 (1953), 358 (358 ff.); Reichwald/Pfisterer, CR 2016, 208 (212). Siehe auch Djeffal, DVBl 2017, 808 (814).



V. Verfassungsrechtliche Direktiven335

den Herstellern ein Veto-Recht gegen die Einsichtnahme in die Funktions­ weise „ihrer“ Systeme bzw. in den Quellcode der Algorithmen zu.839 Auch aus Gründen eines rechtsstaatlichen Gesetzesvollzugs – insbesondere, um Missbrauch vorzubeugen – kann es gerechtfertigt sein, die Transparenz ­algorithmischer Entscheidungen einzuschränken (vgl. etwa § 88 Abs. 5 S. 4 AO).840 Die technischen und rechtlichen Anforderungen und Schwierigkeiten, beim Einsatz algorithmischer Verfahren hinreichende Transparenz zu ge­ währleisten, fanden bereits umfassende Erörterung in der Fachliteratur.841 Für den Einsatz im justiziellen Bereich ist zu betonen, dass sich eine nicht nachvollziehbare algorithmische Entscheidungsfindung bei Entscheidungen, die in Grundrechte eingreifen, grundsätzlich nicht mit dem Rechtsstaatsprin­ zip in seiner Ausprägung als Transparenzgrundsatz in Einklang bringen lässt. Der von einer Entscheidung Betroffene muss wissen, mit welchen Daten ein automatisches System wie zu welchen Ergebnissen kommt. Dazu muss er auch wissen, wie die Algorithmen die einzelnen Informationen gewichten und in ihre Ergebnisse einfließen lassen. (2) Unterscheidung nach Art der Systeme Transparenz in Form der inhaltlichen Nachvollziehbarkeit gewährleisten zu können, hängt grundsätzlich von der Art der in Betracht kommenden al­ gorithmischen Entscheidungssysteme ab. Auch insoweit ist wiederum zu 839  In der Literatur findet sich auch die Forderung, § 6 IFG so anzupassen, dass er im Bereich staatlichen Algorithmeneinsatzes keine Anwendung finden soll, siehe etwa Martini, Blackbox Algorithmus, 2019, S. 342. 840  Vgl. dazu auch Martini/Nink, NVwZ-Extra 2017, 1 (10 f.). 841  Siehe etwa Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 111 ff.; Bünau, Legal Revolution 2018, 98 (101 ff.); Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 83, 161 ff.; Herder, Einfluss algorithmischer Mo­ delle, in: Mohabbat Kar/Thapa/Parycek et al. (Hrsg.), Algorithmen und Automatisie­ rung, 2018, S. 179 (194 ff.); Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S.  68 f., 362 ff.; Lucke, Smart Government, in: Mohabbat Kar/Thapa/Parycek et al. (Hrsg.), Algorithmen und Automatisierung, 2018, S. 97 (111 ff.); Martini, Black­ box Algorithmus, 2019, S. 176 ff.; Schaar, Algorithmentransparenz, in: Dix/Franßen/ Kloepfer et al. (Hrsg.), Informationsfreiheit und Informationsrecht, 2016, S. 23 (23 ff.); Spielkamp, Technology Review 8 (2017), 36 (36 f.); The Law Society of England and Wales, Algorithms in the Criminal Justice System, Juni 2019, S. 12 ff.; Wachter/Mittelstadt et al., Harvard Journal of Law and Technology 31 (2018), 841 (841 ff.); Zweig, Algorithmische Entscheidungen: Transparenz und Kontrolle, Januar 2019, S. 5 ff.; speziell zu Transparenzanforderungen bei intelligenten (lernenden) Sys­ temen Wischmeyer, AöR 143 (2018), 1 (42 ff.). Vgl. zu Verwaltungsentscheidungen auch bereits BVerfGE 6, 32 (44).

336

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

unterscheiden zwischen Systemen, die auf „klassischem“ linearen Zeilencode basieren, und „intelligenten“ Systemen maschinellen Lernens.842 Unter Verweis auf die entsprechenden Ausführungen im Rahmen der de­ mokratischen Legitimation843 bleibt hinsichtlich des Transparenzgebotes zu ergänzen, dass eine lückenlose inhaltliche Nachvollziehbarkeit bei lernfähi­ gen Systemen nur schwer zu leisten ist, weil sie kein statisches Schema ab­ arbeiten, sondern ihre Wissensbasis und ihre Entscheidungsstrukturen dem jeweiligen Wirkungs- und Handlungsumfeld dynamisch – und selbststän­ dig – anpassen.844 Gerade ihr Lernprozess befähigt sie, Muster und Gesetz­ mäßigkeiten in den zur Verfügung stehenden Daten immer besser zu erken­ nen und selbstadaptiv Schlussfolgerungen zu ziehen.845 Diese Systeme können sich in einem Lernprozess selbst die expliziten oder impliziten Nor­ men schaffen, die sie ihren Handlungen und Entscheidungen unterlegen – und so auch die Ziele ihres Handelns an die eigenen Erfahrungen anpassen.846 Dabei ergibt auch eine Ex-post-Rekonstruktion keinen eindeutigen „Wenndann“-Zusammenhang dergestalt, dass sich einzelne Faktoren für einen kon­ kreten Output verantwortlich machen lassen – denn die (zumindest dem Be­ troffenen verborgene) „Entscheidungsregel“ ist lediglich eine Wahrschein­ lichkeitsfunktion über eine große Anzahl gewichteter Variablen aus einer (dynamischen) Datenmenge.847 Auch wenn sich solche Funktionen grund­ sätzlich aufzeichnen lassen, verbleibt für den Betroffenen und Dritte eine strukturelle Intransparenz, welche es u. a. erschwert, Fehler und Diskriminie­ rungen aufzuspüren und zu vermeiden.848 Insbesondere in künstlichen neuro­ nalen Netzen sind die einzelnen Entscheidungsäste und Wirkmechanismen von außen nicht einzusehen. Ihre Entscheidungen sind nicht mehr das über­ schaubare Produkt einer eindeutigen Konstruktion bzw. Programmierung, sondern vielmehr Ergebnis eines jedenfalls in Teilen eigenständigen Prozes­ ses.849 Daneben folgt der Mangel an Nachvollziehbarkeit bei maschinellen Lernverfahren auch aus einem Zusammenwirken der (intransparenten) Ent­ 842  Siehe dazu bereits oben S.  149  f. (zur grundsätzlichen Unterscheidung), S. 202 ff. (zur Unterscheidung in Bezug auf die Fähigkeit, Ausnahmen vom „Regel­ fall“ zu erfassen), sowie S. 325 ff. (in Bezug auf das Demokratieprinzip). 843  Siehe oben S. 325 ff. 844  Vgl. Ertel, Grundkurs Künstliche Intelligenz, 4. Aufl., 2016, S. 195 ff. 845  Vgl. Martini, JZ 2017, 1017 (1019). 846  Lenk, Verwaltung und Management 22 (2016), 227 (235). 847  Wischmeyer, AöR 143 (2018), 1 (47). 848  Vgl. Barocas/Selbst, California Law Review 104 (2016), 671 (692  ff.), zur Schwierigkeit von (rechtlichen) Reformen a. a. O., 714 ff.; siehe auch Buchholtz, JuS 2017, 955 (959). 849  Ernst, JZ 2017, 1026 (1027); vgl. auch Castelvecchi, Nature 538 (2016), 20 (20 ff.), sowie oben S. 149 f.



V. Verfassungsrechtliche Direktiven337

scheidungsregeln mit den komplexen Interaktionen zwischen Daten, Algo­ rithmen und ihrer sozialen Einbettung.850 Die möglicherweise erhöhte Ratio­ nalität – die „Bereinigung“ der gerichtlichen Entscheidung um menschliche Unzulänglichkeiten – hätte in Teilen also gewissermaßen den „Preis“ der Intransparenz. Die Entscheidung indes, was richtig oder falsch, was eine juristisch „gute“ oder „vertretbare“ Entscheidung ist, treffen auch beim Einsatz maschineller Lernverfahren Menschen: Der Mensch wählt Trainingsdatensätze aus, er gibt vor, ob der Lernprozess erfolgreich war, ob also die Fehlerquote sich redu­ ziert, wenn diese und jene Schaltstelle bzw. Entscheidungseinheit geändert oder verschoben wird. Die Zielvorgabe – etwa „Erhöhe die Siegchancen im Go-Brettspiel“ oder „Finde diejenige Entscheidung, die dem Gesetz am ehes­ ten entspricht“ (bspw. am Maßstab bisheriger rechtskräftiger Urteile) – bleibt menschlich. Für die Maschine ist der Lernprozess nur eine vorgegebene Funktion, die sie optimiert. Wozu der Vorgang dient, welchen Sinn dies hat, was daraus folgt, ist für die Maschine weder erkennbar noch relevant. dd) Vergleich zu menschlichen Entscheidungen Die Gefahr der Intransparenz betrifft allerdings auch die im menschlichen Hirn getroffene Entscheidung: Hirnströme und Signale, Molekülbewegungen und Neurotransmitter im menschlichen Kopf sind strukturell nicht verständ­ licher und transparenter als komplexe Programmcodes. Für Außenstehende, insbesondere den von der Entscheidung Betroffenen, sind sie ebenfalls nicht exakt nachvollziehbar. Dass ein komplexes Entscheidungssystem als Black­ box agiert, erscheint daher nicht a priori als rechtswidrig. Wichtiger als die technische Erklärbarkeit und lückenlose Nachvollziehbarkeit der maschinel­ len Arbeitsprozesse ist daher, dass der Staat – ebenso wie bei Tätigkeiten seiner menschlichen Entscheidungsträger – die Systeme „in eine hinreichend dichte Begründungs- und Kontrollarchitektur [einbindet]“851. Dass auch menschliche Entscheidungen nicht vollständig transparent e­rscheinen, steht umgekehrt der Forderung nach einem Mindestmaß an Transparenz bei automatisierten Vorgängen nicht entgegen: Die Intransparenz traditioneller, „analoger“ Entscheidungswege kann insbesondere „das ver­ breitete Unbehagen gegenüber maschinellen Entscheidungen nicht wider­ legen.“852 Es ist daher verfassungsrechtlich legitim und kann im Sinne eines 850  Vgl. auch Zweig, Algorithmische Entscheidungen: Transparenz und Kontrolle, Januar 2019, S. 5 ff. 851  Wischmeyer, AöR 143 (2018), 1 (8, vertiefend 42 ff.). 852  Wischmeyer, AöR 143 (2018), 1 (45).

338

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Rechtsstaats, der auch auf Vertrauen basiert, ausdrücklich gewollt sein, an maschinelle bzw. automatisierte Entscheidungen und Entscheidungsvor­ schläge in der Justiz höhere Transparenzansprüche als an menschliche Ent­ scheider zu stellen. ee) Lösungsansatz – die Begründung als zentrale Säule der Transparenz Die in der Literatur bereits diskutierten (allgemeinen) Lösungs- und Regu­ lierungsansätze für einen transparenten Algorithmeneinsatz lassen sich hin­ sichtlich einer justiziellen Anwendung (nur) teilweise fruchtbar machen. Zu nennen sind insbesondere Vorschläge zu einer inhaltlichen Ausweitung der datenschutzrechtlichen Informations- und Auskunftsrechte (Art. 13–15 DS­ GVO) auch auf algorithmische Assistenz-, also entscheidungsunterstützende Systeme, sowie zum Ausbau von Expertengremien bzw. sachkundigen Ser­ viceeinheiten.853 Mit Blick auf die bisherigen Ergebnisse der verfassungs­ rechtlichen Analyse scheint das Transparenzproblem etwas an Gewicht zu verlieren: Aus Art. 92 Hs. 1, Art. 97 Abs. 1 und Art. 101 Abs. 1 S. 2 GG folgt, dass algorithmische Verfahren die richterliche Tätigkeit nicht in Gänze abbilden, sondern den Richter allenfalls unterstützen können. Entscheidun­ gen der Rechtsprechung ihrerseits sind aber ohnehin zu begründen.854 (1) Information über den Einsatz eines Assistenzsystems (Ob) Die Begründung gerichtlicher Entscheidungen umfasst jedoch bislang nicht die Information darüber, welcher Hilfsmittel sich der Entscheidungsträ­ ger bedient hat. Ein erster Transparenzbaustein kann und muss daher in der Information über den Einsatz eines Entscheidungsunterstützungssystems (Ob) liegen. Betroffene und Öffentlichkeit müssen wissen, ob sich das Ge­ richt algorithmischer Hilfsmittel bedient hat. Nur so ist sichergestellt, dass der Betroffene die gerichtliche Entscheidung auch mit Aussicht auf Erfolg angreifen kann. Dem verfassungsrechtlichen Transparenzgebot entspricht es dabei am ehesten, wenn sich diese Information ex ante vollzieht, etwa zu Beginn der mündlichen Verhandlung (vgl. § 128 Abs. 1 ZPO, § 243 StPO) bzw. des schriftlichen Verfahrens (§ 128 Abs. 2 ZPO) – evtl. verbunden mit 853  Siehe insbesondere die allgemeinen, nicht auf den justiziellen Einsatz fokus­ sierten Regulierungsvorschläge bei Martini, Blackbox Algorithmus, 2019, S. 178 ff., 185 ff.; Martini, JZ 2017, 1017 (1019 ff.). Vgl. auch bereits Schaar, Algorithmen­ transparenz, in: Dix/Franßen/Kloepfer et al. (Hrsg.), Informationsfreiheit und Infor­ mationsrecht, 2016, S. 23 (23 ff.), sowie ergänzend die Nachweise oben in Fn. 841. 854  Vgl. nur Kischel, Die Begründung, 2003, S. 63 ff., 176 ff., sowie bereits oben S.  122 ff.



V. Verfassungsrechtliche Direktiven339

der Möglichkeit für den Betroffenen, eine algorithmische Entscheidungsun­ terstützung abzulehnen. (2) Informationen zur Funktionsweise (Wie) Daneben stellt die inhaltliche Begründung die zentrale Säule eines trans­ parenten Algorithmeneinsatzes dar. Der Betroffene muss wissen können, wie bzw. inwieweit der maschinelle Vorschlag in die endgültige (gerichtliche) Entscheidung einfließt. Das umfasst auch eine Erläuterung über die grund­ sätzliche Funktionsweise des algorithmischen Verfahrens (Wie). Entscheidend ist, dass die Betroffenen wissen können, warum eine staatliche Entscheidung getroffen wurde – in „analogen“ ebenso wie in teilautomatisierten Verfahren. Setzt die Justiz also algorithmenbasierte Assistenzsysteme ein, muss die Ent­ scheidungsbegründung ex post auch grundsätzliche Rückschlüsse auf die Arbeitsweise des Systems ermöglichen – beim Einsatz lernender Systeme gehört dazu auch ein Mindestmaß an Transparenz über den Trainingsvorgang sowie über die Datengrundlage. Ein Recht des Betroffenen auf Einblick in den Quellcode eines Entscheidungs(unterstützungs)systems ist hingegen nicht zielführend: In der Regel wird die Einsichtnahme in den reinen Quell­ code, der zudem als Geschäfts- und Betriebsgeheimnis besonderen Geheim­ haltungsschutz genießt, dem Betroffenen als Informatik-Laien wenig Nutzen stiften; ihm fehlen zumeist Zeit, Ressourcen und technisches Knowhow für eine grundlegende Überprüfung.855 Es besteht zudem das Risiko eines „Transparenz-Trugschlusses“856: Insbesondere in Verfahren maschinellen Lernens sind die Prozesse und das Zustandekommen der Entscheidungen oft nur mit großem Aufwand nachvollziehbar, während zugleich kein Nutzen und Mehrwert für den Betroffenen ersichtlich ist. Die tatsächlich bedeutsa­ men Informationen, die er zum Verständnis der Entscheidung und den Mög­ lichkeiten, dagegen vorzugehen, benötigt, bleiben ihm möglicherweise den­ noch verborgen. Sinnvoller als ein entsprechendes Einsichtnahmerecht des Betroffenen er­ scheint es daher, lediglich spezialisierten Stellen bzw. Expertengremien Ein­ blick in den Quellcode (bei „klassischen“ Algorithmen) bzw. in die Trai­ 855  Vgl. nur Martini, Blackbox Algorithmus, 2019, S. 181 f. Vgl. ergänzend § 88 Abs. 5 S. 4 AO, wonach die Veröffentlichung aller Einzelheiten eines algorithmischen Systems im staatlichen Einsatz Manipulationen und Betrug Tür und Tor öffnen könnte. Ein Einsichtnahmerecht des von einer (teil)automatisierten Entscheidung Be­ troffenen in den Quellcode wird in der jüngeren Literatur (soweit ersichtlich) auch nicht mehr vertreten. 856  Vgl. dazu (engl. transparency fallacy) Edwards/Veale, Duke Law & Techno­ logy Review 16 (2017), 18 (33 ff.).

340

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

ningsdatensätze (bei Systemen maschinellen Lernens) zu gewähren.857 In Betracht kommt zudem, dass in der Justiz eingesetzte Systeme einer Zertifi­ zierung bedürfen.858 Entsprechende Auskunfts- und Informationsrechte folgen nicht schon aus Art. 13 Abs. 2 lit. f, Art. 14 Abs. 2 lit. g und Art. 15 Abs. 1 lit. h DSGVO  – dort sind jeweils nur Entscheidungen i. S. d. Art. 22 Abs. 1 DSGVO erfasst, also lediglich die vollständig automatisierte Entscheidungsfindung, nicht aber die algorithmische Entscheidungsassistenz859 – sondern aus dem ver­ fassungsrechtlichen Transparenzgebot. In diesem Verständnis ist Ziel und Ausgangspunkt der Transparenzbestrebungen, dass Betroffene sowie Dritte die Entscheidung und ihr Zustandekommen nachvollziehen können. Die Be­ gründung dient dann als Selbstkontrolle für den Entscheider (den Richter) und als Fremdkontrolle für den Betroffenen:860 Was hat tatsächlich und rechtlich zu genau dieser Entscheidung geführt? Der SaarlVerfGH hat insoweit jüngst über eine Verfassungsbeschwerde zum standardisierten Messverfahren im Bußgeldrecht entschieden, dass es zu den grundlegenden rechtsstaatlichen Anforderungen an die Verurteilung eines Bürgers gehöre, dass er deren tatsächliche Grundlagen zur Kenntnis nehmen, in Zweifel ziehen und nachprüfen darf:861 Staatliches Handeln dürfe nicht undurchschaubar sein, sodass „auch die grundsätzliche Nachvollziehbarkeit technischer Prozesse, die zu belastenden Erkenntnissen über […] einen Bür­ ger führen, und ihre staatsferne Prüfbarkeit zu den Grundvoraussetzungen freiheitlich-rechtsstaatlichen Verfahrens“ gehöre. (3) Rechtliche und technische Nachvollziehbarkeit An die Qualität und den Umfang von Entscheidungsbegründungen stellt die Rechtsordnung grundsätzlich hohe Anforderungen: Das BVerfG bspw. hat selbst beim Wahlcomputer – einem nicht-intelligenten und mit dem vor­ 857  Vgl. auch Zweig, Algorithmische Entscheidungen: Transparenz und Kontrolle, Januar 2019, S. 9 f., die allgemein (insbesondere nicht speziell für den juristischen Kontext) eine „sozio-informatische Gesamtanalyse“ algorithmenbasierter Verfahren fordert. Eine solche Gesamtanalyse müsse neben den Entscheidungssystemen (sowie technischen Fragen wie Datenqualität und Trainingsverfahren) auch die Entscheider und die von der Entscheidung Betroffenen einbeziehen. 858  Dies sind letztlich Fragen der konkreten gesetzgeberischen Ausgestaltung. 859  Vgl. oben S. 255 f. 860  Vgl. auch Wischmeyer, AöR 143 (2018), 1 (56 f.). 861  SaarlVerfGH, Urt. v. 5.7.2019 – Lv //17, Pressemitteilung des VerfGH v. 9.7.2019. Der Verteidigung müssen daher die Rohmessdaten zur Verfügung stehen – ansonsten sind die Grundsätze des standardisierten Messverfahrens nicht anwendbar; vgl. dazu auch bereits oben S. 157 f.



V. Verfassungsrechtliche Direktiven341

liegenden Untersuchungsgegenstand kaum vergleichbaren System – bemän­ gelt, dass die Datenverarbeitung im Inneren der Geräte nicht einsehbar und die Ergebnisermittlung damit nicht nachvollziehbar war.862 Andererseits be­ tont die Rechtsprechung aber auch, dass übermäßig ausführliche Erklärungen in Begründungen nicht zu Lasten der Übersichtlichkeit und Verständlichkeit gehen sollen: So kann die Begründungspflicht etwa verletzt sein, „wenn durch eine Kompilation zahlreicher Versatzstücke aus ähnlichen Verfügun­ gen, die mit dem Einzelfall nichts oder nur wenig zu tun haben, die für die Ermessensausübung ausschlaggebenden Gründe im Unklaren gelassen werden.“863 Das Problem sind also nicht „zu ausführliche“ Erklärungen, son­ dern Begründungen, die nicht auf den Einzelfall zugeschnitten oder aus Textbausteinen zusammengesetzt sind.864 Grundrechtsrelevante Entscheidun­ gen in besonderer Ausführlichkeit und Verständlichkeit zu begründen, kann deren Akzeptanz beim Betroffenen erhöhen; überlange Ausführungen sind allerdings zu Gunsten einer „einfühlsamen Sprache“ und der „umfassenden Berücksichtigung des Vorbringens“ der betroffenen Prozessbeteiligten zu vermeiden.865 Die Begründung muss in jedem Fall nachvollziehen lassen, warum das Gericht zu dieser und keiner anderen Entscheidung gekommen ist.866 Dazu bedarf es einer detaillierten rechtlichen und einer zumindest überblicksarti­ gen technischen Erörterung:867 Die Entscheidungsbegründung muss in recht­ licher Hinsicht alle relevanten, also für die Entscheidung ausschlaggebenden Aspekte enthalten, und zusätzlich eine Aussage darüber, ob und wie das Gericht ein algorithmenbasiertes System zur Unterstützung herangezogen hat. Sie muss zudem – in technischer Hinsicht – allgemein über die Funkti­ 862  Vgl.

BVerfGE 123, 39 (85 f.). etwa OVG NRW, NVwZ-RR 1996, 173 (173 f., amtl. Ls. 3). 864  In der englischsprachigen Literatur wird – in Bezug auf vollständig automati­ sierte Entscheidungen – für ein Recht auf „kontrafaktische Erklärungen“ plädiert, vgl. Wachter/Mittelstadt et al., Harvard Journal of Law and Technology 31 (2018), 841 (844 ff.); siehe dazu auch oben S. 256 f. 865  Vgl. Kischel, Die Begründung, 2003, S. 386. 866  Vgl. beispielhaft auch § 313 Abs. 3 ZPO: Der Richter muss die „Erwägungen, auf denen die Entscheidung in tatsächlicher und rechtlicher Hinsicht beruht“, kennen und verstehen. 867  Die bisherigen Legal-Tech-Anwendungen können nicht selbstständig zwischen rechtlicher und technischer Signifikanz unterscheiden. Vgl. dazu bereits oben S. 228 f. sowie ergänzend Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (461 f.). Nicht ausreichend, um Vertrauen zu schaffen, ist es jedenfalls, wenn lediglich der Entwicklungsprozess den vorab definierten Qualitätskriterien unterliegt; vielmehr muss das System selbst ver­ ständlich machen, warum es eine Entscheidung gerade so und nicht anders getroffen hat. 863  Vgl.

342

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

onsweise des automatischen Systems aufklären und die im konkreten Fall besonders einschlägigen, also für das System relevanten Aspekte benennen. Das kann nur gelingen, wenn der Richter selbst zumindest die grundsätzliche Funktionsweise des Systems versteht:868 Er muss in der Lage sein, die vor­ bereitenden Prozesse nachzuvollziehen, um sie sich in der Begründung zu eigen machen zu können.869 Weil und soweit der Richter die Entscheidung selbstständig trifft, erscheint es daneben zwar regelungstechnisch (etwa in den Prozessordnungen) mög­ lich, aber verfassungsrechtlich nicht geboten, dem Betroffenen noch weitere, darüber hinausgehende Transparenzrechte zu gewähren – etwa ein generelles Recht darauf, das System durch einen Sachverständigen überprüfen zu las­ sen. Letzteres kann allenfalls in ungewöhnlichen Ausnahmefällen notwendig sein und ließe sich in einer Art Härtefallklausel regeln.870 Im Regelfall der Nutzung eines (wie auch immer im Einzelnen zertifizierten) Unterstützungs­ systems kann es bei einer allgemeinen Erklärung der Funktionsweise blei­ ben.871

868  Ähnlich Europäisches Parlament, Understanding algorithmic decision-ma­ king: Opportunities and challenges, 2019, S. 77: Professionelle Nutzer algorithmen­ basierter Entscheidungssysteme, insbesondere Richter, „should be able to understand the general logic […] as well as the reasons for specific results“ (Hervorhebung nicht im Original). 869  So auch Justizministerkonferenz 2019, Legal Tech: Herausforderungen für die Justiz, 1.7.2019, S. 59. Ähnlich OLG Zweibrücken, Beschl. v. 12.6.2003 – 6 WF 91/03 –, juris, Rn. 7 f., wonach der bloße Verweis auf das Ergebnis eines Computer­ programms (in diesem Fall zur Unterhaltsberechnung) den Anforderungen an die Begründungstiefe nicht genügt: Die Berechnungen sind vielmehr „in jedem Einzelfall darauf zu überprüfen, ob die zugrunde liegenden Parameter noch den aktuellen Geset­ zes- und Rechtsprechungsvorgaben entsprechen“. 870  Vgl. auch Wischmeyer, AöR 143 (2018), 1 (63), der – allgemein für automa­ tische Entscheidungen intelligenter Systeme – ein „gestuftes Transparenzregime“ für die unterschiedlichen Adressatenkreise vorschlägt: Der Betroffene soll danach „zu­ nächst nur allgemein über die Funktionsweise des Systems und einige in ihrem Fall besonders einschlägige Faktoren“ informiert werden. Wenn er auf dieser Grundlage eine Überprüfung der Entscheidung anstrebt, müsse dann aber gewährleistet sein, dass er bzw. der von ihm beauftragte Sachverständige Zugriff auf alle erforderlichen Informationen erhält – je nach Bedarf also die Offenlegung von Datenbanken, Algo­ rithmen und Trainingsprogrammen. 871  Auch andernorts muss der Richter nicht jedes Detail technischer Hilfsmittel in die Entscheidungsbegründung einbauen – etwa die Funktionsweise eines Taschen­ rechners. Weil ohnedies nur rechtlich relevante Aspekte eine gerichtliche Entschei­ dung beeinflussen dürfen, kommt der Unterscheidung zwischen rechtlicher und tech­ nischer (Wie gewichtet das System welche Aspekte? Auf welchen mathematisch-sta­ tistischen Methoden baut es auf?) Begründung im Ergebnis eine überschaubare Relevanz zu.



V. Verfassungsrechtliche Direktiven343

b) Akzeptanz aa) Grundsätzliches Neben der Transparenz muss sich staatliches Handeln auch an seiner Ak­ zeptanz872 messen lassen. Gültigkeit, Korrektheit und Rechtskraft einer ho­ heitlichen Entscheidung hängen zwar nicht unmittelbar von ihrer Akzeptanz ab.873 Die Akzeptanz stellt aber neben der demokratischen Legitimation ei­ nen zusätzlichen Anknüpfungspunkt für die Legitimation staatlichen Han­ delns und damit auch der Rechtsprechung dar.874 Die Legitimation, (allein) den Richtern die Rechtsprechung anzuvertrauen (Art. 92 Hs. 1 GG), speist sich u. a. gerade aus dem Vertrauen der Bürger in die Justiz – und eben die­ ses grundsätzliche Vertrauen ist Voraussetzung für die Akzeptanz gerichtli­ cher Entscheidungen.875 Um Akzeptanz kann und muss der Staat jeweils aktiv werben – mit Hilfe der Begründung, insbesondere bei Entscheidungen, die dem Begehren des Prozessbeteiligten nicht entsprechen.876 bb) Bezugspunkt der Akzeptanz Hinsichtlich des Einsatzes neuer Technologien in der Rechtsprechung be­ steht die Vermutung, dass mit steigendem Automationsgrad die durchschnitt­ liche Akzeptanz beim Betroffenen und in der Bevölkerung sinkt. Diese These877 vermögen zwei Gesichtspunkte abzumildern: Zum einen wäre beim nicht nur kurzfristigen Einsatz entscheidungsunterstützender Algorith­ men in der Justiz ein gewisser Gewöhnungseffekt zu erwarten, der eine an­ fängliche vehemente Ablehnung abfedern dürfte; die Historie liefert Beispiele 872  Akzeptanz meint etwa: Anklang, Annahme, Echo, Entgegennahme, Resonanz, Verständnis, Widerhall. 873  Ausführlich Zeccola, DÖV 2019, 100 (102 ff.). 874  Zur Akzeptanz staatlicher Entscheidungen etwa Kischel, Die Begründung, 2003, S. 52 ff. Daneben kommen auch die Effizienz, die Partizipation, die Kontrolle und die Entscheidungsrichtigkeit als Legitimationskomponenten staatlichen Handelns in Betracht, vgl. Voßkuhle/Sydow, JZ 2002, 673 (676). Siehe zur Akzeptanz von Ver­ waltungsentscheidungen und zu Kompromissen als Konfliktlösung im Verwaltungs­ verfahren Würtenberger, NJW 1991, 257 (258 ff.), der anmerkt, dass es grundsätzlich nicht ermessensfehlerhaft ist, wenn Behörden in Ermessensentscheidungen auch die Akzeptanz beim Betroffenen berücksichtigen. Kritisch zu einer eigenständigen Be­ deutung der Akzeptanz jedoch Czybulka, Die Verwaltung 1993, 27 (34 ff.). 875  Kreth, DRiZ 2009, 198 (201). 876  Kischel, Die Begründung, 2003, S. 57. 877  Mangels empirischer Daten zur Akzeptanz (teil-)automatisierter Gerichtsent­ scheidungen finden sich nachfolgend einige – durch die Formulierung ausdrücklich als solche gekennzeichnete – Thesen und Vermutungen.

344

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

dafür.878 Bisher deutet jedenfalls vieles darauf hin, dass beim Betroffenen der Kontakt mit einem menschlichen juristischen Ansprechpartner die Zufrie­ denheit bei der Problemlösung erhöht;879 bei einer bloßen Entscheidungsun­ terstützung ist dies aber auch weiterhin gegeben.880 Zum anderen dürfte die Akzeptanz auch dadurch ansteigen, dass und so­ weit die „neuen“, teilautomatisierten Entscheidungen nachgewiesenermaßen rationaler wären – etwa indem sie regionale Unterschiede in der Strafzumes­ sung reduzieren. Wenn der Einsatz neuer Technologien nicht Einzelne schlechter stellt und diskriminiert, sondern der Gesellschaft insgesamt durch rationalere Urteile oder ein effizienteres Rechtssystem, in dem Menschen schneller „zu ihrem Recht“ kommen, hilft, könnte auch die Akzeptanz in der Gesellschaft steigen. Akzeptanz ist nichts Statisches; vorherrschende Einstel­ lungen und gesellschaftliche Ansichten ändern sich, folgen oftmals der tech­ nischen Entwicklung (etwas verzögert) nach. Es scheint nicht ausgeschlossen, dass es für die Mehrheit der Gesellschaft in 30 Jahren „völlig normal“ er­ scheint und sie daher auch akzeptiert, von einer Maschine bewertet und beurteilt zu werden. Hinzu kommt, dass vielen Menschen nicht bewusst ist, wie gravierend Rationalitätsschwächen menschliche – und damit auch rich­ terliche – Entscheidungen verzerren können.881 Das Wissen hierüber könnte dazu beitragen, die prinzipielle Akzeptanz gegenüber neuen Technologien zu erhöhen, auch und gerade in sensiblen Bereichen wie der Rechtsprechung. So könnte gerade der Einsatz neuer Technologien die Akzeptanz einer ge­ richtlichen Entscheidung insgesamt auch erhöhen und das Vertrauen in den Rechtsstaat und die Rechtsanwender stärken. Eine mit Augenmaß eingesetzte Entscheidungsunterstützung könnte Richtern (und ebenso Rechtsanwälten) 878  So wird etwa Kaiser Wilhelm II. (womöglich aber fälschlich) mit den Worten zitiert: „Ich glaube an das Pferd. Das Automobil ist eine vorübergehende Erschei­ nung.“ Und IBM-Chairman Thomas Watson prognostizierte 1943, „dass es weltweit einen Markt für vielleicht fünf Computer gibt“. 879  Kilian, NJW 2017, 3043 (3050). Vgl. auch Stojek, Veränderung juristischer Arbeit, in: Hill/Kugelmann/Martini (Hrsg.), Digitalisierung in Recht, Politik und Ver­ waltung, 2018, S. 123 (138 f., 141 f.), die davon ausgeht, dass die technologische Unterstützung juristischer Arbeit „voraussichtlich weiter verbessert und auf breiter Ebene Akzeptanz finden wird“ und daher „Minderwertigkeitskomplexe gegenüber Maschinen […] unbegründet“ seien. 880  Es lässt sich auch durchaus noch früher ansetzen und fragen, ob es für den Betroffenen im Speziellen und für das Recht im Allgemeinen einen Unterschied macht und machen sollte, ob eine Entscheidung durch einen Menschen oder eine Maschine getroffen wird, wenn und soweit beide dieselben Kriterien für ihre Ent­ scheidung heranziehen und inhaltlich zum selben Ergebnis gelangen; vgl. dazu auch Ernst, JZ 2017, 1026 (1027). 881  Dazu oben S. 45 ff. Siehe auch die Studie zur öffentlichen Wahrnehmung von Strafzumessungsentscheidungen bei Hoven, KriPoZ 2018, 276 (276 ff.).



V. Verfassungsrechtliche Direktiven345

mehr Zeit für die „komplizierten Fälle“ und die eigentliche juristische Tätig­ keit gewähren – während bspw. in standardisierten Verfahren weniger typisch menschliche (Trivial-)Fehler aufträten und Entscheidungen einer leichteren Kontrolle durch Prüfprogramme unterlägen. Umgekehrt besteht allerdings auch das grundsätzliche Risiko, dass ein (anfangs) geringes Maß an Akzep­ tanz für Teilautomatisierungen in der Justiz die Rechtsmittel- bzw. Rechtsbe­ helfsquote erhöhen kann. cc) Akzeptanz durch Transparenz Ein Mangel an Akzeptanz bringt einen Vertrauensmangel mit sich; man­ gelndes Vertrauen wiederum ist grundsätzlich ein Hindernis für Digitalisie­ rung und Automatisierung vieler Lebensbereiche.882 Akzeptanz lässt sich aber erhöhen.883 Ein Rechtsunterworfener, der von einer (teil)automatisier­ ten Entscheidung betroffen ist, wird diese umso eher akzeptieren, als er ihr Zustandekommen nachvollziehen kann. Durch aussagekräftige, aber (tech­ nisch) nicht ausufernde Begründungen, in denen auch die Argumente und das Begehren des Prozessbeteiligten ihren Platz haben, kann so Akzeptanz durch Transparenz entstehen.884 Generell lässt sich die gesellschaftliche Akzeptanz hoheitlichen Technikeinsatzes (nur) durch ihre rechtskonforme Gestaltung erhöhen und fördern.885 Somit besteht die Vermutung, dass die Akzeptanz entscheidungsunterstüt­ zender Systeme in der Justiz steigt, wenn insbesondere Systeme maschinellen Lernens über ausreichende Selbsterklärungsfähigkeiten verfügen, also ihre Arbeitsweise und ihre Ergebnisse nachvollziehbar darlegen können. Diese Erklärung kann dann in die Gesamtbegründung der gerichtlichen Entschei­ dung einfließen.

882  Boehme-Neßler,

NJW 2017, 3031 (3036). Zeccola, DÖV 2019, 100 (103 f.). Bei § 25 Abs. 3 VwVfG bspw. war die „Steigerung der Akzeptanz in der Bevölkerung“ gar ausdrückliches Telos der Norm­ gebung, vgl. BT-Drs. 17/9666, S. 18. 884  Vgl. auch Wischmeyer, AöR 143 (2018), 1 (58 f., 64). 885  Vgl. Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 113 ff., 419; Martini, Blackbox Algorithmus, 2019, S. 189 ff., 345. Rostalski, Rethinking Law 1/2019, 4 (11), sieht die Transparenz der Arbeitsweise eines iudex ex machina als derart gewichtige Grundlage für gesellschaftliche Akzeptanz, dass ihr Fehlen gar „das gesamte Friedensprojekt“ des Rechts selbst gefährden könne. 883  Vgl.

346

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

dd) Unterscheidung nach Verfahren Zudem spricht vieles dafür, dass die Akzeptanz für automatisierte und teil­ automatisierte Verfahren in Abhängigkeit zum Rechtsgebiet und zur Verfah­ rensform steht – und bspw. im Besteuerungsverfahren strukturell höher ist als sie es im Strafprozess wäre. Spiegelbildlich dürfte die Akzeptanz umso gerin­ ger ausfallen, je größer die (potenziellen) Auswirkungen der staatlichen Maß­ nahme bzw. Entscheidung sind: Beispiele für „Idealtypen“ bzw. „Extrem­ werte“ können etwa der positive Bescheid im Bereich der Leistungsverwaltung auf der einen und der intensive Grundrechtseingriff in Form des Freiheitsent­ zuges in einer strafrechtlichen Verurteilung auf der anderen Seite darstellen.886 10. Die Menschenwürde und das Menschenbild des Grundgesetzes Die Würde des Menschen ist unantastbar; sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt (Art. 1 Abs. 1 GG): Nicht zuletzt schlägt auch die Menschenwürdegarantie möglichen Automatisierungsbestre­ bungen in der Justiz klar abgesteckte Grenzpflöcke ein. Verstöße gegen die Menschenwürdegarantie sind zwar lediglich im Kernbereich menschlichen Daseins, mithin nur in Extremfällen anzunehmen, sodass bei der Ableitung rechtlicher Vorgaben aus Art. 1 Abs. 1 S. 1 GG Zurückhaltung geboten ist: Die Menschenwürdegarantie besitzt eine Sonderstellung im Verfassungsge­ füge, die sich jeder vorschnellen, ideologischen Überhöhung entzieht.887 Dennoch stellt sich die Frage, inwieweit es die Subjektqualität eines Men­ schen antasten könnte, wenn eine Maschine ihn bewertet888 und mit dem Siegel einer gerichtlichen Entscheidung (jedenfalls teilweise) beurteilt. 886  Vgl. zur Notwendigkeit einer Kategorisierung auch unten S. 363 f. Akzeptanz und Legitimation können bisweilen auch durch eine hinreichende Entscheidungskom­ plexität des Verfahrens selbst entstehen, vgl. Luhmann, Legitimation durch Verfahren, 10. Aufl., 2013, S. 87 ff.: Rechtsstaatliche Verfahren streben nach Luhmann nicht nach universeller Wahrheit (im naturwissenschaftlichen Sinn), sondern Rechtssicherheit und Rechtsfrieden bedingen, dass auch solche gerichtlichen Entscheidungen rechts­ wirksam und gültig bleiben, die sich im Nachhinein als unrichtig herausstellen. Die verschiedenen Möglichkeiten des Verfahrensausgangs motivieren die (nicht beruflich beteiligten) Prozessbeteiligten zur Mitwirkung am Verfahren. Dem Verfahren selbst kommt dann legitimierende Wirkung zu. 887  Dreier, in: ders. (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 1, Rn. 45; Laue, Vor­ gangsbearbeitungssysteme der Verwaltung, 2010, S. 133 f.; Dürig, AöR 81 (1956), 117 (124); Kunig, in: Münch/Kunig (Hrsg.), 6. Aufl., 2012, Art. 1, Rn. 8; Vitzthum, JZ 1985, 201 (203). 888  Vgl. dazu auch Golla, In Würde vor Ampel und Algorithmus, in: Donath/ Bretthauer/Dickel-Görig (Hrsg.), Verfassungen – ihre Rolle im Wandel der Zeit, 2019, S.  177 ff.



V. Verfassungsrechtliche Direktiven347

a) Begriff und Inhalt Der rechtliche Gehalt der Menschenwürdegarantie des Art. 1 Abs. 1 GG ist schwer zu greifen. Das BVerfG nähert sich dem Menschenwürdebegriff da­ her „negativ“, also von einer möglichen Verletzung her:889 Die Menschen­ würde als solche ist danach betroffen, wenn der individuell Betroffene „zum Objekt, zu einem bloßen Mittel, zur vertretbaren Größe herabgewürdigt wird“890. Entscheidend ist mithin, ob ein hoheitliches Handeln „herabwürdi­ gend“ ist; dies ist etwa bei (den in Deutschland heutzutage praktisch kaum relevanten) Fällen von Sklaverei, Leibeigenschaft, Ächtung und Brandmar­ kung gegeben.891 Die unverlierbare Würde des Menschen als Person besteht gerade darin, dass er stets als selbstverantwortliche Persönlichkeit anerkannt bleibt.892 Die Garantie der Menschenwürde entfaltet sich dabei erst in Kombination mit dem Menschenbild des Grundgesetzes: Ihm liegt das geistesgeschichtlich geprägte Konzept von Freiheit und Verantwortung, von menschlicher Wil­ lensfreiheit und Schuld zu Grunde.893 Das Grundgesetz geht von einem freiheitlich-kantischen Menschenbild aus, wonach (erst) die Autonomie des Menschen als vernunftbegabtes Wesen Grund für dessen Würde ist.894 Ne­ ben der Achtung eines selbstbestimmten Lebensentwurfes umfasst das Men­ schenbild der Verfassung auch ein Mindestmaß an Solidarität: Der Mensch ist nicht „isoliert souverän“, „das Grundgesetz hat vielmehr die Spannung Individuum – Gemeinschaft im Sinne der Gemeinschaftsbezogenheit und Gemeinschaftsgebundenheit der Person entschieden, ohne dabei deren Eigen­

889  Vgl.

BVerfGE 9, 167 (171); 87, 209 (228); 109, 133 (149 f.); 115, 118 (152 f.). dieser „Objektformel“ erstmalig Dürig, AöR 81 (1956), 117 (127); st. Rspr. des BVerfG, siehe nur BVerfGE 45, 187 (228); 115, 118 (153). Dazu auch Hillgruber, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.5.2019), Art. 1, Rn. 13; Starck, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 1, Rn. 14 ff. 891  BVerfGE 115, 118 (153). 892  BVerfGE 45, 187 (228). Vgl. auch den Leitfaden der Konrad-Adenauer-Stif­ tung, Baumgartner/Bedford-Strohm et al., Im Zentrum: Menschenwürde, 2. Aufl., September 2006, S. 21: „Würde ist Anspruch auf Achtung. Menschenwürde ist folg­ lich der jedem Menschen eigene, weil mit seinem Dasein gegebene und darum ob­ jektive Anspruch auf Achtung als Mensch. […] Jeden Menschen in seinem Mensch­ sein wahrzunehmen und zu respektieren, ist die konkrete Achtung der Menschen­ würde“. 893  Landau, NStZ 2015, 665 (667) m. w. N. (insbesondere zur Rechtsprechung des BVerfG). 894  Herdegen, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg. (Jan. 2010), Art. 1, Rn. 12 m. w. N. Die Auslegung der Menschenwürdegarantie, insbesondere auch die „Objekt-Formel“ ist intensiv geprägt durch Kants Moralphilosophie. 890  Zu

348

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

wert anzutasten.“895 Das verfassungsrechtliche, freiheitliche Menschenbild ist auch Teil der Ewigkeitsgarantie des Art. 79 Abs. 3 GG. b) Die Menschenwürde als Hindernis einer vollautomatisierten Justiz aa) Grenze Menschenwürde zu besitzen bedeutet, Rechtssubjekt zu sein.896 Allein der Umstand, dass personenbezogene Daten Anknüpfungspunkt und „Objekt“ algorithmischer Analysen sind, missachtet indes nicht a priori die Subjekt­ qualität des Einzelnen.897 Insoweit ist nicht das Ob, sondern das Wie  der Automatisierung entscheidend: Sofern der Staat durch eine hinreichend sen­ sible Ausgestaltung sicherstellt, dass der Betroffene Einfluss auf den maschi­ nellen, automatisierten Entscheidungsprozess nehmen kann, und so verhin­ dert, dass der Einzelne ausschließlich zum Objekt der Informationsverarbei­ tung verkommt, steht die Menschenwürde dem Einsatz algorithmenbasierter Assistenzsysteme in der Justiz nicht von vornherein entgegen.898 Die „Ob­ jektformel“ ist in ihrer Leistungsfähigkeit ohnehin strukturell begrenzt und daher nicht überzustrapazieren.899 Art. 1 Abs. 1 S. 1 GG gewährleistet be­ reits dem Wortlaut nach nicht die „Würde der Menschheit“, sondern die „Würde des Menschen“, sodass der Staat bspw. auch nicht gehalten ist, technischem Wandel – etwa im Bereich der modernen Biomedizin oder der Reproduktionstechnologien – per se Einhalt zu gebieten.900 Schlechthin unvereinbar mit der menschlichen Würde scheint es allerdings, wenn eine Maschine einen Menschen bewertet und über ihn urteilt, ohne dass die Person weiß, dass sein Gegenüber kein Mensch ist.901 Das gilt je­ 895  BVerfGE 4, 7 (15 f.); st. Rspr., vgl. etwa BVerfGE 12, 45 (55); 77, 240 (253); 109, 133 (151); siehe auch Herdegen, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg. (Jan. 2010), Art. 1, Rn. 28. Ausführlich zur Menschenwürdegarantie in der Rechtspre­ chung des BVerfG Will, APuZ 35–36 (2011), 8 (8 ff.). 896  Enders, Die Menschenwürde in der Verfassungsordnung, 1997, S. 502 f. 897  Vgl. bereits Martini/Nink, NVwZ-Extra 2017, 1 (7); zustimmend Wischmeyer, AöR 143 (2018), 1 (40 f., dort Fn. 162). Siehe auch Bull, Der Staat 58 (2019), 57 (69 ff.). 898  Vgl. (mit Blick auf die Verwaltung) auch Bull, DVBl 2017, 409 (416); D ­ jeffal, DVBl 2017, 808 (814 ff.). 899  BVerfGE 109, 279 (312). 900  Vgl. Herdegen, in: Maunz/Dürig (Begr.), GG, 57.  Erg.-Lfg. (Jan. 2010), Art. 1, Rn. 32. 901  Ähnlich European Group on Ethics in Science and New Technologies, State­ ment on Artifcial Intelligence, Robotics and ‚Autonomous‘ Systems, 2018, S. 16.



V. Verfassungsrechtliche Direktiven349

denfalls dort, wo – wie in Gerichtsverfahren – die Interaktion über eine reine Alltagskommunikation hinausgeht und in Form einer Bewertung oder Beur­ teilung rechtliche oder vergleichbare Konsequenzen für die Person zeitigt.902 bb) Keine Reduktion des Menschen auf Zahlenlogik Maschinen folgen einem statistisch-technischen Weltbild. Damit ist auch ihr Menschenbild ein statistisch-technisches. Sie sind qua natura nicht in der Lage, einen Menschen „menschlich“ wahrzunehmen, sondern können ihn und seinen Lebenssachverhalt immer nur (ver)messen, datieren, einordnen, berechnen. Sie reduzieren den Menschen auf eine Zahlenlogik. So besteht die Gefahr, dass der Mensch in einer hochgradig digitalisierten und automa­ tisierten Welt nur noch als Zahl existiert, als Ding, als Datenhaufen voller Informationen über äußere Merkmale, insbesondere sein (äußeres) Verhal­ ten – während auf diesen Informationen (automatisierte) Entscheidungen mit rechtlicher Wirkung fußen können. Das kantisch-freiheitliche Menschenbild ist mit einer nahezu vollständigen De- bzw. Ent-Individualisierung, wie sie durch die algorithmische Kategori­ sierung und Eingruppierung droht, nicht in Einklang zu bringen. Der Staat darf das Individuum weder zum reinen Objekt seines Handelns degradieren noch darf er es zum Zweck der Entscheidungsfindung auf eine ausschließli­ che Zahlenlogik reduzieren. Insoweit lässt sich der Menschenwürdegehalt aber schwer fassen, unterfällt dieser Aspekt doch keiner der bisher anerkann­ ten Fallgruppen.903 Eines steht aber fest: Der Staat muss den Einzelnen im­ mer als selbstbestimmtes menschliches Individuum achten und behandeln. Wie er dies im Einzelnen gewährleisten kann und muss, schreibt ihm Art. 1 Abs. 1 GG indes nicht vor. cc) Mögliche Kontraindikation Auf den ersten Blick mag es vor diesem Hintergrund entwürdigend und unmoralisch anmuten, die Lebensgestaltung eines Menschen durch eine auto­ matisierte Rechtsfindung in die Hände (also: die Einsen und Nullen) einer 902  Im Datenschutzrecht schlagen Art. 22 Abs. 2, Art. 13 Abs. 2 lit. f, Art. 14 Abs. 2 lit. f, Art. 15 Abs. 1 lit. h DSGVO in dieselbe Kerbe: Kommen vollständig automatisierte Verfahren bzw. Entscheidungen mit rechtlicher oder vergleichbarer Wirkung zum Einsatz, besteht gerade hierüber („das Bestehen einer automatisierten Entscheidungsfindung“) eine Informationspflicht des Verantwortlichen. Vgl. dazu bereits oben S. 255 f. 903  Vgl. die Übersicht zu den Fallgruppen bei Hillgruber, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.5.2019), Art. 1, Rn. 17 ff.

350

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Maschine zu legen und seinen Lebenssachverhalt lediglich als Objekt algo­ rithmischer Datenverarbeitung zu verstehen. Es hängt allerdings unmittelbar von gesellschaftlichen Umständen und dem jeweiligen technologischen Sta­ tus quo ab, wie Eingriffe und grundrechtliche Beeinträchtigungen empfunden werden.904 Selbst wenn aus der Menschenwürdegarantie ein Verbot vollständig oder teilweise automatisierter Rechtsprechung folgte, vermag ein Gedankenspiel jedoch auch eine mögliche Kontraindikation auszuleuchten: Angenommen, das Justizsystem sei zu großen Teilen korrupt und willkürlich, die Quote an Fehlurteilen läge bei 20 oder 50 oder 99 Prozent. Gleichzeitig bestünde die Chance, dass ein algorithmenbasiertes, automatisches Entscheidungssystem nachweislich korrektere und gerechtere Urteile fällt. Ob es dann immer noch einer menschenwürdigen Behandlung widerspräche, den Menschen durch Maschinen bescheiden und beurteilen zu lassen, erscheint jedenfalls diskus­ sionswürdig. Vielmehr könnte die Menschenwürdegarantie dann auch „um­ gekehrt“ wirken und den Staat sogar dazu verpflichten, – gerade zu Gunsten des Einzelnen und seiner freien Lebensgestaltung – die offensichtlich inkor­ rekten menschlichen Fehlurteile durch korrekte, gerechte Maschinenentschei­ dungen auszutauschen. Für den Einzelnen kann es (in der Theorie) dann besser sein, den abstrakten Gehalt der Menschenwürde insoweit – der Mensch soll nicht Objekt einer vollständig automatisierten gerichtlichen Ent­ scheidung werden – nicht für sich einzufordern, um stattdessen in den Ge­ nuss korrekter Rechtsfindung zu gelangen. Derlei Gedankenexperimente münden letztlich aber in der hier nicht zu vertiefenden Diskussion darüber, ob die Menschenwürde oder die Berufung darauf für den Einzelnen verzichtbar ist oder nicht.905 Hinsichtlich der Ziele staatlichen Handelns bleibt zu ergänzen, dass Art. 1 Abs. 1 GG solche 904  Auch ist nicht jede Erscheinungsform der Automatisierung per se mit neuen Risiken für Menschenwürde und Grundrechte verbunden, vgl. Caspar, PinG 2019, 1 (2); Golla, In Würde vor Ampel und Algorithmus, in: Donath/Bretthauer/Dickel-Gö­ rig (Hrsg.), Verfassungen – ihre Rolle im Wandel der Zeit, 2019, S. 177 (191). 905  Dazu etwa Enders, in: Stern/Becker (Hrsg.), 3. Aufl., 2018, Art. 1, Rn. 51 ff., insbesondere 57 ff. Die Rspr. geht strikt davon aus, dass die Menschenwürde absolut wirkt und daher nicht zur freien Disposition des Einzelnen steht, vgl. etwa BVerwGE 64, 274 (279 f.) – Peep-Show; BVerwGE 115, 189 (199 f.) – Laserdrome; VG Neu­ stadt a. d. Weinstraße, GewArch 1992, 296 (297) – Zwergenweitwurf. Vgl. auch BVerfGE 109, 279 (310 f.) – großer Lauschangriff. Der Denktradition Kants entsprä­ che es jedoch wohl eher, Autonomie und stete Entscheidungsfreiheit des Einzelnen auch über den abstrakten Würdebegriff zu stellen. In dem vermeintlichen Konflikt zwischen Würde und individueller Freiheit stellt Art. 1 GG jedenfalls Entfaltungs­ schranken, also „wesensmäßige“ Freiheitsschranken auf: Unvereinbar mit der Verfas­ sung sind Handlungen, welche die „Vorstellung von der Verfügbarkeit des Menschen als bloßes Objekt“ vermitteln, um dadurch eine „Einstellung zu erzeugen oder zu



V. Verfassungsrechtliche Direktiven351

Zwecksetzungen verbietet, die eine „Geringschätzung der menschlichen Per­ son und ihrer Würde“906 ausweisen, weil sie gerade darauf abzielen, die durch Art. 1 GG garantierte Subjektstellung des Menschen zu unterlaufen.907 Das Ziel, rationalere und gerechtere Gerichtsentscheidungen durch (vollstän­ dig oder teilweise) automatisierte Gerichtsentscheidungen zu erreichen, ist mit diesen Maßstäben jedenfalls nicht zu erfassen, diente es doch gerade dem Ziel, die Rechtsstellung des Einzelnen zu verbessern.908 c) Ausblick – keine Rationalisierung um jeden Preis Rationalität und Effizienz sind legitime Zielkomponenten staatlichen Handelns,909 aber nicht die gewichtigsten. Eine Rationalisierung um den Preis der Rechte und der Würde des Einzelnen darf es nicht geben: „Der Mensch steht höher als Technik und Maschine“, postuliert etwa die Staats­ zielnorm des Art. 12 Abs. 1 LV Brem.910 Soweit aus Art. 1 Abs. 1 GG für ein rechtsstaatliches Gerichtsverfahren zudem das „Gebot, die Wahrheit zu ermitteln“ folgt,911 aber die Ermittlung der (prozessualen) Wahrheit und die Sachverhaltsaufklärung nicht automatisierbar sind,912 ist eine vollständige Automatisierung der Rechtsprechung insgesamt auch aus diesem Grunde ausgeschlossen. Wenngleich unmittelbare Rückschlüsse aus der Menschen­ würdegarantie mit Vorsicht zu genießen sind, gibt es in gerichtlichen Verfah­ ren aus Sicht der Verfassung keine Alternative zu menschlichen, auf der Grundlage eines Wertebewusstseins getroffenen Entscheidungen.913 Mit steigenden technischen Möglichkeiten ist es wohl auch nicht ausge­ schlossen, dass die Rechtsprechung aus einer Gesamtschau der Art. 92 Hs. 1 GG, Art. 97 Abs. 1, Art. 1 Abs. 1, Art. 2 Abs. 1 GG eine Art „Recht auf den menschlichen Richter“ ableiten könnte – ähnlich wie z. B. auch das Grund­ verstärken, die den fundamentalen Wert- und Achtungsanspruch leugnet, der jedem Menschen zukommt“, vgl. BVerfGE 87, 209 (228) – Gewaltvideo (§ 131 StGB). 906  Vgl. BVerfGE 30, 1 (26). 907  Enders, in: Stern/Becker (Hrsg.), 3. Aufl., 2018, Art. 1, Rn. 61. Vgl. zur Men­ schenwürde als Zweck(setzungs)verbot Enders, Die Menschenwürde in der Verfas­ sungsordnung, 1997, S. 82 ff., 157, 440, 458 f., 468, 482. 908  Siehe zu dieser Motivation oben S. 138 f. sowie unten S. 360 f. 909  Vgl. etwa Hoffmann-Riem, Modernisierung von Recht und Justiz, 2001, S. 211 ff. m.w. N. 910  Kritisch zu Sinnhaftigkeit und Bedeutung dieser Staatszielnorm Isensee, Vom Stil der Verfassung, 1999, S. 64. 911  So (allerdings ohne weitere Begründung) BVerfGE 57, 250 (287). 912  Vgl. oben S. 177 ff. 913  Vgl. auch Hirsch, ZRP 2009, 61 (61); ähnlich (aber in anderem Kontext) auch Schliesky, ZRP 2015, 56 (57 f.).

352

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

recht auf Gewährleistung der Vertraulichkeit und Integrität informationstech­ nischer Systeme914 nicht ausdrücklich im Text des Grundgesetzes verankert ist. Große Datenmengen und die Digitalisierung, welche nahezu alle Lebens­ bereiche durchzieht, führen zu einer „Vermessung“ des Daseins: Soziale Netzwerke, Kreditscoring, personalisierte Werbung, autonomes Fahren und Smart Cities, Smart Home und E-Government – Effizienz- und Komfortzu­ wächse haben den Preis, dass Menschen vermehrt sortiert und eingeteilt werden. Die ubiquitäre Standardisierung reduziert den Menschen auf Statis­ tik und stellt seine Subjektqualität in Frage. Neben der Quantität maschinel­ ler Datenanalysen gerät dabei die Qualität des einzelnen Lebens vermehrt aus dem Fokus. Aus ethischer Sicht ist es bedenklich, wenn am Ende dieser Entwicklung keine individuellen und autonomen Bürger, sondern nur noch Zahlenlogik steht.915 Die Würde des Menschen zu achten und zu schützen ist Verpflichtung al­ ler staatlichen Gewalt (Art. 1 Abs. 1 S. 2 GG). Sie kann damit nicht nur, sie muss als Leitmotiv von Digitalisierung und Automatisierung dienen. Die Idee der Menschenwürde als organisatorischer und intellektueller Flucht­ punkt gesellschaftlicher und politischer Orientierung ist historisch eng mit dem Bild des freien und frei denkenden Menschen verwoben. Zu diesem gehört nicht nur unzulängliches Wissen, sondern es umfasst auch alle Arten von Emotionen916 sowie die menschlichen Rationalitätsschwächen und Un­ zulänglichkeiten. Allerdings ist Veränderung unumgänglich. Das gilt auch für die Rechtsordnung. Es gibt kein Recht darauf, dass die Welt, der Staat oder das Recht unverändert bleiben.917 Der Disruption durch Digitalisierung und Automatisierung lässt sich auf drei Arten begegnen:918 erstens durch Skizzen von Utopien oder Dystopien, also mit Begeisterung oder Abscheu über Bil­ der der Zukunft; zweitens durch Innovationsverzicht, also dem Versuch, den Lauf der Welt mitsamt seiner technologischen Entwicklung anzuhalten; und 914  Vgl.

BVerfGE 120, 274 (302 ff.). bereits BVerfGE 27, 1 (6): Mit der Würde des Menschen ist es nicht zu vereinbaren, ihn „zwangsweise in seiner ganzen Persönlichkeit zu registrieren und zu katalogisieren […] und ihn damit wie eine Sache zu behandeln, die einer Bestands­ aufnahme in jeder Beziehung zugänglich ist“. 916  Fetzer, Menschenwürde als Leitmotiv der Digitalisierung, November 2017, S. 4. 917  Au contraire blockiert gerade eine Politik des Stillstands und der Unveränder­ lichkeit den Wohlstand – und lässt sich auch nicht aus dem skizzierten Verständnis von Menschenwürde und Verantwortung ableiten, vgl. Fetzer, Menschenwürde als Leitmotiv der Digitalisierung, November 2017, S. 10. 918  Nach Fetzer, Menschenwürde als Leitmotiv der Digitalisierung, November 2017, S. 13. 915  Vgl.



V. Verfassungsrechtliche Direktiven353

drittens, „groß vom Menschen zu denken“, also die Denktradition der Men­ schenwürde als Kompass dieser Entwicklung zu nutzen. Letzterem könnte es durchaus entsprechen, den menschlichen Richter durch neue Technologien zu unterstützen und so – gerade im Interesse des Individuums – noch rationalere gerichtliche Entscheidungen zu treffen. 11. Recht auf informationelle Selbstbestimmung – Achtung des Datenschutzes bei der Entwicklung und Nutzung algorithmenbasierter Unterstützungssysteme Aus dem Rahmenrecht des allgemeinen Persönlichkeitsrechts, das aus Art. 2 Abs. 1 GG i. V. m. Art. 1 Abs. 1 GG folgt und die freie Entfaltung der Persönlichkeit i. S. einer eigenverantwortlichen, autonomen Lebensgestaltung unter Beachtung der eigenen Individualität schützt,919 erwächst auch ein in­ dividuelles Recht auf informationelle Selbstbestimmung. Als Grundrecht erstmals im Volkszählungsurteil des BVerfG dogmatisch hergeleitet, umfasst es insbesondere den Schutz personenbezogener Daten: Jeder Bürger soll grundsätzlich selbst darüber entscheiden, welche Daten über ihn wie genutzt werden.920 Eingriffe in das Grundrecht zeitigten bislang etwa staatliche In­ formationsmaßnahmen.921 Auch Dritten die Einsicht in strafrechtliche Er­ mittlungsakten zu gewähren, stellt einen (der Rechtfertigung bedürftigen) Eingriff in das Grundrecht dar.922 Mit den technischen Möglichkeiten neuer Datenverarbeitungstechnologien steigen auch die (potenziellen) Gefahren für das Recht auf informationelle Selbstbestimmung.923 So sind bspw. auf Big Data basierende Systeme umso 919  Grundlegend BVerfGE 54, 148 (153 f.); dazu auch di Fabio, in: Maunz/Dürig (Begr.), GG, 39. Erg.-Lfg. (Juli 2001), Art. 2, Rn. 147. Für eine individuelle Selbst­ entfaltung zielt das Grundrecht vor allem auf die „Wahrung der Integrität“ und den Ehrschutz, vgl. Lang, in: Epping/Hillgruber (Hrsg.), BeckOK GG, 41. Ed. (Stand: 15.2.2019), Art. 2, Rn. 31, 53. 920  Vgl. BVerfGE 65, 1 (43); 78, 77 (84); 80, 367 (373). 921  Vgl. etwa die Übersicht bei di Fabio, in: Maunz/Dürig (Begr.), GG, 39. Erg.Lfg. (Juli 2001), Art. 2, Rn. 173, 175 f.; BVerwGE 141, 329 (329 ff.) zur Videoüber­ wachung auf der Reeperbahn; OVG Münster, DVBl 2017, 445 (445 ff.) zu sog. „Hy­ giene-Ampeln“; BVerfG, NJW 2006, 976 (978 f.) zu Mobiltelefon-Gesprächsdaten einer Richterin beim Verdacht der Verletzung von Dienstgeheimnissen. Vgl. auch den Blick auf die verschiedenen Zielrichtungen polizeilichen Technikeinsatzes bei Seckelmann, Einsatz bei der Polizei, in: dies. (Hrsg.), Digitalisierte Verwaltung, 2. Aufl., 2019, S. 485 (487 ff.). 922  Vgl. BVerfG, Nichtannahmebeschl. v. 4.12.2008 – 2 BvR 1043/08 –, juris, Rn. 17 f., wonach etwa § 406e StPO im Lichte des Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG auszulegen ist. 923  Dazu etwa Martini, Blackbox Algorithmus, 2019, S. 91 ff.

354

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

leistungsstärker und in ihren Schlussfolgerungen präziser, je umfassender und genauer deren Datengrundlagen sind.924 Für den justiziellen Einsatz entscheidungsunterstützender Algorithmen entschärft sich die Spannungslage aber etwas.925 Relevanz entfaltet das Recht auf informationelle Selbstbestimmung im Kontext eines justiziellen Algorithmeneinsatzes vor allem insoweit, als es den Staat bei der Entwick­ lung und der Nutzung informationstechnischer Systeme dazu ermahnt, die datenschutzrechtlichen Vorgaben einzuhalten und umzusetzen.926 Nur bei­ spielhaft stehen insoweit die Grundsätze der Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO) und der Transparenz (Art. 5 Abs. 1 lit. a DSGVO); zudem dürfen Dritte, insbesondere privatwirtschaftlich aufgestellte Entwickler der gerichtlichen IT-Infrastruktur, grundsätzlich keinen Zugriff auf personenbe­ zogene Daten der Prozessbeteiligten (etwa aus den Gerichtsakten) erhal­ ten.927 Unüberwindbare, verfassungsrechtliche Hindernisse für den Einsatz algorithmenbasierter Assistenzsysteme ergeben sich daraus aber nicht. 12. Zwischenfazit Eine vollständige Automatisierung der Rechtsprechung wäre verfassungs­ rechtlich nicht zulässig. Insbesondere der Richterbegriff des Art. 92 Hs. 1 GG beinhaltet ein personales Element, knüpft mithin an eine natürliche Per­ son an. Mit dem Recht auf den gesetzlichen Richter (Art. 101 Abs. 1 S. 2 GG), dem Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) sowie dem Recht auf effektiven Rechtsschutz (Art. 19 Abs. 4 GG) bzw. dem allgemei­ nen Justizgewähranspruch lässt sich eine vollständige Automatisierung recht­ sprechender Tätigkeit ebenfalls nicht in Einklang bringen. 924  Es scheint auf den ersten Blick paradox, dass in der Welt der kognitiv hoch­ leistungsfähigen Vorhersagesysteme erst große Datenmengen ohne Einzelfallbezug gute, im Einzelfall stimmige Ergebnisse ermöglichen. 925  Denn das Gericht muss ohnehin über alle für den Fall relevanten Daten über die Prozessbeteiligten verfügen (etwa hinsichtlich der Entscheidungsreife im Zivil­ prozess) bzw. diese ermitteln (etwa aufgrund der Aufklärungspflicht im Strafprozess, § 244 Abs. 2 StPO). Die Datenverarbeitung stellt einen Eingriff in das Recht auf in­ formationelle Selbstbestimmung der Betroffenen dar; dieser lässt sich indes zwecks Funktionsfähigkeit der Justiz rechtfertigen (zur Rechtsgrundlage der Datenverarbei­ tung im Bereich der DSGVO vgl. bereits oben S. 249). Plastisch wird das im Straf­ prozess, in dem das Gericht bspw. sogar Daten über frühere Verurteilungen und Bundeszentralregistereinträge in seine Entscheidung, etwa zum Strafmaß, einfließen lässt – jene Daten also, für die gegenüber privatwirtschaftlichen Akteuren ein grund­ sätzliches Verarbeitungsverbot besteht (vgl. Art. 10 DSGVO). 926  Vgl. zu den datenschutzrechtlichen Vorgaben des Unionsrechts oben S. 246 ff. 927  Vorbehaltlich einer entsprechenden Notwendigkeit im Rahmen einer rechtmä­ ßigen Auftragsverarbeitung gem. Art. 28 DSGVO.



VI. Fazit des zweiten Teils355

Dagegen ist die Unterstützung richterlicher Entscheidungen durch techni­ sche Systeme nicht grundsätzlich verfassungswidrig. Die Reichweite der möglichen entscheidungsunterstützenden Maßnahmen geht über den (äuße­ ren) Organisationsbereich hinaus, umfasst insbesondere mehr als die elektro­ nische Aktenführung und reine Strukturierungswerkzeuge. Jede inhaltliche Unterstützung muss aber die richterliche Unabhängigkeit wahren: Art. 97 Abs. 1 GG markiert die Grenzen eines Technikeinsatzes in der Rechtspre­ chung. Die Letztentscheidungsbefugnis kommt allein dem (menschlichen) Richter zu. Ausschlaggebend für die verfassungsrechtliche Zulässigkeit ist somit die praktische Ausgestaltung entscheidungsunterstützender Systeme: Diese müssen ein Mindestmaß an Transparenz aufweisen, insbesondere hin­ sichtlich der inhaltlichen Nachvollziehbarkeit. Der Staat muss außerdem Schutzmechanismen dafür vorsehen, dass der Richter den algorithmischen Entscheidungsvorschlag nicht ohne eigene (Rechts-)Prüfung übernimmt oder sich an diesen gebunden fühlt.

VI. Fazit des zweiten Teils Ebenso wie menschliche sind auch maschinell getroffene Entscheidungen fehleranfällig. Algorithmen agieren zwar nicht willkürlich oder befangen; sie benötigen auch keine Pausen. Die Qualität ihrer Ergebnisse hängt aber von ihren Programmierern sowie bei datenbasierten Systemen vor allem von der Qualität der Trainings- und Validierungsdaten ab. Im Vergleich zu Fehlern eines menschlichen Entscheiders kommt maschinell erzeugten Fehlurteilen eine größere Breitenwirkung zu. Die speziellen Diskriminierungsrisiken, die algorithmenbasierten Systemen innewohnen, können Ungleichbehandlungen perpetuieren und Vergangenes festschreiben. Im hoheitlichen Einsatz besteht Automatisierungspotenzial grundsätzlich dort, wo weder Ermessens- noch Beurteilungsspielräume auszufüllen sind. Auch aus ökonomischer Perspektive kann sich Automatisierung vor allem in Bereichen auszahlen, in denen ein Programm eine große Anzahl an gleichge­ lagerten Fällen nach einem vorgegebenen Muster abarbeiten und der Rechts­ anwender die Dateneingabe – also die Darlegung der Sachverhaltsinformati­ onen – zweckmäßig organisieren kann.928 Mit Blick auf ihr Einsatzpotenzial in der Justiz ist sowohl technisch als auch in ihrer rechtlichen Bewertung zwischen rein regelbasierten Systemen statischer Entscheidungsfindung und datenbasierten, lernenden Systemen zu 928  So auch bereits Fiedler, JZ 1966, 689 (693). In den individuellen Fallgestal­ tungen, wie sie prägend in gerichtlichen Verfahren vorliegen, wäre aufgrund der be­ schränkten Sensorik algorithmenbasierter Systeme eine umfangreiche und aufwendige Dateneingabe notwendig.

356

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

differenzieren. Die Verwendung rein regelbasierter Systeme steht vor der Schwierigkeit, dass Gesetze notwendig abstrakt und offen gefasst sein müs­ sen, soweit nicht jeder denkbare Fall und jedes theoretisch mögliche Detail einer Sachverhaltsgestaltung (für den Einzelfall) normativ antizipiert werden können. Einzelfallgerechtigkeit in Fällen, die vom antizipierten „Normalfall“ abweichen, können rein regelbasierte Systeme daher nicht rechtssicher ge­ währleisten. Induktiv vorgehende, datenbasierte Systeme sind zwar grund­ sätzlich besser in der Lage, auch auf unvorhergesehene und Ausnahmefälle zu reagieren. Ihr Einsatz steht allerdings vor besonderen Schwierigkeiten, den verfassungsrechtlichen Vorgaben zu Transparenz, demokratischer Legiti­ mation und Gesetzesbindung zu entsprechen. Richterliche Entscheidungen sind qua Natur der Sache keine „Regelfälle“, keine Massenentscheidungen. Sie haben immer den konkreten Einzelfall mit all seinen Facetten und Konflikten des menschlichen Lebens zum Gegen­ stand. Die hiernach erforderlichen qualitativen Wertungen sind Maschinen (noch) nicht zu leisten im Stande. Ihnen fehlt ein weltliches Verständnis ihrer Umgebung, ein Informationsfilter, eine Kontexterfassung. Sie besitzen kein Judiz. Einzelfallgerechtigkeit lässt sich nicht automatisch generieren. Auch die Hürde zwischen der natürlichen Sprache, die stets kontextabhängig ist und Graustufen kennt, und einer formalen Maschinensprache ist bislang nicht überwunden. Bisherige juristische Expertensysteme und Legal-Tech-Anwendungen blei­ ben insoweit unterkomplex und bieten daher nur eine Näherung an die Rechtslage: Dasjenige, was die Rechtsordnung dem Richter abverlangt,929 sind Maschinen nicht zu leisten im Stande.930 Ist dies zwar lediglich eine Momentaufnahme, weil die dynamische Entwicklung technischer Innovatio­ nen, aber auch deren rechtlicher Rahmen im stetigen Wandel ist, zeigt insbe­ sondere die Verfassung einer automatisierten Rechtsprechung aber normative Grenzen auf: Der Richter i. S. d. Art. 92 Hs. 1 GG ist ein Mensch. Die Ver­ fassung legt die letztverbindliche (gerichtliche) Entscheidung juristischer Sachverhalte ausdrücklich in die Hände natürlicher Personen. Die Justiz kann auf dieses personale Element nicht verzichten; eine „entmenschlichende oder entmenschlichte“ Rechtsprechung ist unzulässig. Dem vielgestaltigen Aufgabenspektrum des Richters ist kein Computerprogramm gewachsen. Das Recht auf den gesetzlichen Richter (Art. 101 Abs. 1 S. 2 GG) setzt ebenso eine natürliche Person voraus wie der Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG), dem nicht etwa durch Chatbots zu genügen ist. 929  Siehe das Zwischenfazit zu den Vorgaben an die richterliche Tätigkeit oben S. 129. 930  Siehe das Zwischenfazit zu den technischen Hürden und Grenzen oben S. 242 ff.



VI. Fazit des zweiten Teils357

Vollständig automatisierte Gerichtsentscheidungen gerieten zudem in Kon­ flikt mit dem Demokratieprinzip und dem Grundsatz der Transparenz. Dem Rechtsstaatsprinzip können sie im Ergebnis nicht gerecht werden. Letztlich verbietet es auch die Menschenwürde, Personen ausschließlich als Objekte eines algorithmischen Datenverarbeitungsvorgangs, auf den sie nicht unmit­ telbar einwirken können, zu vermessen und zu quantifizieren. Eine vollstän­ dig automatisierte und damit schon begrifflich entindividualisierte Rechtspre­ chung ist vor diesem Hintergrund nur mehr als Dystopie zu entlarven. Der (menschliche) Richter selbst bleibt vielmehr auch zukünftig unentbehrlich: Einen „Richterautomaten“ wird es in absehbarer Zukunft nicht geben.931 Es stellt sich allerdings auch die spiegelbildliche Frage: Kann ein neutra­ ler Algorithmus nicht „ethischer“ sein als die durch Denkfehler und andere Rationalitätsschwächen932 teilweise verzerrte menschliche Entscheidungsfin­ dung, selbst wenn der Betroffene nicht genau versteht, wie der Algorithmus zu seinem Ergebnis gekommen ist? Aus Betroffenensicht kann ein algorith­ menbasiertes Entscheidungssystem unter der Voraussetzung einer effektiven Technikkontrolle und der Nachvollziehbarkeit ihres Zustandekommens durchaus faire, gerechte, ethische Entscheidungen treffen. Die (Teil-)Auto­ mation staatlicher Verfahren und hoheitlicher Entscheidungen darf immerhin kein Selbstzweck sein; sie hat keinen intrinsischen Wert. Für den Umgang mit neuen Technologien bedarf es somit einer klaren Zieldefinition. Diese könnte bspw. darin bestehen, gerichtliche Entscheidungen rationaler  zu ma­ chen. In einem utilitaristischen Sinne kann der Einsatz neuer Technologien dann allen zugutekommen: Der Nutzen für die Gesellschaft durch rationalere Entscheidungen überwiegt mögliche Risiken der Entscheidungsunterstüt­ zung, wenn und soweit sie die verfassungsrechtlichen Grenzen – insbeson­ dere die Letztentscheidungsbefugnis des menschlichen Richters – nicht an­ tastet.933 Ein sinnvoller Einsatz neuer Technologien in der Rechtsprechung ist im Ergebnis nur als Entscheidungshilfe, nicht als Ersatz einer menschlichen 931  So auch bereits Kilian, Juristische Entscheidung und elektronische Datenver­ arbeitung, 1974, S. 297; im Ergebnis ebenso (wenngleich der Aufsatztitel Anderes vermuten lässt) Adrian, Rechtstheorie 48 (2017), 77 (104 f.). 932  Vgl. oben S. 45 ff. 933  Rechtsprechende Tätigkeit wirkt immer auch auf den zu entscheidenden Fall zurück und beeinflusst den entschiedenen Lebenssachverhalt. Die richterliche Ent­ scheidung bemisst sich daher nicht nur nach ihrem Inhalt und dem „Wie“ ihres Zu­ standekommens, sondern auch nach dem „Wie“ ihrer Resonanz: Wird die Entschei­ dung akzeptiert? Wird sie, wenn auch nicht als gerecht, doch als rechtmäßig empfun­ den? Führt sie bei den beteiligten Akteuren und den übrigen Rechtsunterworfenen zu Rechtsfrieden und Rechtssicherheit? Diese Akzeptanz basiert auch auf dem hohen gesellschaftlichen Ansehen und Stellenwert des Richterberufes.

358

Zweiter Teil: Neue Technologien in richterlicher Entscheidungsfindung

Entscheidung denkbar.934 Empathie und Judiz sind keiner Automatisierung zugänglich und verbleiben in menschlicher Hand. Die Grenze des Einsatzes entscheidungsunterstützender Systeme zieht Art. 97 Abs. 1 GG: Die Letztent­ scheidungsbefugnis und auch die tatsächliche Letztentscheidung müssen beim (menschlichen) Richter verbleiben, der kraft Verfassung sachliche Un­ abhängigkeit genießt. Er darf nicht an einen algorithmisch generierten Ent­ scheidungsvorschlag gebunden sein und sich auch nicht daran gebunden fühlen. Sind entscheidungsunterstützende Systeme technisch so umsetzbar, dass sie innerhalb des Art. 20 Abs. 3 GG, insbesondere der Bindung an Gesetz und Recht agieren, lässt sich mit der richterlichen Unabhängigkeit auch vice versa argumentieren: Ob der Richter verfügbare (informationstechnische) Hilfsmittel zu Rate zieht, ist ihm selbst überlassen. Eine durch technische Unterstützung getroffene Entscheidung verliert umso eher den Charakter der Automatisierung einschließlich der damit ein­ hergehenden rechtlichen Bedenken, je reflektierter der Umgang des Anwen­ ders mit dem System erfolgt.935 Aus dem Grundsatz der Transparenz folgt allerdings, dass der Richter die algorithmische Vorgehensweise des Assis­ tenzsystems in ihren Grundzügen verstehen und erklären (können) muss. Eine verständliche Begründung bildet das Fundament der Transparenz: Sie muss nachvollziehen lassen, wie und warum das Gericht zu genau dieser Entscheidung gekommen ist. Ein entscheidungsunterstützender Einsatz algo­ rithmenbasierter Systeme in der Rechtsprechung ist dann möglich und sinn­ voll, wenn Richter sich sowohl der Grenzen des menschlichen Erkenntnis­ horizonts als auch der von einem Algorithmeneinsatz ausgehenden Gefahren bzw. der Grenzen maschineller Entscheidungsfindung bewusst sind. Vor dem Hintergrund dieser Ergebnisse und für den Referenzbereich der Strafrechtspflege skizziert der nachfolgende Teil mögliche konkrete Anwen­ dungsfälle für den Einsatz entscheidungsunterstützender Systeme in der Rechtsprechung.

934  So im Ergebnis auch bereits Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S. 21. Vgl. auch Rostalski, Rethinking Law 1/2019, 4 (11, 13). 935  Vgl. in etwas anderem Zusammenhang Golla, PinG 2014, 61 (64).

Dritter Teil

Algorithmenbasierte Entscheidungsunterstützung in der Strafrechtspflege – Möglichkeiten und Ausblick „Es bringt die Zeit ein anderes Gesetz.“ (Friedrich Schiller)

I. Einführung 1. Vorabüberlegungen Wenn das BVerfG konstatiert, „die Sicherung des Rechtsfriedens in Gestalt der Strafrechtspflege [sei] seit jeher eine zentrale Aufgabe staatlicher Gewalt“1, trifft es damit keine Aussage zu den Anforderungen an die Qua­ lität strafrechtlicher Entscheidungen, etwa deren Rationalität oder materiellrechtliche Richtigkeit. Gemeint ist vielmehr eine grundsätzliche Garantie der Institution des Strafverfahrens als solchem. Allerdings sind hoheitliche Ent­ scheidungen, abstrakt betrachtet, umso gewichtiger, je mehr Menschen sie betreffen (z. B. Entscheidungen der Legislative) oder je gravierender sie in das Leben anderer einwirken (z. B. strafgerichtliche Entscheidungen). Mit den sozialen Auswirkungen und der Relevanz einer Entscheidung steigt auch das Bedürfnis nach deren Optimierung. Erteilt die Verfassung einer vollständigen Automatisierung gerichtlicher Entscheidungen eine klare Absage, hegt sie gegen eine algorithmenbasierte Entscheidungsunterstützung keine grundsätzlichen Bedenken.2 Das wirft die Frage auf, ob sich insbesondere entscheidungsunterstützende Systeme (engl. decision support systems – „DSS“)3 in der Justiz implementieren und sinn­ voll nutzen lassen. Ein DSS kann und soll Menschen im Entscheidungspro­ zess unterstützen, aber nicht bevormunden oder in der Entscheidungsfreiheit einschränken. Die Systeme sollten stets so konzipiert sein, dass ihre Anwen­ der sie immer abschalten bzw. von ihren Vorschlägen abweichen können. Ein gewichtiger Vorteil, gleichsam verfassungsrechtliche Zulässigkeitsvorausset­ 1  BVerfGE

123, 267 (408). das Zwischenfazit oben S. 354 f. 3  Vgl. zum Begriff bereits oben S. 151. 2  Vgl.

360

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

zung (vgl. Art. 97 Abs. 1 GG)4 des Einsatzes entscheidungsunterstützender Systeme wäre, dass die (End-)Entscheidung immer beim Menschen in der natürlichen Person des Richters verbleibt.5 Die Entwicklung der Rechtspre­ chung zum Einsatz sog. Polygraphen („Lügendetektoren“) verdeutlicht im­ merhin, dass die Strafjustiz dem Einsatz neuer Technologien traditionell skeptisch gegenübersteht, aber auch wandlungsfähig ist.6 2. Motivation Im Unterschied zu bisherigen Plänen in der Praxis7 und Vorschlägen aus der Literatur8 – bspw. hinsichtlich der elektronischen Aktenführung und mit dem hauptsächlichen Ziel, Abläufe und organisatorische Aspekte effizi­ enter und effektiver zu gestalten – ergeben sich Motivation und Gründe für das Nachdenken über Entscheidungsunterstützungssysteme vorliegend un­ mittelbar aus den Rationalitätsschwächen der menschlichen Entscheidungs­ 4  Vgl.

oben S. 295 ff. algorithmische Unterstützungen in hoheitlichen Entscheidungen muss dem handelnden Staatsdiener zudem eine „Letzt-Steuerungsmöglichkeit“, ein „Not-AusSchalter“ zur Verfügung stehen. Vgl. ergänzend für die Verwaltung, wo sich die Ge­ währ der menschlichen Entscheidungshoheit auch aus dem Gebot materieller Ent­ scheidungsrichtigkeit i. V. m. dem Anspruch auf rechtliches Gehör ableiten lässt, noch Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 191 ff., 409 f. 6  Der BGH lehnte den Einsatz der sog. Mehrkanalschreiber zunächst mit der Begründung ab, er verletze des Angeklagten Menschenwürde und Willensfreiheit, vgl. BGHSt 5, 332 (334 f.). Nachfolgende Entscheidungen untersagten den Einsatz ebenfalls, rekurrierten aber nicht mehr auf die Menschenwürde, und auch ein Verstoß gegen § 136a StPO sei mangels Täuschung nicht anzunehmen, vgl. BGHSt 44, 308 (310 ff.); der Polygraph sei aber insbesondere wegen der mangelnden Verlässlichkeit ein „völlig ungeeignetes“ Beweismittel i. S. d. § 244 Abs. 3 S. 2 Alt. 4 StPO. Faktisch hatte diese Rechtsprechung ein Beweisverwertungsverbot zur Folge. Das OLG Dres­ den, Beschl. v. 14.5.2013 – 21 UF 787/12 –, juris, Rn. 19, entschied indes, dass der Einsatz in Sorge- und Umgangsrechtsverfahren ein geeignetes (ergänzendes) Mittel zur Entlastung eines Unschuldigen sei. Das AG Bautzen, Urt. v. 26.3.2013 – 40 Ls 330 Js 6351/12 –, juris, Rn. 38 ff., schließlich hat den (ergänzenden) Polygraphenein­ satz zu Gunsten des Beschuldigten bzw. Angeklagten ausdrücklich auch im Strafver­ fahren für zulässig erachtet. Insbesondere in Sexualstrafverfahren bietet sich mangels anderer Zeugen und Beweise häufig eine „Aussage-gegen-Aussage“-Situation, in der das Urteil davon abhängt, ob das Gericht dem Angeklagten oder dem (vermeintlichen bzw. mutmaßlichen) Opfer als Belastungszeugen glaubt. Für die notwendige Glaub­ haftigkeitsprüfung der Zeugenaussage bleibt als Mittel der Wahl dann zumeist ein aussagepsychologisches Gutachten. 7  Vgl. oben S. 152 ff. 8  So etwa Rostalski, Rethinking Law 1/2019, 4 (7), sowie Ballhausen, IT-Ein­ satz in der Justiz, 2012, S. 30, 38 ff., 81 und 108 ff., wonach der IT-Einsatz durch Steigerung der Effizienz auch einen Beitrag zu effektivem Rechtsschutz leisten kann. 5  Für



I. Einführung361

findung:9 Deren Entscheidungseinflüsse regen dazu an, Optimierungsmög­ lichkeiten zu detektieren. Technische Systeme können insbesondere (smarte) Assistenzfunktionalitäten bereitstellen, um die Wahrscheinlichkeit materiellrechtlich zutreffender Entscheidungen zu erhöhen.10 Sie könnten daneben auch zur Entlastung der überlasteten11 Strafjustiz beitragen. Mit dem Entwurf des Gesetzes zur Modernisierung des Besteuerungsver­ fahrens12 hat die Bundesregierung einen bemerkenswerten Aspekt in die Debatte um automatisiertes Verwaltungshandeln eingebracht, der indes nicht auf die Verwaltung beschränkt ist: Die vollautomatische Bearbeitung von Steuererklärungen (§ 155 Abs. 4 AO) soll „nicht [mit] einem ‚Weniger‘ an Prüfungsintensität und -qualität“ einhergehen.13 Au contraire strebte der Gesetzgeber die Konzentration der personellen Ressourcen auf die tatsäch­ lich prüfungsbedürftigen Fälle an. Derart betrachtet, kann Automatisierung statt weniger letztlich mehr, nämlich insbesondere zeitlich ausgedehnten menschlichen Kontakt dort hervorrufen, wo es notwendig und sinnvoll ist.14 Im Vergleich zu automatisiert getroffenen sind menschliche Entscheidungen auch nur dann „besser“, wenn dem Entscheider ausreichend zeitliche und fachliche Ressourcen zur Verfügung stehen. „Verfahrenshumanisierung durch Automation“15 muss insoweit kein Widerspruch sein. Allgemeine Gründe für den Einsatz entscheidungsunterstützender Systeme sind:16 große Datenmengen, verbunden mit der Unstrukturiertheit der Infor­ mationen, das Ziel der Konsistenz sowie die Notwendigkeit schneller und spontaner Entscheidungsfindung.17 Im Bereich der Justiz greift insbesondere 9  Vgl. die umfassende Darstellung oben S. 45 ff.; ergänzend auch Sonnemans/van Dijk, The Journal of Law, Economics & Organization 28 (2012), 687 (688 f.). 10  So für Verwaltungsentscheidungen auch Laue, Vorgangsbearbeitungssysteme der Verwaltung, 2010, S. 189 f. 11  Vgl. Landau, NStZ 2015, 665 (666); siehe auch BVerfGE 133, 168 (171 f.) zu einer funktionstüchtigen Strafrechtspflege und den Ursachen der Überlastung. 12  BT-Drucks. 18/7457. 13  BT-Drucks. 18/7457, S. 48. 14  Vgl. Djeffal, DVBl 2017, 808 (813), der allerdings nur die Verwaltung, nicht die Rechtsprechung in den Blick nimmt. 15  Djeffal, DVBl 2017, 808 (813). 16  Freilich lässt sich darüber trefflich streiten. Die vier Punkte sollen hier ledig­ lich als Illustration genutzt und insoweit vorausgesetzt werden. Vgl. dazu Filip/Zamfirescu et al., Computer-Supported Collaborative Decision-Making, 2017, S. 10 ff., 31 ff. 17  Maschinen können große Datenmengen leichter verarbeiten als Menschen. Alltägliche Beispiele sind etwa die riesigen Datenmengen der Wetterstationen oder auch die Verkaufszahlen großer Konzerne, auf denen jeweils Entscheidungen oder Empfehlungen basieren. Konsistenz meint, dass Maschinen konsistenter als Men­ schen entscheiden und handeln; Konsistenz wird hierbei verstanden als Folgerichtig­

362

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

das Bedürfnis nach Konsistenz: Zwei Richter entscheiden einen nahezu glei­ chen oder vergleichbaren Sachverhalt oftmals unterschiedlich; zehn gleich programmierte Maschinen entscheiden ihn gleich.18 Letzteres ist nicht per se „besser“ oder „gerechter“ – konsistenter bedeutet nämlich zugleich, dass auch Fehler sich konsistent mehrfach auswirken. Der Einsatz technischer Assistenzsysteme könnte sich in diesem Zusammenhang aber als „goldener Mittelweg“ entpuppen.19 Testläufe für Entscheidungsunterstützungssysteme kommen etwa für grundrechtlich weniger sensible Bereiche – bspw. Verfahren mit niedrigem Streitwert im kontradiktorischen Zivilprozess – in Betracht.20 Die Vorschrift des § 495a ZPO, die dem Richter weites Ermessen hinsichtlich der gesamten Verfahrensgestaltung einschließlich Erleichterungen im Beweisverfahren so­ wie bei der Urteilsabfassung und -bekanntmachung gewährt,21 scheint gera­ dezu prädestiniert dafür. Vorliegend soll der Fokus dennoch zuvorderst auf dem Strafverfahren liegen und Fragen zum praktischen Anwendungsbereich denkbarer Entscheidungsunterstützungswerkzeuge aus straf- bzw. strafver­ keit, Widerspruchsfreiheit, Kontinuität, Beständigkeit. Das englische Adjektiv „consistent“ bedeutet etwa „konsequent, widerspruchsfrei, folgerichtig, einheitlich, gleich­ artig, gleichmäßig“. Der Begriff der Konsistenz findet sich sowohl in der Psychologie (als Widerspruchsfreiheit menschlichen Verhaltens) als auch in der IT (etwa als Wi­ derspruchsfreiheit einer Datenbank). Bei schnellen und spontanen Entscheidungen wählen Menschen, besonders in Kombination mit einer großen Menge potenziell re­ levanter Informationen (etwa bei Naturkatastrophen), regelmäßig nicht die beste und rationalste Option. Zuletzt spricht die Unstrukturiertheit vieler Datenpakete für den Einsatz von DSS: In ihrem Ausgangszustand sind Daten und Informationen teilweise chaotisch und unstrukturiert, also nicht oder nur sehr schwer vorhersagbar. Bspw. ist das Verhalten der vielen Teilnehmer einer Demonstration oder Parade und sind die einzelnen Vorgänge und Konflikte teilweise chaotisch, von zufälligen oder gruppen­ dynamischen Ereignissen ausgelöst und somit nur schwer vorhersagbar. Gleichzeitig muss aber insbesondere die Polizei grundrechtsrelevante Entscheidungen in kurzer Zeit treffen und durchsetzen. In diesen Szenarien kann der Einsatz von DSS beson­ ders vielversprechend sein. 18  Deep-Learning-Verfahren können allerdings ebenfalls zu unterschiedlichen Ergebnissen führen. 19  Durch den Einsatz intelligenter Maschinen dürften mittelfristig zudem insge­ samt weniger menschliche Entscheidungsträger vonnöten sein, vgl. etwa die Analyse bei Brynjolfsson/McAfee, The Second Machine Age, 2016, S. 210 ff.; das betrifft ne­ ben Richtern auch Verwaltungsbeamte und -angestellte, Rechtsanwälte oder Notare. 20  So auch Graevenitz, ZRP 2018, 238 (241). Sofern der Betroffene die Möglich­ keit hat, die Entscheidung in einer höheren Instanz oder von einem anderen (mensch­ lichen) Gremium überprüfen zu lassen, kommt in solchen Testläufen nicht nur die automatische Entscheidungsvorbereitung in Betracht, sondern scheint auch die Auto­ matisierung der erstinstanzlichen Entscheidung selbst testfähig. 21  Vgl. nur Toussaint, in: Vorwerk/Wolf (Hrsg.), BeckOK ZPO, 32. Ed. (Stand: 1.3.2019), § 495a, Rn. 19 f., 25 f.



II. Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen363

fahrensrechtlicher Perspektive beleuchten. Denn obgleich sich das Strafver­ fahren und die grundrechtssensiblen strafrechtlichen Entscheidungen prima facie weniger gut als bspw. das finanzgerichtliche oder auch das Zivilverfah­ ren für Teilautomatisierungen zu eignen scheinen, wirken sich darin auch die menschlichen Rationalitätsschwächen besonders gravierend aus.22

II. Zu den Einsatzmöglichkeiten von ­Entscheidungsunterstützungssystemen (Überblick) 1. Notwendigkeit der Kategorisierung der Einsatzmöglichkeiten Nicht alle Rechtsgebiete, nicht alle Verfahrensformen zeigen sich gleicher­ maßen offen und geeignet für Teilautomatisierungspotenzial. Erwägt der Staat den Einsatz entscheidungsunterstützender Systeme in der Justiz, muss er hierfür zunächst die konkreten Einsatzmöglichkeiten kategorisieren und die jeweilige Zielrichtung – etwa Verfahren zu beschleunigen oder Fehler einzudämmen – ausweisen. Zur Kategorisierung bieten sich unterschiedliche, im Folgenden nicht abschließend aufgeführte Anknüpfungspunkte an. a) Rechtsgebiet Zunächst kommt eine Unterscheidung nach dem Rechtsgebiet bzw. -be­ reich in Betracht. In zu großen Teilen formalisierten oder formalisierbaren Verfahren kann Teilautomatisierung grundsätzlich leichter gelingen als in solchen, die stark individualisiert sind und zugleich erheblich in Grundrechte eingreifen. Idealtypisch lässt sich etwa vom zivilrechtlichen Mahnverfahren über den Finanzgerichtsprozess, das verwaltungsgerichtliche Asylverfahren mit regelmäßig aufwändiger individueller Sachverhaltsaufklärung, bis hin zum Strafprozess vor der (großen oder kleinen, vgl. § 76 Abs. 1 S. 1 GVG) Strafkammer, der einen konkreten Schuldvorwurf zu ergründen sucht und in dem langjährige Haftstrafen drohen (§ 74 Abs. 1 GVG), ein aufsteigender „Individualisierungsgrad“ skizzieren.23 22  Die Überlegungen stellen dabei notwendigerweise eine (nur) überschlägig skizzierte Standortbestimmung dar. 23  Grundsätzlich ist Gegenstand jedes gerichtlichen Verfahrens der konkrete, in­ dividuelle Lebenssachverhalt. Dennoch zeigen jüngst bspw. die Einführung der zivil­ rechtlichen Musterfeststellungsklage sowie das Kapitalanleger-Musterverfahrensge­ setz (KapMuG), dass justizielle Entscheidungen unterschiedliche Grade der Individu­ alisierung adressieren können. Überall dort, wo die Rechtsanwendung ohnehin bereits „mechanische Züge“ angenommen hat, wo also permanent wiederkehrende und fest­ stehende Voraussetzungen stets in dieselben Schlussfolgerungen münden, können sich

364

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Es steht außerdem zu vermuten, dass die durchschnittliche potenzielle Bereitschaft, teilweise von einer Maschine gerichtlich beschieden zu werden, sowie letztlich die (gesellschaftliche) Akzeptanz umso größer ist, je weniger gravierend die Entscheidung in das Leben der Betroffenen eingreift.24 b) Instanz bzw. „Endgültigkeit“ Zweitens lässt sich nach den Instanzen differenzieren. Erstinstanzliche Entscheidungen scheinen einer (Teil-)Automatisierung eher zuträglich zu sein als die (prüfenden) Entscheidungen höherer Instanzen – untechnisch formuliert: Je „endgültiger“ eine Entscheidung im Gefüge der Rechtsordnung konzipiert ist, desto weniger eignet sie sich für eine Automatisierung. Umge­ kehrt steht zu vermuten, dass das Recht der (Teil-)Automatisierung einer Entscheidung, die der Betroffene ohnehin im regulären Instanzenzug über­ prüfen lassen kann, weniger verschlossen gegenübersteht.25 c) Art und Wesen der Entscheidung sowie Verfahrensstadien Drittens kann eine Unterscheidung nach der Art der Entscheidung sinnvoll sein: Informationen einzuholen, auszuwählen und aufzubereiten, auch ein Abgleich mit der bisherigen (obergerichtlichen) Rechtsprechung – all dies sind zwar keine belanglosen oder entscheidungsunerheblichen Vorgänge, sie scheinen aber weniger „automatisierungssensibel“ als bspw. die Wertung von Informationen, etwa in Form der Beweiswürdigung, oder auch Entscheidun­ gen der Verhandlungsleitung. So beraumt der Richter bspw. Termine durch Verfügung an, die Kostenfestsetzung erfolgt durch Beschluss, eine offensicht­ lich unzulässige Klage wird durch Prozessurteil abgewiesen. Die Teilauto­ matisierung bietet dann im Idealfall die Chance, die menschlichen Ressour­ cen auf die „automatisierungssensiblen“ Fälle bzw. Entscheidungen zu kon­ zentrieren. automatisierte Verfahren nahtlos in etablierte routinisierte Schemata einfügen. Vgl. auch bereits Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S. 18. 24  Siehe zur Akzeptanz bereits oben S. 343 ff. So ist bspw. davon auszugehen, dass sich das Ordnungswidrigkeitenrecht hinsichtlich der Akzeptanz eher für eine (Teil-)Automatisierung anbietet als das Strafrecht: In seinem Rechtsprechungsbegriff unternimmt auch das BVerfG eine Grenzziehung insbesondere zwischen dem ethi­ schen, „autoritativen“ Unwerturteil des Strafrechts (vgl. BVerfGE 22, 49 (80)) und der Verhängung von Bußgeldern im Recht der Ordnungswidrigkeiten. 25  Voraussetzung und Vorgabe ist, dass die nächsthöhere Instanz insbesondere anhand einer stringenten und vollständigen Begründung nachvollziehen können muss, wie die Entscheidung zustande gekommen ist.



II. Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen365

Strukturell eher ungeeignet sind solche Entscheidungen, die eine nicht abgeschlossene Zahl an Komponenten enthalten oder für die ein Entscheider (auch) auf Intuition und Empathie bzw. einen nicht ins Detail präzisierten Gesamteindruck zurückzugreifen hat.26 Auch die menschliche Interaktion in der mündlichen Verhandlung (vgl. nur § 128 Abs. 1 ZPO; §§ 226, 261, 264 StPO; § 101 Abs. 1 VwGO) lässt sich nicht maschinell abbilden. d) Entscheidungsteile und Gesamtentscheidung Viertens sind Entscheidungsteilprozesse, etwa einzelne Phasen eines Ver­ fahrens, von Gesamtentscheidungen zu unterscheiden. Um das jeweilige Automatisierungspotenzial und dessen mögliche gesetzgeberische Ausgestal­ tung zu eruieren, kann es daher förderlich sein, gerichtliche Entscheidungen in kleine Einzelpakete aufzuspalten. 2. Kontrolle justiziell eingesetzter Entscheidungsunterstützungssysteme Nicht die technische Entwicklung, sondern das Recht muss den Rahmen hoheitlichen Handelns vorgeben. Den justiziellen Einsatz entscheidungsun­ terstützender Systeme sollte der Staat somit auf ein normatives Fundament stellen. a) Einfachgesetzlich verankerte Grundsätze und Formalia – Lex lata Er ist dabei nicht vollständig frei: Insbesondere darf kein Gesetzgeber Angelegenheiten, welche Rechtsprechung i. S. d. Art. 92 Hs. 1 GG sind, an­ deren Akteuren als Gerichten bzw. Richtern zuweisen.27 Das gilt sowohl für das Verhältnis der Staatsgewalten untereinander als auch für außerstaatli­ che Einrichtungen. Neben den verfassungsrechtlichen Direktiven – insbeson­ dere der Reichweite der richterlichen Unabhängigkeit28 – enthält auch das einfachgesetzliche Recht Grundsätze rechtsprechender Tätigkeit, die der Ge­ setzgeber nicht antasten sollte, wenn er den Einsatz entscheidungsunterstüt­ zender Algorithmen normativ auskleiden will. So muss ein Algorithmenein­ satz in der Justiz bspw. immer auch die Verfahrensfunktionen wahren: Ge­ auch bereits Fiedler, JZ 1966, 689 (693), für Verwaltungsentscheidungen. 111 (136); Oehlerking, Private Auslagerung von Funktionen der Justiz und der Gefahrenabwehr, 2008, S. 17 f. 28  Vgl. oben S. 288 ff. 26  So

27  BVerfGE 103,

366

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

richtlichen Verfahren kommt ein Wert an sich zu,29 sie befrieden, ordnen, bisweilen schrecken sie auch gewollt ab – etwa im Strafverfahren, in dem neben der eigentlichen Strafe bereits das öffentliche Verfahren soziale Äch­ tung hervorrufen kann.30 aa) Mündlichkeitsgrundsatz Eine grundlegende Prozessmaxime deutscher Gerichtsverfahren ist der Mündlichkeitsgrundsatz (vgl. etwa § 128 Abs. 1 ZPO, siehe aber auch des­ sen Abs. 2; §§ 261, 264 StPO, § 33 Abs. 1 StPO, siehe aber auch § 249 Abs. 2 sowie §§ 407 ff. StPO; § 101 Abs. 1 VwGO; Art. 6 Abs. 1 EMRK). Aus dem Grundsatz folgt bspw., dass ein hör- oder sprechunfähiger Richter oder Schöffe grundsätzlich nicht in aktiver Funktion an der mündlichen Ver­ handlung eines Strafverfahrens teilnehmen kann: Der Mündlichkeitsgrund­ satz setzt die Fähigkeit voraus, Gesprochenes akustisch wahrzunehmen und sich in dem durch Rede und Gegenrede gekennzeichneten Gang der Haupt­ verhandlung mündlich zu äußern.31 Auch im Zivilprozess besteht die Verfah­ rensmaxime, dass das Gericht grundsätzlich nur nach mündlicher Verhand­ lung entscheiden und als Prozessstoff nur berücksichtigen darf, was die Parteien gerade dort vorgetragen haben.32 Der Verfahrensgrundsatz dient letztlich auch der Transparenz und der Akzeptanz gerichtlicher Entscheidun­ gen.33 29  Vgl. zu diesem Gedanken auch Luhmann, Legitimation durch Verfahren, 10. Aufl., 2013, passim. 30  Der Grundsatz der Öffentlichkeit (§ 169 Abs. 1 S. 1 GVG; vgl. auch Art. 6 Abs. 1 EMRK) bezweckt die mit ihr verbundene Legitimationswirkung und die Kon­ trolle der richterlichen Entscheidungsfindung durch das Volk; basal insoweit RGSt 70, 109 (112); ebenso BGHSt 9, 280 (281); 23, 176 (178); Voßkuhle, Rechtsschutz gegen den Richter, 1993, S. 123 m. w. N. Grundsätzlich ist jedes Gerichtsverfahren öffent­ lich; Ausnahmen normieren etwa §§ 170, 171a ff. GVG; § 48 Abs. 1 JGG. Die Pro­ zessmaxime soll auch die richterliche Neutralität in Form der „inneren Unabhängig­ keit“ absichern. Bereits Neuerungen wie die mündliche Verhandlung per Videokonfe­ renz (vgl. § 128a ZPO) schwören Konflikte mit der Prozessmaxime herauf. Wo das Gesetz die öffentliche Verhandlung vorsieht (wie im Regelfall), muss dann jedenfalls sichergestellt sein, dass die Öffentlichkeit die Verhandlung auch tatsächlich mitverfol­ gen, ihr insbesondere akustisch folgen kann. Der Öffentlichkeitsgrundsatz adressiert jedoch nicht unmittelbar die Entscheidungsfindung, sondern die Verhandlung selbst. Dem entscheidungsunterstützenden Einsatz algorithmischer Systeme legt er somit keine Steine in den Weg; vgl. zu den Anforderungen an die demokratische Legitima­ tion bereits oben S. 317 ff., zur Transparenz oben S. 331 ff. 31  St. Rspr. seit BGHSt 4, 191 (193); BGH, NStZ-RR 2011, 349 (349). 32  Vgl. Fritsche, in: Krüger/Rauscher (Hrsg.), MüKo-ZPO, Bd. 1, 5. Aufl., 2016, §  128, Rn.  1 f. m. w. N. 33  Vgl. etwa Kudlich, in: ders. (Hrsg.), Müko-StPO, Bd. 1, 2014, Einl, Rn. 186.



II. Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen367

Eine Änderung des einfachen Rechts, die den entscheidungsunterstützen­ den Algorithmeneinsatz ermöglichen soll, muss die große Bedeutung des Mündlichkeitsgrundsatzes als eine der prägenden Prozessmaximen des deut­ schen Verfahrensrechts beachten.34 Ebenso wie die richterliche Entscheidung dürfte auch der algorithmische Entscheidungsvorschlag nur dasjenige einflie­ ßen lassen, was Gegenstand der mündlichen Verhandlung war. Technisch er­ scheint das überaus anspruchsvoll, jedenfalls teilweise aber über Methoden des Natural Language Processing vorstellbar; ansonsten müsste sich das Gericht zwischenschalten und die Informationspakete der mündlichen Ver­ handlung händisch in das Assistenzsystem einspeisen. Allerdings gilt der Mündlichkeitsgrundsatz bereits de lege lata nicht aus­ nahmslos, mithin nicht absolut. Auch aus Art. 103 Abs. 1 GG folgt grund­ sätzlich kein allgemeiner Anspruch auf eine mündliche Verhandlung oder persönliche Anhörung; es liegt am Gesetzgeber, in welcher Weise das recht­ liche Gehör gewährt werden soll – mündlich oder schriftlich.35 So gibt es zahlreiche Ausnahmen zur Mündlichkeitsmaxime (etwa § 128 Abs. 2 ZPO; § 249 Abs. 2 StPO). Ein besonderes Beispiel ist das Strafbefehlsverfahren (§§ 407 ff. StPO), in dem einem Strafausspruch keine mündliche Verhand­ lung zugrunde liegt.36 Die vorläufige Entscheidung in Form des Strafbe­ fehls kann der Angeklagte durch Nichtanfechtung rechtskräftig werden lassen oder aber die Durchführung der Hauptverhandlung (§ 411 Abs. 1 S. 1 und 2 StPO) erzwingen.37 Voraussetzung für das Strafbefehlsverfahren ist, dass die Staatsanwaltschaft nach dem Ergebnis ihrer Ermittlungen eine (mündli­ che) Hauptverhandlung nicht für erforderlich erachtet (§ 407 Abs. 1 S. 2 StPO) und der Richter dem Antrag der Staatsanwaltschaft keine Bedenken entgegenbringt (§ 408 Abs. 3 S. 1 StPO). Einer vorherigen Anhörung des Angeschuldigten durch das Gericht i. S. d. § 33 Abs. 3 StPO) bedarf es nicht (§ 407 Abs. 3 StPO), weil § 163a Abs. 1 StPO dem Beschuldigten im Vorver­ fahren ausreichend rechtliches Gehör gewährt.

34  Dies folgt bereits daraus, dass eine Automatisierung der Verhandlungsleitung und der Sachverhaltsaufklärung in gerichtlichen Verfahren kaum vorstellbar ist, vgl. bereits oben S. 177 ff. 35  Vgl. BVerfGE 60, 175 (210 f.). 36  Streng genommen ist das Strafbefehlsverfahren, das eine Entscheidung gerade ohne Hauptverhandlung ermöglicht, allerdings keine Einschränkung des Öffentlich­ keitsgrundsatzes, soweit man diesen als eine lediglich die Hauptverhandlung prägende Maxime versteht, vgl. Kudlich, in: ders. (Hrsg.), Müko-StPO, Bd. 1, 2014, Einl, Rn. 189. 37  Für die Mündlichkeitsvorgabe in Art. 6 Abs. 1 EMRK ist das ausreichend, vgl. Meyer-Goßner, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, Vorb zu §§ 407 ff., Rn. 2.

368

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Der Gesetzgeber kann also durchaus praktikable Kompromisse finden und den Mündlichkeitsgrundsatz mit Augenmaß beschneiden.38 Ähnlich wie auch der Strafbefehl lediglich auf einer beschränkten, schriftlichen Grund­ lage ergeht und der in ihm kolportierten Tatsachen- und Schuldfeststellung „nicht die volle richterliche Überzeugung nach § 261 [StPO] zugrunde liegt“,39 scheint es für einen algorithmischen Entscheidungsvorschlag ver­ zichtbar, wenn dieser nicht alle (mündlichen) Informationen verarbeitet und berücksichtigt, wenn und weil erst der Richter die gerichtliche Entscheidung trifft. In Anlehnung an § 128 Abs. 2 S. 1 ZPO („mit Zustimmung der Parteien“) scheint auch ein Wahlrecht des bzw. der Prozessbeteiligten denkbar, ob sie mit einer algorithmischen Entscheidungsunterstützung einverstanden sind, die lediglich schriftliche (oder verschriftlichte) Informationen einfließen las­ sen kann. bb) Unterschriften der Berufsrichter Die obligatorischen Unterschriften der Berufsrichter, die an einer gericht­ lichen Entscheidung mitgewirkt haben (vgl. etwa § 275 Abs. 2 StPO; § 315 Abs. 1 S. 1 ZPO), sollten auch beim Einsatz entscheidungsunterstützender Algorithmen bestehen bleiben, um auch nach außen zu verdeutlichen, dass (allein) die Richter entscheidungsbefugt bleiben und für die gerichtliche Ent­ scheidung verantwortlich zeichnen. b) Bewertung und Nachjustierung Einmal implementiert, wäre es kein Selbstläufer, algorithmenbasierte As­ sistenzsysteme gewinnbringend zu nutzen. Die damit betrauten Stellen müs­ sen – einer Aufsichtsperson gleich – die Entwicklung der Systeme fortlaufend kritisch prüfen, regelmäßig bewerten und sie ggf. nachjustieren. Das schließt u. a. mit ein, die Datenbasis, mit der die Systeme arbeiten, auf inhaltliche Richtigkeit zu prüfen. Denkbar sind auch obligatorische Risikomanagement­ systeme (vgl. für das Besteuerungsverfahren § 88 Abs. 5 AO), die jene Ent­ scheidungsvorschläge besonders kennzeichnen, die deutlich vom jeweiligen Durchschnittsfall abweichen. Erforderlich ist außerdem ein Monitoring von 38  Die Verfahrensgrundsätze beschreiben die gerichtlichen Verfahren und tragen zu deren Rechtsstaatlichkeit und Fairness bei; es besteht jedoch keine Verpflichtung des Staates, sämtliche Verfahrensvorschriften um die starren Prozessmaximen herum zu konzipieren. 39  Meyer-Goßner, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62.  Aufl., 2019, Vorb zu §§ 407 ff., Rn. 2.



II. Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen369

Rechtsänderungen; neue Vorschriften sind unmittelbar in den algorithmischen Workflow einzubinden. Insbesondere lernende Systeme sind in regelmäßigen Abständen auf Ver­ zerrungen (Biases) hin zu prüfen, ggf. sind die Anwender zu warnen. In Be­ tracht kommen auch gesonderte Testläufe, um zu kontrollieren, ob die Algo­ rithmen in diskriminierender Weise (indirekt) an solche Merkmale anknüpfen, die Art. 3 Abs. 3 GG als grundsätzlich entscheidungsunerheblich postuliert (etwa Alter, Geschlecht oder politische Anschauungen).40 Erste Ansätze dazu (in freilich anderem Anwendungskontext) sind in Sichtweite.41 c) IT-Sicherheit Schlecht gesicherten informationstechnischen Systemen wohnt erhebliches Missbrauchspotenzial inne: Sie gefährden sowohl Persönlichkeitsrechte der Verfahrensbeteiligten als auch (etwa über gefälschte Beweismittel o. Ä.) die Funktionstüchtigkeit der Rechtsprechung sowie die materiell-rechtliche Rich­ tigkeit der gerichtlichen Entscheidungen. Zu einem verantwortungsbewussten und verhältnismäßigen Algorithmeneinsatz gehört es daher, unter Berück­ sichtigung des Stands der Technik ein besonderes Augenmerk auf Daten- und IT-Sicherheit zu legen (vgl. auch Art. 29 JI-RL; Art. 32, 24, 25 DSGVO). Die allgemeine Pflicht zur Sicherung informationstechnischer Systeme ergibt sich, zumindest soweit die öffentliche Verwaltung neue informationstechni­ sche Anwendungen implementiert, indirekt auch aus der Verfassung (Art. 91c Abs. 2 S. 1 GG);42 für den Justizbereich kann nichts grundsätzlich Abwei­ chendes gelten.43 40  Zugleich kann es aber die Genauigkeit bzw. Aussagekraft der algorithmischen Ergebnisse schmälern, wenn die Systeme weniger Variablen einfließen lassen (dür­ fen). Vgl. dazu oben S. 257 f. 41  Etwa das „AI Fairness Tool“ von Accenture: Ein Frühwarnsystem für algorith­ mische Diskriminierungen soll Wechselwirkungen zwischen den verwendeten Variab­ len beobachten und bewerten, vgl. dazu etwa Lomas, Accenture wants to beat unfair AI with a professional toolkit, TechCrunch vom 9.6.2018. 42  Djeffal, DVBl 2017, 808 (812). Vgl. ergänzend § 13 Abs. 7 TMG und § 109 TKG. 43  Vgl. auch Vogelgesang, jM 2018, 2 (4 ff.), die konkrete Probleme, bspw. Ein­ fallstore für Angriffe, sowie Maßnahmen zur Risikominimierung benennt. Siehe zum möglichen Konflikt zwischen IT-Sicherheit und der richterlichen Unabhängigkeit (im Fall der Nutzung privater Mobilgeräte) Krüger/Möllers et al., Richterliche Unabhän­ gigkeit und Bring Your Own Device, in: Schweighofer/Kummer/Hötzendorfer et al. (Hrsg.), IRIS 2017 Tagungsband, 2017, S. 295 (297 ff.); in Fragen der IT-Sicherheit sind Richter grundsätzlich nicht weisungsfrei. Fragen der IT-Sicherheit können hier aber keine nähere Erläuterung finden. Siehe aus Sicht des europäischen Normgebers noch Europäisches Parlament, Understanding algorithmic decision-making: Opportu­

370

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

d) Lex ferenda und Gestaltungsvorschläge aa) Mut zum Normativen In der rechtswissenschaftlichen Literatur finden sich bereits vielgestaltige Entwürfe und Vorschläge für die Kontrolle solcher Algorithmen, die in po­ tenziell grundrechtlich sensiblen Bereichen zum Einsatz kommen.44 In der Diskussion stehen insbesondere Begründungspflichten, Kennzeichnungs­ pflichten, (weitere) aufsichtsrechtliche Kontrollmöglichkeiten, eine Pflicht zur Implementierung von Risikomanagementsystemen und zur Risikoabwä­ gung, Möglichkeiten der Selbstregulierung, wettbewerbsrechtliche Abmahn­ befugnisse, spezialisierte Schiedsstellen sowie weitreichende Transparenz­ pflichten – idealerweise jeweils normiert auf unionaler, nicht lediglich natio­ naler Ebene. Anders als bspw. die Europäische Kommission für die Effizienz der Justiz oder die Initiative „Charta der Digitalen Grundrechte der Europäischen Union“45 scheint die Bundesregierung für den Themenkomplex „Automati­ nities and challenges, 2019, S. 31 ff.: Vor dem Praxiseinsatz algorithmenbasierter As­ sistenzsysteme kommen etwa öffentliche Hacking-Tests (Intrusionstests) in Betracht, um die Belastbarkeit und Widerstandsfähigkeit bei Angriffen sicherzustellen. 44  Siehe nur die aktuellen Vorschläge für ein Bündel an Regulierungsinstrumen­ ten bei Martini, JZ 2017, 1017 (1019 ff.); Martini, Blackbox Algorithmus, 2019, S.  157 ff.; The Law Society of England and Wales, Algorithms in the Criminal Justice System, Juni 2019, S. 5 ff. Vgl. auch Borges/Grabmair et al., Algorithmische Ent­ scheidungsverfahren, 2018, S. 132 ff., sowie Bull, Der Staat 58 (2019), 57 (80 ff.). 45  Die sog. Digitalcharta (vgl. nur die Onlinepräsenz unter https://digitalcharta. eu/) ist eine Initiative von (deutschen) Politikern, Wissenschaftlern, Aktivisten, Schriftstellern und Journalisten, die eine allgemeine und rechtlich verbindliche schriftliche Fixierung von Grundrechten in der digitalen Welt auf europäischer Ebene fordern. In dem Entwurf (Fassung von 2018) heißt es in Art. 5 („Automatisierte Sys­ teme und Entscheidungen“): „Ethisch-normative Prinzipien dürfen nur vom Men­ schen aufgestellt, und Entscheidungen, die in Grundrechte eingreifen, nur von Men­ schen getroffen werden. Automatisierte Entscheidungen müssen von natürlichen oder juristischen Personen verantwortet werden. Die Kriterien automatisierter Entschei­ dungen, etwa bei Profilbildung, sind offenzulegen. Wer einer automatisierten Ent­ scheidung von erheblicher Bedeutung für seine Lebensführung unterworfen ist, hat Anspruch auf unabhängige Überprüfung durch Menschen. Entscheidungen über Le­ ben, körperliche Unversehrtheit und Freiheitsentzug dürfen nur von Menschen getrof­ fen werden. Der Einsatz von künstlicher Intelligenz und Robotik in grundrechtsrele­ vanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.“ Über die oben (S. 260 ff.) dargestellten bestehenden verfassungsrechtlichen Direktiven geht eine solche Charta normativ-inhaltlich nicht hinaus. Kritisch zur sog. Digitalcharta auch Golla, In Würde vor Ampel und Algorithmus, in: Donath/Brett­ hauer/Dickel-Görig (Hrsg.), Verfassungen – ihre Rolle im Wandel der Zeit, 2019, S. 177 (186 ff.). Auch die CEPEJ nennt essentielle Prinzipien für den Einsatz von Künstlicher Intelligenz in der Justiz, vgl. Europarat/Europäische Kommission für die



II. Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen371

sierung in der Justiz“ (noch) keinen gesetzgeberischen Handlungsbedarf zu sehen. Eine Kleine Anfrage konfrontierte sie mit der in die Zukunft gerichte­ ten Fragestellung: „Nach welchem Rechtsrahmen werden zukünftig autonom handelnde, aber humanistisch trainierte Algorithmen beurteilt, wenn die Grenzen zwischen selbst lernenden Maschinen und human soziologisch kon­ ventionellem Verhalten durch gesellschaftlich akzeptierte Verhaltensmuster und Daten verschwimmen? Wie wird die Bundesregierung mit dem Span­ nungsverhältnis zwischen Urteilsschlüssen in der Rechtsprechung und den Wahrscheinlichkeitsurteilen dieser Algorithmen umgehen?“46. Die Bundes­ regierung antwortete hierauf knapp, ihr lägen „keine Anhaltspunkte dafür vor, dass ‚autonom handelnde, aber humanistisch trainierte Algorithmen‘ derzeit oder künftig bei der Entscheidungsfindung staatlicher Gerichte zum Einsatz kommen könnten“47. Debatten zur Digitalisierung und Automatisierung sind oft durchzogen von einer Art „Technikdeterminismus“, der die technologische Entwicklung als gegeben und unabänderlich ansieht.48 Der Rechtswissenschaft kommt aber eine gewichtige Aufgabe zu: Das Recht verfügt über Möglichkeiten der Steu­ erung; mit Hilfe des Rechts lässt sich technischer Fortschritt in gesellschaft­ lich gewünschte und verfassungsrechtlich erlaubte Bahnen lenken.49 Mit wachsender Leistungsfähigkeit informationstechnischer Systeme erweitern sich auch deren potenzielle Einsatzmöglichkeiten für die hoheitliche Ent­ scheidungsfindung: Sogar für manche Entscheide, die Komponenten der Beurteilung und Wertung enthalten und für die bislang eine originär mensch­ liche Denkleistung notwendig war und ist, steht zu erwarten, dass Maschinen sie mittelfristig in rein tatsächlich-technischer Hinsicht mindestens ebenso gut treffen können. Das konfrontiert den Staat mit der Frage, ob er in be­ stimmten Bereichen – etwa in der Gefahren- oder Katastrophenabwehr – im Einzelfall nicht sogar verpflichtet sein kann, auf solche Systeme zu setzen und deren Entscheidungen anzuerkennen oder jedenfalls zu nutzen. So ist bspw. eine Software denkbar, die sich in der Einschätzung, ob die Demonst­ ration einer politischen Gruppierung einen gewalttätigen Verlauf nimmt oder nicht, als deutlich präziser und zuverlässiger erweist als die Prognosen der Effizienz der Justiz (CEPEJ), Ethical Charter on the Use of AI, 2018, S. 7, im Einzel­ nen 8 ff. Unverrückbar und zwingend sind hiernach das Prinzip der Achtung der Grund- und Menschenrechte, das Prinzip der Nicht-Diskriminierung, das Prinzip der Qualität und Sicherheit, das Prinzip der Transparenz, Unparteilichkeit und Fairness, sowie das Prinzip der Nutzerkontrolle bzw. der Informiertheit des Anwenders. 46  BT-Drs. 19/3225, S. 4. 47  BT-Drs. 19/3714, S. 7 (Hervorhebungen nicht im Original). 48  Vgl. Lenk, Verwaltung und Management 22 (2016), 227 (227 f.); die Theorie hinter diesem Begriff kann allerdings als widerlegt gelten. 49  Ähnlich Bull, Der Staat 58 (2019), 57 (57 ff., 80 ff.).

372

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

behördlichen Entscheidungsträger. Die maschinelle Vorhersage könnte dann etwa ungerechtfertigte Versammlungsverbote (vgl. § 5 VersG) verhindern und somit das Grundrecht auf Versammlungsfreiheit (Art. 8 GG) und andere Rechtsgüter schützen; bereits aus Art. 1 Abs. 3 GG ist der Staat verpflichtet, den Grundrechten möglichst umfassende Geltung zu verschaffen. Ob teilweise oder vollständig automatisiert – in absehbarer Zeit werden Algorithmen und algorithmenbasierte Systeme immer mehr und auch rechts­ relevante Entscheidungen treffen. Es ist nicht zu erwarten, dass diese Ent­ wicklung, die unter dem Stichwort Smart Government als Entscheidungen der Verwaltung längst den öffentlichen Sektor erfasst hat, vor der Dritten Staatsgewalt vollständig stoppen wird. bb) Plädoyer für eine frühzeitige Grenzziehung – Garantie der menschlichen Entscheidung Das Ziel des Rechts sollte nicht sein, (lediglich) eine bestimmte Technolo­ gie und ihre Prozesse zu regulieren, sondern dasjenige normativ einzuhegen, was Menschen damit zu tun im Stande sind.50 Eine normative Grenzzie­ hung sollte also technikneutral sein. Denn das Recht fokussiert grundsätzlich den sozialen Kontext zu regelnder Lebenssachverhalte; rechtliche Prinzipien gelten in erster Linie für die sozialen Situationen, in denen ein automatischer Prozess integriert ist. Das Ausmaß, welcher Einfluss Maschinen in der ho­ heitlichen Entscheidungsfindung zustehen sollte und darf, ist nicht in Stein gemeißelt; das Recht selbst unterliegt stetigem Wandel. In jedem Fall jedoch ist zu erwägen, ausdrücklich gesetzlich zu garantieren, dass für gerichtliche Entscheidungen ausnahmslos ein menschlicher Richter verantwortlich zeich­ net. Jede rechtsprechende Letztentscheidung sollte menschlich sein. Ein „Richterautomat“ ist – jenseits der technischen Realisierbarkeit und der ge­ sellschaftlichen Akzeptanz – trotz möglicher Vorzüge kein dem Wohle der Gesellschaft dienendes Ziel: Rechtsprechung ist immer auch Interpretation menschlichen Lebens, definiert durch ein gewisses Selbstverständnis und abhängig vom Vertrauen der Bürger in das Rechtssystem. Dieses gestaltende und formende Element – richterliche Tätigkeit verstanden (auch) als Schaf­ fensprozess – nicht Maschinen zu überlassen, sollte zumindest einfachgesetz­ lich normativ verankert sein. 50  Jaume-Palasí, Warum Sie keine Angst vor Künstlicher Intelligenz haben soll­ ten, 27.4.2018; ähnlich („sozio-informatisches Gesamtsystem“) auch Zweig, Algorith­ mische Entscheidungen: Transparenz und Kontrolle, Januar 2019, S. 9 ff.; vgl. auch Mohabbat Kar/Parycek, Algorithmen als Ordnungs- und Steuerungsinstrumente, in: Mohabbat Kar/Thapa/Parycek et al. (Hrsg.), Algorithmen und Automatisierung, 2018, S. 7 (33 f.). Siehe auch das Fazit bei Fries, NJW 2016, 2860 (2865).



II. Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen373

cc) Weitere allgemeine Vorschläge und Vorgaben Wie ein Assistenzsystem im Detail auszugestalten ist, hängt vom konkre­ ten Einsatzszenario ab. Dennoch lassen sich einige allgemeine Vorschläge und Vorgaben als Agenda skizzieren: – Einem Dauerbetrieb entscheidungsunterstützender Systeme in der Justiz müssten umfassende, interdisziplinär-wissenschaftlich begleitete Testläufe vorausgehen. – Unabdingbar wären umfassende Gesetzesfolgenabschätzungen,51 insbe­ sondere als fokussierte Technik- sowie Datenschutzfolgenabschätzungen52. Die prospektiven Abschätzungen sollten auf das konkrete jeweilige Ein­ satzfeld zugeschnitten sein und – zur Erhöhung von Transparenz und Ak­ zeptanz – veröffentlicht werden. – Um die normativ gebotene Bindung an das Gesetz sowie die Ergebnisqua­ lität sicherzustellen, könnten (deutsche) Zertifizierungen das Mittel der Wahl sein.53 – Hinsichtlich der Nachvollziehbarkeit und der Kette demokratischer Legiti­ mation kommt eine Klarstellung im GVG in Betracht, wonach Richter für Rechtsprechungsaufgaben – also im Kernbereich justizieller Tätigkeit – informationstechnische Systeme nur insoweit zur Unterstützung einsetzen dürfen, wie sie die Funktionsweise, die Entscheidungsparameter und deren Gewichtung kennen und verstehen.54 Daneben sind auch Open-SourceLizenzierungen sowie Einsichtsrechte, etwa der Verteidigung, in den Quellcode denkbar.55 51  Vgl. (zur Verwaltungsmodernisierung) auch das Plädoyer bei Ahrendt, NJW 2017, 537 (537 ff.). 52  Vgl. zu deren Sinn und Zweck Martini, in: Paal/Pauly (Hrsg.), DS-GVO, 2. Aufl., 2018, Art. 35 DSGVO, Rn. 6 ff.; siehe auch die Vorschläge für eine inhaltli­ che Erweiterung der Folgenabschätzung für algorithmenbasierte Entscheidungssys­ teme bei Martini, Blackbox Algorithmus, 2019, S. 209 f. 53  Dabei sind allerdings reine Ex-ante-Prüfungen mit Blick auf die Weiterent­ wicklung und den dynamischen, wandelbaren Entscheidungsprozess insbesondere lernender Systeme nur einer von mehreren denkbaren Kontrollpunkten. Sachgerecht erscheint zusätzlich eine fortlaufende Auditierung der Systeme über deren gesamten Lebenszyklus hinweg, vgl. Martini, Blackbox Algorithmus, 2019, S. 323 f. Dieser Aufgaben könnte sich bspw. eine interdisziplinär besetzte Expertenkommission an­ nehmen; vgl. die Vorschläge im Bereich der Strafzumessung unten S. 402 ff. sowie zum Erreichen von Rechtskonformität insgesamt unten S. 422 ff. 54  Vgl. auch Fries, RW 2018, 414 (428); siehe zu Anforderungen an die demokra­ tische Legitimation oben S. 321 ff., zu Transparenz und Nachvollziehbarkeit oben S. 331 ff.  55  So für algorithmisch generierte Beweismittel, etwa mit Big-Data-Techniken operierende DNA-Auswertungen, Chessman, California Law Review 105 (2017), 179 (223 ff.); Mysegades, CR 2018, 225 (230 f.).

374

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

– Fehler in der Datenbasis oder im maschinellen Prognoseprozess könnte der Gesetzgeber – je nach Einsatzbereich56 – im jeweiligen Verfahrens­ recht als Revisionsgrund verankern. Denn der algorithmische Entschei­ dungsvorschlag wäre Teil des gerichtlichen Entscheidungsprozesses.57 – Der Staat wäre zu einer fortwährenden Fehlerkontrolle verpflichtet. Neben der Implementierung von Risikomanagementsystemen kann ergänzend auch eine Stichprobenpflicht sinnvoll sein, um Fehler im Entscheidungs­ unterstützungssystem möglichst frühzeitig zu identifizieren und auszubes­ sern. Steht die Qualität und korrekte Arbeitsweise eines Systems im be­ rechtigten Zweifel, sollten Entscheider dieses nicht weiter nutzen (dürfen).58 – Auch die möglichen Implikationen einer (teil-)automatisierten Entschei­ dungsfindung auf das Staatshaftungsrecht lohnen ggf. der gesetzgeberi­ schen Klarstellung. So lässt sich bspw. fragen, ob einem Verwaltungsbe­ amten eine Amtspflichtverletzung vorzuwerfen ist, wenn er eine Entschei­ dung trifft, die Erkenntnissen aus smart-algorithmisch ermittelten Wahr­ scheinlichkeitsprognosen widerspricht.59 Das könnte dazu führen, dass bereits die Existenz eines maschinellen Vorschlags den Handlungsspiel­ raum des Beamten einschränkte – etwa wenn ein „Zuwiderentscheiden“ gegen den Algorithmus ein „Außerachtlassen der im Verkehr erforderli­ chen Sorgfalt“ bedeuten (§ 276 Abs. 2 BGB) und damit u. U. eine Fahrläs­ sigkeitshaftung auslösen kann. Die Frage stellt sich wegen des Richter­ spruchprivilegs gem. § 839 Abs. 2 BGB für die Justiz nicht in identischer Weise. Es wäre aber auch vor diesem Hintergrund ein gesetzgeberisches 56  Vgl.

oben S. 363 ff. dahinstehen muss, ob es im Vergleich mit den jeweils normierten absoluten Revisionsgründen (vgl. etwa § 338 StPO, § 547 ZPO) ausreichend wäre, den Revisionsgrund als relativ auszugestalten, sodass die gerichtliche (End-)Entscheidung auf dem maschinellen Fehler beruhen müsste. Das Kriterium der Entscheidungser­ heblichkeit findet sich auch im Fehlerfolgenregime des allgemeinen Verwaltungs­ rechts, vgl. § 46 VwVfG. 58  Daneben kann es sich als sinnvoll erweisen, Gerichte, die sich entscheidungs­ unterstützender Systeme bedienen, zu verpflichten, eine Art Aktuar (vgl. etwa § 141 Abs. 5 VAG) bzw. einen Datenanalysespezialisten zu bestellen, der insbesondere Kenntnisse der Statistik, Mathematik und Informatik vorweisen kann. Dieser wäre gerichtsintern für die Fehlerkontrolle zuständig und könnte möglichst frühzeitig auch etwaige Fehler in der Entscheidungsstruktur identifizieren. Vgl. zu diesem Vorschlag (ohne Fokus auf den staatlichen Algorithmeneinsatz) Martini, Blackbox Algorithmus, 2019, S.  267 f. 59  Vgl. für das Verwaltungsverfahrensrecht Fadavian, Rechtswissenschaftliche Aspekte von Smart Government, in: Lucke (Hrsg.), Smart Government, 2016, S. 113 (129). Siehe ergänzend auch die Skizze für Vorgaben eines Assistenzsystems in der Verwaltung (Vorgangsbearbeitungssystem) bei Laue, Vorgangsbearbeitungssys­ teme der Verwaltung, 2010, S. 129 ff. 57  Hier



III. Entscheidungsunterstützende Systeme im Strafverfahren375

Bekenntnis empfehlenswert, wonach die Letztentscheidung immer bei ei­ nem Menschen verbleibt – was impliziert, dass dieser die algorithmisch ermittelten Vorschläge nicht lediglich „abnicken“ darf und ihm kein Nach­ teil (keine Haftung etc.) droht, wenn er hiervon abweicht.60 Sind damit die grundsätzlichen, allgemeinen Kontrollmöglichkeiten für eine algorithmenbasierte Entscheidungsunterstützung in der Rechtsprechung skizziert, soll der Blick nunmehr auf konkrete Einsatzszenarien fallen.

III. Entscheidungsunterstützende Systeme im Strafverfahren nach US-amerikanischem Vorbild? Ein Beispiel für den Einsatz entscheidungsunterstützender Systeme in der Justiz, das bereits einige (mediale) Aufmerksamkeit auf sich gezogen hat, bietet der Strafprozess in den Vereinigten Staaten. Die dortige Motivation zur Algorithmennutzung hat mehrere Komponenten: Die Gefängnisse in den USA sind massiv überlastet. Die Staatskassen leiden unter einer der weltweit höchsten Inhaftierungsraten.61 Zudem bescheinigen Journalisten und Wis­ senschaftler dem US-amerikanischen Justizsystem nach wie vor ein Rassis­ mus-Problem.62 60  In diesem Zusammenhang wären auch die Implikationen auf die jeweiligen Tatbestände zur Besorgnis der Befangenheit mitzudenken. Diese besteht immer dann, wenn ein Grund vorliegt, der geeignet ist, Misstrauen gegen die Unparteilichkeit des Richters zu rechtfertigen (vgl. nur § 24 Abs. 2 StPO). Misstrauen in die Unparteilich­ keit des Richters ist dann gerechtfertigt, wenn der Ablehnende bei vernünftiger Wür­ digung aller Umstände Grund zu der Annahme hat, dass der abgelehnte Richter ihm gegenüber eine innere Haltung einnimmt, die seine Unparteilichkeit und Unvoreinge­ nommenheit störend beeinflussen kann, vgl. OLG Bamberg, NJW 2006, 2341 (2342). Dies ist grundsätzlich vom Standpunkt des Ablehnenden aus zu beurteilen, vgl. Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, § 24, Rn. 6. Es ist daher irrelevant, ob der Richter tatsächlich befangen oder parteiisch ist (vgl. BVerfGE 20, 9 (14); BGHSt 24, 336 (338)) bzw. ob er sich selbst für befangen hält. Im vorlie­ genden Kontext stellt sich die Frage, ob der Richter noch unvoreingenommen ist, nachdem er einen algorithmisch generierten Entscheidungsvorschlag zur Kenntnis genommen hat. 61  Vgl. Human Rights Watch, Nation Behind Bars, 2014, S. 3 ff. Rund ein Viertel aller Häftlinge weltweit sitzt in US-amerikanischen Gefängniszellen – bei knapp über 320 Mio. Einwohnern (Erdbevölkerung laut UNO: 7,6 Mrd. im Oktober 2018). Das umsatzstarke Geschäftsmodell privatwirtschaftlich betriebener Gefängnisse ist dabei nur einer von vielen Einflussfaktoren der hohen Inhaftierungsrate, vgl. zu einem ent­ sprechenden Kausalzusammenhang etwa Dippel/Poyker, Do Private Prisons Affect Criminal Sentencing?, 2019. 62  Vgl. etwa Moll, Präzise berechneter Rassismus, ZEIT Online vom 6.6.2016; Demuth/Steffensmeier, Social Problems 51 (2004), 222 (222 ff., insbesondere 230 ff.); Starr/Rehavi, Journal of Political Economy 122 (2014), 1320 (1320 ff., insbesondere 1334 ff.); siehe auch bereits oben S. 76 ff.

376

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Naheliegend und verlockend schien da die (Er-)Lösung durch Technik: Algorithmen als vermeintlich rationale, diskriminierungsfreie Akteure, wel­ che die Strafjustiz entschlacken und schnellere, gerechtere Entscheidungen ermöglichen. Auf diese Weise gedachte man, Gerichte zu entlasten und für die Gesellschaft ungefährliche Verurteilte auf Distanz zum Justizvollzug zu halten. Den expliziten Vorschlag dazu sprach (ausgerechnet) die Bür­ gerrechtsvereinigung ACLU (American Civil Liberties Union) in einer Empfehlung zur Strafrechtsreform 2011 aus.63 Ziel dieser Empfehlung war – neben einer Senkung der Inhaftiertenrate – ausdrücklich, rassistische Tendenzen und Auswirkungen des Justizsystems zu minimieren bzw. zu verhindern.64 Die Bestrebung, insbesondere die Beweisführung in Ge­ richtsverfahren zu verwissenschaftlichen, bestand und besteht aber auch von offizieller Seite.65 1. Modell einer Risikobewertung – der COMPAS-Algorithmus a) Konkreter Einsatz und Funktionsweise In Pennsylvania, Wisconsin und anderen US-Bundesstaaten kommen seit einigen Jahren sog. Risikobewertungstools (risk assessment) zur Anwendung; mehr als 60 verschiedene sind in den 50 Bundesstaaten im Einsatz.66 Das hierzulande bekannteste ist die algorithmenbasierte Risikobewertungssoft­ ware COMPAS (Correctional Offender Management Profiling for Alternative 63  Vgl.

S. 9.

American Civil Liberties Union, Smart Reform is Possible, August 2011,

64  American Civil Liberties Union, Smart Reform is Possible, August 2011, S. 5 ff., insbesondere 9. Siehe ergänzend Simonite, How to Upgrade Judges with Ma­ chine Learning, MIT Technology Review vom 6.3.2017, der ausdrücklich die poten­ ziellen Vorteile hervorhebt, sowie Kleinberg/Lakkaraju et al., The Quarterly Journal of Economics 133 (2018), 237 (238 ff.). 65  Vgl. Committee on Science, Technology, and Law/Federal Judicial Center et al., Reference Manual on Scientific Evidence, 3. Aufl., 2011, S. 11 ff. Das Manual enthält u. a. Vorgaben und Empfehlungen zum Umgang mit statistischen, medizini­ schen, toxikologischen und neurowissenschaftlichen Befunden. 66  Vgl. die Übersicht bei Monahan/Skeem, Annual Review of Clinical Psycho­ logy 12 (2016), 489 (490 ff.); Barry-Jester/Casselman et al., The New Science of Sentencing, https://www.themarshallproject.org/2015/08/04/the-new-science-of-sen­ tencing#.QdtVLuLD5 (10.6.2020); vgl. auch Lischka/Klingel, Wenn Maschinen Men­ schen bewerten, 2017, S. 5; O’Neil, Angriff der Algorithmen, 2017, S. 38 ff.; Kramer, An Algorithm Is Replacing Bail Hearings in New Jersey, Motherboard.vice.com vom 23.2.2017. Siehe ergänzend zu aktuellen Entwicklungen in Europa Europarat/Europäische Kommission für die Effizienz der Justiz (CEPEJ), Ethical Charter on the Use of AI, 2018, S. 16 ff., 39 ff.



III. Entscheidungsunterstützende Systeme im Strafverfahren377

Sanctions).67 Bisher hat der COMPAS-Algorithmus weit mehr als eine Mil­ lion Menschen bewertet.68 Die Tools berechnen mit Hilfe von Algorithmen einen Score, der insbesondere die Wahrscheinlichkeit einer erneuten Straffäl­ ligkeit (risk of recidivism) oder einer erneuten Straffälligkeit unter Einsatz von Gewalt (risk of violent recidivism) voraussagen soll. Gerichte und Be­ hörden nutzen COMPAS auf Basis dieser Wahrscheinlichkeit für die drei Fragen, ob eine Untersuchungshaft vor dem Hauptverfahren anzuordnen ist (entspricht etwa der Frage nach einem Haftgrund, § 112 Abs. 2, § 112a StPO), wie hoch (nach Feststellung der Schuld) eine zu verhängende Frei­ heitsstrafe ausfällt (entspricht der Strafzumessung, § 46 StGB), sowie ob eine vorzeitige Haftentlassung angemessen ist (entspricht der Strafrestausset­ zung, §§ 57, 57a StGB).69 Für seine Risikoprognosen (sog. predictive analytics) nutzt der Algorith­ mus zum einen die behördlich bereits verfügbaren Daten über den Beschul­ digten bzw. Angeklagten70, z. B. Einträge im Strafregister und sonstige po­ lizeiliche Daten. Die Grundlage bilden Gerichtsakten oder Unterlagen der Justizvollzugsanstalten, sowohl über automatisierte Datenbankabfragen wie auch über Erhebungen durch die Justizmitarbeiter (sog. pre-sentence investigations). Andererseits nutzt das System auch Informationen aus einem Fragebogen, den die Person bspw. mit dem Bewährungshelfer ausfüllt. Daraus folgert der Algorithmus einen Risikoscore bzw. die Einteilung in eine von drei Risiko­ gruppen. Über den Fragebogen gelangen neben eigenen Vorstrafen auch eventuelle Vorstrafen naher Verwandter wie Eltern und Geschwister, Er­ kenntnisse über Alkohol- oder Drogenmissbrauch in der Familie, Schulden, soziale Bindungen, Umgang mit „anti-sozialen“ Bekannten oder häufige Wohnort- oder Beschäftigungswechsel ebenso in die Datengrundlage wie Tendenzen zu Wut oder Aggression und Moral („Andere Menschen betrach­ ten mich als gefühllos und kalt“; „Wenn Reiche bestohlen werden, schadet 67  Vgl. etwa den Webauftritt des Wisconsin Department of Corrections (DOC) für den COMPAS-Einsatz im Bundesstaat Wisconsin, https://doc.wi.gov/Pages/About DOC/COMPAS.aspx. 68  Stöcker, Menschen sind so schlau wie die teure Maschine, Spiegel Online vom 28.1.2018. Den Algorithmus entwickelt hat das (privatwirtschaftliche) Unterneh­ men Northpointe (mittlerweile equivant). 69  Daneben assistiert COMPAS auch bei der Entscheidung über die Sicherheits­ leistung (Kaution) sowie einzelne Resozialisierungsmaßnahmen, etwa Aufenthalte in Entzugskliniken, Anti-Gewalt-Trainings usw. 70  Im deutschen Recht richtet sich die Terminologie nach dem Stand des Verfah­ rens (vgl. § 157 SPO): Beschuldigter (Ermittlungsverfahren), Angeschuldigter (An­ klageerhebung), Angeklagter (Eröffnung des Hauptverfahrens) und (evtl.) Verurteilter (strafrechtliches Urteil).

378

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

ihnen das nicht, weil die Versicherung zahlt.“).71 Der Fragenkatalog, der auch eine „kognitive Verhaltensprognose“ beinhaltet, ist breit gefächert („Wie oft sind Sie in den vergangenen zwölf Monaten umgezogen?“; „Wie viele Ihrer Freunde und Bekannten sind schon einmal verhaftet worden?“); manche Fragen wirken prima facie gar absurd („Langweilen Sie sich …?“ bzw. „Wie oft ist Ihnen langweilig?“).72 Der Algorithmus bewertet jedoch die Antworten nicht unmittelbar: Er wer­ tet lediglich Daten aus und folgt seiner stochastischen Logik. So bewertet er bspw. nicht einzeln die Antwort auf die Frage „Darf man einen Apfel stehlen, wenn man Hunger hat?“, sondern er vergleicht, ob die Antworten des Betrof­ fenen den Antworten solcher Personen entsprechen, die wieder straffällig geworden sind. Anhand von über 130 Einzelmerkmalen errechnet der Algo­ rithmus das Risiko, mit dem ein Straftäter rückfällig wird. Den algorithmisch erzeugten Risikoscore an der Hand, entscheiden dann Richter über die Inhaf­ tierung, die Strafhöhe oder die Straf(rest)aussetzung zur Bewährung. b) Zulässigkeit (nach US-Recht) Die grundsätzliche Zulässigkeit der algorithmenbasierten Entscheidungs­ unterstützung insgesamt und des COMPAS-Algorithmus im Besonderen hat der Wisconsin Supreme Court – nicht ohne Kritik auszulösen73 – bestätigt.74 Der Umfang des zulässigen Einsatzes ist aber begrenzt: Das Risk-assessmentTool darf nicht allein bzw. als einziger Faktor über die (Bewährungs-)Ent­ scheidung bestimmen. Der entscheidende Richter muss zudem einen algo­ rithmisch ermittelten Score auch ignorieren dürfen. Zudem sollte das Gericht immer über die Tatsache informieren, dass algorithmische Risikoprognosein­ strumente zum Einsatz kommen. Der Kläger, also der im Ausgangsverfahren Verurteilte, wollte das Urteil des Wisconsin Supreme Court vor dem Supreme Court of the United States, dem Obersten Gerichtshof der Vereinigten Staaten, anfechten und von die­ sem aufheben lassen mit der Begründung, sein Recht auf ein ordnungsgemä­ 71  Vgl. auch Smith, A Case Is Putting the Use of Data to Predict Defendants’ Futures on Trial, The New York Times vom 23.6.2016, S. A18. 72  Ein Original-Fragebogen ist online einsehbar unter https://www.document cloud.org/documents/2702103-Sample-Risk-Assessment-COMPAS-CORE.html. 73  Vgl. etwa die Entscheidungsanmerkung des Non-Profit-Newsdesk ProPublica bei Kirchner, Wisconsin Court: Warning Labels Are Needed for Scores Rating Defen­ dants’ Risk of Future Crime, 14.7.2016. 74  Supreme Court of Wisconsin, Urt. v. 13.7.2016, 2015AP157-CR, 2016 WI 68 (State of Wisconsin vs. Eric Loomis). Vgl. auch den behördlichen Final Report zu den Risk-assessment-Tools v. 15.6.2016, abrufbar unter http://www.pacourts.us/assets/ opinions/Supreme/out/475crim-rpt.pdf.



III. Entscheidungsunterstützende Systeme im Strafverfahren379

ßes Verfahren sei verletzt worden; der Oberste Gerichtshof lehnte die Be­ handlung des Falles aber ab.75 c) Fragliche Wirksamkeit Zur Wirksamkeit der eingesetzten Risk-assessment-Tools bietet sich eine unübersichtliche Datenlage.76 So konnten die Gerichte und Behörden bspw. in Pennsylvania Erfolge verzeichnen, insbesondere in Form gesunkener In­ haftierungsraten; es lässt sich jedoch nicht exakt feststellen, ob diese Erfolge unmittelbar auf den Einsatz der Software zurückgehen oder auch andere Ur­ sachen haben.77 Denn der Algorithmeneinsatz ging regelmäßig mit einer umfassenden Reform der gesamten Strafrechtspflege einher, etwa einer Än­ derung der Richtlinien zur Risikoeinschätzung.78 Als Vorteile lassen sich jedenfalls eine Entlastung der Richter sowie eine durchschnittliche Beschleunigung der Verfahren auf der Habenseite verbu­ chen. Zudem ist durchaus möglich, dass die algorithmischen Prognosen rati­ onale Grundlagen für richterliche Entscheidungen liefern: Das Potenzial, etwa rassistische Tendenzen in der Strafzumessung einzudämmen, wird man den eingesetzten Risikobewertungstools nicht grundsätzlich absprechen kön­ nen.79 Für die Richter bedeutet die vermeintliche Rationalität der Algorith­ men, sofern sie den Entscheidungsvorschlägen folgen, eine gewisse systemi­ sche Absicherung. Der Mehrwert der bislang eingesetzten Systeme – beispielhaft dargestellt am COMPAS-Algorithmus – bleibt aber dennoch fraglich.80 So hat eine 75  Vgl. nur die Order List 582 des US Supreme Court, Beschl. v. 26.6.2017, S. 5, abrufbar unter https://www.supremecourt.gov/orders/courtorders/062617zor_8759. pdf. 76  Siehe etwa den Research Report von James, Risk and Needs Assessment in the Criminal Justice System, 13.10.2015, S. 1 ff., sowie die Berichte einschließlich Evaluierung zur Wirksamkeit und Statistiken auf dem offiziellen Webauftritt der Pennsylvania Commission on Sentencing, frei abrufbar unter http://pcs.la.psu.edu/ publications-and-research/research-and-evaluation-reports/risk-assessment. 77  Siehe zum Unterschied zwischen Korrelation und Kausalität bereits oben S. 168 f. 78  Barry-Jester/Casselman et al., The New Science of Sentencing, https://www. themarshallproject.org/2015/08/04/the-new-science-of-sentencing#.QdtVLuLD5 (10.6.2020). 79  Vgl. zu dieser ursprünglichen Motivation American Civil Liberties Union, Smart Reform is Possible, August 2011, S. 5 ff. 80  Kritisch etwa Starr, Sentencing, by the Numbers, The New York Times vom 11.8.2014, S. A17; Ford, The Missing Statistics of Criminal Justice, The Atlantic (Online) vom 31.5.2015.

380

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

jüngere Studie81 ergeben, dass der COMPAS-Algorithmus das Rückfallrisiko eines Straftäters kaum besser errechnet als zufällig ausgewählte Personen ohne oder mit nur geringem strafrechtlichen und kriminologischen Wissen. Die Studie basiert auf dem gleichen Datensatz, den auch die ProPublicaAutoren82 nutzten, und vergleicht die Daten und COMPAS-Werte für 7.000 Menschen, die zwischen 2013 und 2015 in einem County in Florida verhaftet worden waren. Man teilte 1.000 dieser Fälle in Gruppen von je 50 ein und legte diese den (insgesamt 400) Testpersonen zur Beurteilung vor – zufällig ausgewählten juristischen Laien. Die Teilnehmer erhielten weit weniger Informationen als der COMPAS-Algorithmus: nur Geschlecht, Alter und Informationen zur kriminellen Vorgeschichte des Angeklagten. Anschließend sollten sie erraten, ob die Person innerhalb von zwei Jahren rückfällig geworden war. Während der COMPAS-Algorithmus für die Rückfall­ wahr­ schein­ lichkeit eine Trefferquote von 65 Prozent verzeichnet, landeten die Testpersonen bei einer durchschnittlichen Trefferquote von knapp 63 Prozent; einzelne Gruppen, die die gleichen Fälle beurteilt hatten, kamen sogar auf 67 Prozent richtige Prognosen. Auch ein einfacher, für die Studie erstellter Algorithmus, der dieselben Merkmale berücksichtigte wie die menschlichen Beurteiler (Alter, Geschlecht, Straftat und Schwere der Straftat, voran­ gegangene Verurteilungen), erreichte eine Trefferquote von 66,6 Prozent. Selbst in einer weiteren Testreihe, als nur noch das Alter und die Gesamtzahl vorangegangener Verurteilungen eingespeist wurde, erreichte der simple Klassifikationsalgorithmus nur anhand dieser zwei Merkmale die gleiche Trefferquote wie COMPAS, der seine Prognosen auf 137 Merkmale stützt.83 Mittlerweile haben auch andere Wissenschaftler, namentlich IT-Ex­ perten und Juristen renommierter US-Universitäten, eigene Machine-learning-Algorithmen für Risikomodelle entwickelt, welche die Rückfallwahr­ scheinlichkeit von Straftätern mindestens ebenso präzise berechnen wie der COMPAS-Algorithmus.84

81  Dressel/Farid, Science Advances 4 (2018), 1. Dazu auch Yong, A Popular Algorithm Is No Better at Predicting Crimes Than Random People, The Atlantic (On­ line) vom 17.1.2018, sowie Stöcker, Menschen sind so schlau wie die teure Maschine, Spiegel Online vom 28.1.2018. 82  Angwin/Larson et al., Machine Bias, https://www.propublica.org/article/ma­ chine-bias-risk-assessments-in-criminal-sentencing (10.6.2020); Larson/Mattu et al., How We Analyzed the COMPAS Recidivism Algorithm, https://www.propublica.org/ article/how-we-analyzed-the-compas-recidivism-algorithm (10.6.2020). 83  Dressel/Farid, Science Advances 4 (2018), 1 (3). 84  Vgl. Ziegler, c‘t 25 (2017), 68 (69 f.).



III. Entscheidungsunterstützende Systeme im Strafverfahren381

d) Diskriminierungsrisiken und Unfairness Algorithmen arbeiten nicht per se fairer, „besser“ oder diskriminierungs­ freier als menschliche Entscheider. Die Ergebnisse hängen von der konkreten Ausgestaltung, insbesondere der Optimierung, sowie der Einbettung in den sozio-informatischen Gesamtprozess85 ab. aa) Ergebnisse einer umfassenden Datenauswertung Dennoch scheinen Ursache und Berechtigung der Kritik am COMPAS-Al­ gorithmus schnell ausgemacht: Eine Datenanalyse der Nachrichtenorganisa­ tion ProPublica hat gezeigt, dass für schwarze Angeklagte bzw. Verurteilte weitaus häufiger fälschlich ein hohes Risiko für erneute Straffälligkeit be­ rechnet bzw. angenommen wird als für weiße. Umgekehrt gibt das Tool für weiße Angeklagte öfter als für schwarze fälschlicherweise ein niedriges Ri­ siko aus.86 ProPublica verglich die Risikobewertungen des COMPAS-Sys­ tems für mehr als 10.000 verhaftete Menschen mit Daten darüber, wie oft die Personen anschließend tatsächlich wieder kriminell wurden. Das Ergebnis: Die Einstufungspraxis kann zu Diskriminierung führen. So kam es vor, dass von zwei gleichaltrigen Straftätern mit der gleichen kriminellen Vorge­ schichte, ähnlicher Sozialisation und ähnlichem Bildungsstand, die schwarze Person einen hohen Score erhielt, die weiße hingegen einen niedrigen. Auch nach US-Recht ist unmittelbare Diskriminierung verboten, die Hautfarbe darf für strafrechtliche Entscheidungen keine Rolle spielen. Die eingesetzten Ri­ sikobewertungsinstrumente sehen sich daher Vorwürfen der Unfairness und der rassistischen Diskriminierung ausgesetzt.87 85  Vgl. dazu Zweig, Algorithmische Entscheidungen: Transparenz und Kontrolle, Januar 2019, S. 9 f. 86  Larson/Mattu et al., How We Analyzed the COMPAS Recidivism Algorithm, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algo­ rithm (10.6.2020); Angwin/Larson et al., Machine Bias, https://www.propublica.org/ article/machine-bias-risk-assessments-in-criminal-sentencing (10.6.2020). Die Wahr­ scheinlichkeit, dass Schwarze als „high risk“ gekennzeichnet wurden, aber nicht wie­ der straffällig wurden, war sogar doppelt so hoch wie bei Weißen; umgekehrt stufte der Algorithmus Weiße, die anschließend wieder straffällig wurden, deutlich öfter mit einem geringen Risiko ein. Im Verfahren, das letztlich vor dem Wisconsin Supreme Court landete, verurteilte das Gericht den Angeklagten zu sechs Jahren Freiheits­ strafe – auch aufgrund der Bewertung durch den COMPAS-Algorithmus. Anders aus­ gedrückt: In den Fällen, in denen der Algorithmus richtig lag, waren keine signifikan­ ten Unterschiede zwischen den Ethnien feststellbar; lag er hingegen falsch, war er biased – zu Ungunsten von Minderheiten. 87  Vgl. neben den ProPublica-Veröffentlichungen etwa noch Skeem/Lowenkamp, Criminology 54 (2016), 680 (681 ff.); Citron, (Un)Fairness of Risk Scores in Crimi­ nal Sentencing, Forbes (Online) vom 13.7.2016. Probleme ergeben sich beim Einsatz

382

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

bb) Relativierung der Vorwürfe – verschiedene Fairnessmaßstäbe Korrelationen – die Kriminalitätsbelastung von Schwarzen und Weißen in den USA ist nicht gleich hoch88 – dürfen sich in einer gerichtlichen Einzelfal­ lentscheidung nicht negativ für den Einzelnen auswirken. Ob das COMPASSystem jedoch tatsächlich rassistisch ist oder wirkt, ist weniger eindeutig, als es auf den ersten Blick scheint. Der Hersteller bestreitet den Vorwurf des Rassismus und argumentiert, den ProPublica-Journalisten seien Interpretati­ onsfehler unterlaufen.89 In der Tat bedürfen die Ergebnisse ihrerseits der Inter­ pretation. Denn das COMPAS-System wirkt für sich allein genommen nicht unmittelbar diskriminierend: Die Frage ist vielmehr zunächst, wie ein solches System optimiert werden sollte bzw. an welche Zielvorstellungen es gebunden sein soll.90 Sollte man zuvorderst so wenige Häftlinge wie möglich auf Be­ währung entlassen, die dann wieder straffällig werden – oder aber so viele re­ sozialisierte Häftlinge wie irgend möglich (und sicherheitsrechtlich erträglich) ihren Weg zurück in die Gesellschaft finden? Diese Entscheidung, diese Prio­ ritätenwahl muss im Rechtsstaat der demokratisch legitimierte Gesetzgeber treffen. Er darf sie nicht an kommerziell ausgerichtete Unternehmen abgeben. Im Fall des COMPAS-Algorithmus traf das Unternehmen die Entscheidung über die Optimierung wie folgt: Um eine möglichst genaue Vorhersage der Strafrückfälligkeit zu erreichen, wollte man die Anzahl der true positives optimieren, also möglichst viele Personen korrekt identifizieren, die tatsäch­ lich (mit hoher Wahrscheinlichkeit) ein weiteres Verbrechen begehen.91 Hier­ bei besteht aber zumeist der Nebeneffekt, dass man jedenfalls indirekt eine höhere Anzahl der falsch positiven Ergebnisse (also Menschen, die unge­ rechtfertigt als wahrscheinlich rückfällig eingestuft werden) in Kauf nimmt. Möglich wäre auch die spiegelbildliche Herangehensweise, bei der das Sys­ tem so wenige false positives wie möglich liefert – dazu müssten allerdings mehr false negatives (potenzielle Wiederholungstäter, die das System nicht als solche erkennt) in Kauf genommen werden.92 lernender Systeme besonders auch aus der Tatsache, dass die Algorithmen auf der Grundlage von alten Trainingsdaten lernen und auf diese Weise alte Muster reprodu­ zieren und fortschreiben, etwa dass Schwarze höhere Strafen erhalten. 88  Insoweit besteht kein Dissens. Die Ursachen – bspw. sozioökonomische Fak­ toren oder unterschiedliche Behandlung durch Polizei- und Strafverfolgungsbehör­ den – können nicht Gegenstand dieser Ausführungen sein. 89  Dieterich/Mendoza et al., COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity, 8.7.2016, S. 4 ff.; vgl. auch bereits Brennan/Dieterich et al., Criminal Justice and Behavior 36 (2009), 21 (21 ff.). 90  Vgl. Spielkamp, Technology Review 8 (2017), 36 (37). 91  Vgl. Spielkamp, Technology Review 8 (2017), 36 (36 f.). 92  True posivitives, false negatives, false positives und true negatives werden in der sog. Wahrheits- oder Konfusionsmatrix zusammengefasst. Die Matrix lässt sich



III. Entscheidungsunterstützende Systeme im Strafverfahren383

Beide Möglichkeiten stehen technisch nebeneinander; beide verbessern in der Regel die statistische Messgröße des positiven Vorhersagewertes, also desjenigen Prozentsatzes aller „positiven“ Vorhersagen, die sich als wahr herausgestellt haben.93 ProPublica verglich den Anteil der false positives und false negatives für Schwarze und Weiße – und fand sie zu Ungunsten von Schwarzen und Hispanics systematisch verzerrt; der Hersteller hinge­ gen verglich (nur) die positiven Vorhersagewerte für Schwarze und Weiße – und fand sie nicht verzerrt.94 Interessanterweise war die Hautfarbe der Per­ sonen gar nicht in den Daten hinterlegt. Der COMPAS-Algorithmus fand jedoch Korrelationen zwischen Wohnort, Lebensumständen und der Haut­ farbe. Aus der Risikoklassifizierung, also der Entscheidung über diejenigen Kri­ terien, nach denen der Algorithmus optimiert werden soll, folgen für nicht identische Gruppen auch ungleiche Ergebnisse: So bezeichnet die False-positive-Rate95 bzw. das False-positive-Verhältnis grundsätzlich den Anteil der fälschlich als positiv klassifizierten Objekte, welche aber tatsächlich ne­ gativ sind. Im Fall einer Risikobewertung sind also diejenigen Personen false positives, die fälschlicherweise mit einem hohen Risiko-Score bewertet und danach – entgegen der Prognose – nicht wieder straffällig werden. Die Falsepositive-Rate ergibt sich somit aus der Zahl der Personen, die einen hohen Risiko-Score erreichen und nicht rückfällig werden, geteilt durch die Anzahl aller (verurteilten) Personen, die nicht rückfällig werden. In einer Gruppe mit vergleichsweise hohen Rückfallraten ist der Zähler dieses Bruchs größer (weil auch der Pool an Personen mit hohem Score größer ist) und der Nenner kleiner, weil insgesamt weniger Personen nicht rückfällig werden. Im Ergeb­ entweder auf sensitivity (Sensitivität bzw. False-negative-Rate) oder auf specificity (Spezifität bzw. False-positive-Rate) hin optimieren. Siehe auch das Beispiel für eine fragwürdige Optimierungsstrategie beim NSA-Überwachungsprogramm Skynet bei Trinkwalder, c‘t 2018, 130 (133). 93  Beide Herangehensweisen verbessern diejenigen Vorhersagen, welche die je­ weilige Methode entsprechend einer Zieldefinition zu optimieren versucht. Aufgrund von Störgrößen, Abweichungen und nicht in Gänze antizipierbaren Aspekten lassen sich in der Praxis nicht beide Zielgrößen optimieren; das wäre (theoretisch) allenfalls bei vollkommen deterministischen und determinierten Abläufen möglich. Siehe er­ gänzend Berk/Heidari et al., Sociological Methods & Research 104 (2018), 1 (1 ff.), die resümieren: „Except in trivial cases, it is impossible to maximize accuracy and fairness at the same time and impossible simultaneously to satisfy all kinds of fair­ ness“ (Abstract, S. 1). 94  Siehe auch die Antwort der ProPublica-Autoren auf die Kritik des Herstellers, Angwin/Larson, ProPublica Responds to Company’s Critique of Machine Bias Story, https://www.propublica.org/article/propublica-responds-to-companys-critique-of-ma­ chine-bias-story (10.6.2020). 95  Die Rate an falsch positiv klassifizierten Datenpunkten nennt man auch Aus­ fallrate.

384

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

nis ist das Verhältnis dieser beiden Zahlen immer größer, als es für Gruppen mit niedrigeren Rückfallraten der Fall ist.96 Jede Gruppe mit einer höheren Rückfallquote, bspw. die Gruppe „verur­ teilte Schwarze“,97 erreicht aus diesem Grund im Durchschnitt einen höhe­ ren Risiko-Score. Dies führt automatisch zu einem höheren False-positiveVerhältnis – selbst wenn der Risiko-Score völlig frei von systematischen Verzerrungen ist und unabhängig davon, ob ein Mensch oder ein Algorithmus die Prognose trifft. Im Ergebnis lassen unterschiedliche False-positive-Raten kaum Rückschlüsse auf rassistische Disparität bzw. Diskriminierung zu.98 Allerdings beeinflussen Risikoprognosen strafrechtliche Entscheidungen und die Entscheidungen beeinflussen wiederum die tatsächliche Rückfällig­ keit: Wenn das Gericht bspw. wegen eines hohen Scores den Aufenthalt in einer Drogenentzugsklinik anordnet und die Person anschließend nicht wie­ der rückfällig wird, lässt sich nicht sicher sagen, ob die Risikoprognose falsch war und die Person deshalb nicht rückfällig wurde, oder aber ob die angeordnete Maßnahme Erfolg hatte. Ebenso wird man bei einem wegen ei­ nes hohen Scores zur einer langen Freiheitsstrafe Verurteilten, der nach Ver­ büßung der Haft nicht wieder rückfällig wird, nicht wissen, ob der Score unzutreffend war, ob die Haft ihn resozialisiert hat, oder ob er schlicht dem Alter der durchschnittlich höchsten Kriminalitätsbelastung entwachsen ist. So bleibt zu konstatieren, dass Rückfallraten als solche nichts über die Nei­ gung, mit der eine Person erneut Straftaten begeht, im Zeitpunkt der Risiko­ prognose aussagen. Da die algorithmischen Ergebnisse in die Entscheidungen einfließen, fehlt es an unabhängigen Validierungsdaten, um die Genauigkeit des Algorithmus überprüfen zu können.99 Statistische Daten über Rückfälle 96  Doleac/Stevenson, Are criminal risk assessment scores racist?, https://www. brookings.edu/blog/up-front/2016/08/22/are-criminal-risk-assessment-scores-racist/ (10.6.2020). Siehe auch Borges/Grabmair et al., Algorithmische Entscheidungsver­ fahren, 2018, S. 38 f. 97  Vgl. zu dieser relativen Häufigkeit gruppenspezifischer Rückfälle Chouldechova, Fair prediction with disparate impact: A study of bias in recidivism predic­ tion instruments, 2016, S. 3 f. Auch insoweit: Die Ursachen ungleicher Rückfallquo­ ten – bspw. sozioökonomische Faktoren – können hier nicht Gegenstand sein. 98  Vgl. Zafar/Valera et al., Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment, 2017, S. 5 ff., insbe­ sondere 8 f. Siehe zu verschiedenen Fairnessmaßstäben ergänzend auch Zweig/Krafft, Fairness und Qualität von Algorithmen, in: Mohabbat Kar/Thapa/Parycek et al. (Hrsg.), Algorithmen und Automatisierung, 2018, S. 204 (213 ff.), sowie jüngst Europäisches Parlament, Understanding algorithmic decision-making: Opportunities and challenges, 2019, S. 43 ff. 99  Der Mangel an Validierungsdaten, die zur Überprüfung der Algorithmen es­ sentiell sind, ist ein bekanntes Phänomen des machine learning, vgl. etwa Rey/Wender, Neuronale Netze, 3. Aufl., 2018, S. 101. Sobald der Anwender die maschinellen



III. Entscheidungsunterstützende Systeme im Strafverfahren385

haben daher kaum Aussagewert für die Frage, wie präzise die Risikoscores waren und sind.100 Es kommt also immer auf die Perspektive an: Dasselbe System, das aus Sicht des Entscheiders statistisch fehlerfrei agiert, kann aus Sicht des individuell Betroffenen dennoch biased sein. e) Mangelnde Transparenz Neben der fraglichen Wirksamkeit und den Diskriminierungsvorwürfen adressiert ein weiterer Kritikpunkt am COMPAS-Algorithmus dessen Intrans­ parenz. Der Quellcode und damit die genauen Entscheidungsparameter sowie die Arbeitsweise des Algorithmus sind als Betriebs- und Geschäftsgeheim­ nisse geschützt. Der Hersteller legt seine Algorithmen nicht offen. Die Be­ rechnungsmethoden bleiben somit verborgen, COMPAS gleicht in Teilen ei­ ner Blackbox.101 Ein Angeklagter bzw. Verurteilter hat keine Möglichkeit herauszufinden, warum der Algorithmus ihn der Kategorie „hohes Risiko“ zugewiesen hat. Plakativ gesagt, zahlen die Steuerzahler ein kommerziell vermarktetes System, dessen Nutzen in Frage steht, ohne dass Außenstehende wissen können, wie es funktioniert. Ebenso wenig wie der Angeklagte kann selbst der den Einzelfall entscheidende Richter nicht überprüfen, wie genau der Algorithmus zu seiner Einschätzung kam. Ergebnisse nutzt, also in seine Entscheidung einfließen lässt, verzerrt die Rückwir­ kung zwischen der Entscheidung und dem Ergebnis (hier: Rückfälligkeit bzw. keine Rückfälligkeit) die Kontrolle des Algorithmus. Um Vorhersagen effektiv testen zu können, bedarf es unabhängiger Validierungsdaten. Im Fall der strafprozessualen Ri­ sikobewertung könnte man also nur solche Vorhersagen validieren, die in keiner Form in die gerichtliche Entscheidung und in die Bestimmung bzw. das Feintuning der Algorithmenparameter eingeflossen sind. Das gilt im Übrigen sowohl für Machine-learning-Anwendungen als auch für regelbasierte Systeme – nämlich immer dann, wenn die einzelnen (Prognose- bzw. Entscheidungs-)Parameter eines Feintu­ nings bedürfen. Siehe ergänzend Lakkaraju/Kleinberg et al., The Selective Labels Problem, in: Matwin/Yu/Farooq (Hrsg.), Proceedings of KDD ’17, 2017, S. 275 (275 ff.). 100  Doleac/Stevenson, Are criminal risk assessment scores racist?, https://www. brookings.edu/blog/up-front/2016/08/22/are-criminal-risk-assessment-scores-racist/ (10.6.2020); ausführlich Bushway/Smith, Journal of Quantitative Criminology 23 (2007), 377 (378 ff.). Relativierend Angwin/Larson, ProPublica Responds to Compa­ ny’s Critique of Machine Bias Story, https://www.propublica.org/article/propublicaresponds-to-companys-critique-of-machine-bias-story (10.6.2020). Vgl. zu dieser Problematik auch Kleinberg/Lakkaraju et al., The Quarterly Journal of Economics 133 (2018), 237 (238 ff.). 101  Beim Einsatz solcher Systeme, die auch maschinelle Lernverfahren nutzen, treffen die Algorithmen oftmals Entscheidungen auf der Basis von Annahmen, die nicht einmal den Designern der Systeme klar sind. Vgl. auch Spielkamp, Technology Review 8 (2017), 36 (36 f.).

386

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

2. Der US-amerikanische Strafprozess und seine wesentlichen Unterschiede zum deutschen Recht Das anglo-amerikanische Recht weist insbesondere durch sein Case-lawSystem und dessen Bindungswirkung der sog. Präzedenzfälle entscheidende Unterschiede zum deutschen Strafprozess auf. Besonders in den USA ist das Rechtssystem zudem insgesamt grundsätzlich technikoffener als in der „Al­ ten Welt“. Das wird bspw. an der Zulässigkeit und Verwendung digitaler Beweismittel deutlich, für die vergleichsweise geringe Hürden bestehen. Auch scheint das Jury-System die Übernahme neuer Entwicklungen in das Rechtssystem zu beschleunigen. In den Gerichtsverfahren spielt zunehmend die Visualisierung der juristischen Argumentation eine Rolle; spezialisierte Unternehmen stellen gar sog. legal videos her.102 In Bezug auf Beweismittel und die Beweisführung vor Gericht begründen auch die Grundsätze des (disclosure und) discovery große Unterschiede:103 Nach einer Voruntersuchung und der gerichtlichen Anordnung zur Vorlage der relevanten Beweismittel müssen die Parteien einander gegenseitig die jeweiligen Beweismittel bezeichnen. Der Kläger im Zivilprozess bspw. kann dann auch ohne den Besitz eigener Beweise seine Ansprüche geltend ma­ chen, wenn er damit rechnen darf, die Beweismittel bei der Gegenseite oder Dritten zu finden. Innerhalb der Vereinigten Staaten ist der Ablauf gerichtli­ cher Prozesse aber uneinheitlich, insbesondere abhängig vom Bundesstaat; auch zwischen einzelnen Gerichten bestehen Unterschiede.104 Besonders der Ablauf des Strafverfahrens unterscheidet sich stark und grundsätzlich von demjenigen in Deutschland. Der Richter fungiert im Straf­ recht des common law weniger als Richter denn als „Schiedsrichter“, der (lediglich) vermittelt, verhandeln lässt, auf die Einhaltung der (sehr strengen) Verfahrensregeln achtet und zwischen den Prozessparteien (Staatsanwalt und Verteidigung) moderiert.105 Das Strafverfahren ist adversatorisch, es gleicht 102  Boehme-Neßler,

NJW 2017, 3031 (3034). dazu etwa die Ausführungen auf dem Internetauftritt der dem United States Department of Justice unterstehenden Offices of the United States Attorneys, abrufbar unter https://www.justice.gov/usao/justice-101/discovery. Eingehend zu den Unterschieden in der Beweisführung, insbesondere den jeweiligen Beweisanforderun­ gen (standard of proof) in den verschiedenen Verfahrensarten, Engel, Vermont Law Review 33 (2009), 435 (435 ff.). 104  Im materiellen Strafrecht stellt neben dem Case-law-System und dessen Prä­ zedenzfällen besonders der Model Penal Code die entscheidende Rechtsquelle dar, der als Vorbild für die Strafgesetze der meisten US-Bundesstaaten diente. Siehe dazu etwa Dubber, Einführung in das US-amerikanische Strafrecht, 2005, S. 2 ff. 105  Vgl. etwa Trüg, Lösungskonvergenzen trotz Systemdivergenzen im deutschen und US-amerikanischen Strafverfahren, 2003, S. 25 ff.; zu den Gemeinsamkeiten, insbesondere der möglichen Anwendung des Opportunitätsprinzips, siehe aber auch 103  Vgl.



III. Entscheidungsunterstützende Systeme im Strafverfahren387

als Parteienprozess eher dem deutschen Zivilprozess als dem inquisitorischen Verfahrensmodell der StPO. Staatsanwaltschaft und Verteidigung sind in den USA jeweils selbst verantwortlich, die relevanten Beweise vorzulegen und einzubringen. Das Gericht erhebt selbst keine Beweise, befragt grundsätzlich keine Zeugen, agiert lediglich als Verfahrensleiter. Es besteht keine mit § 244 Abs. 2 StPO vergleichbare gerichtliche Aufklärungspflicht – einer der HauptUnterschiede der Rechtssysteme. Der Richter ist insgesamt also vergleichs­ weise wenig an der Verhandlung beteiligt, sondern entscheidet zuvorderst über die Zulassung von Beweismitteln. Auch die im Geschworenenverfahren praktizierte strikte Trennung zwischen Erkenntnis- und Bestrafungsverfahren ist der deutschen Strafrechtspraxis fremd. Deutlich verschieden sind zudem die Funktionen und Aufgaben der Geschworenen, die nur über die Schuld urteilen, im Vergleich zu den ehrenamtlichen Richtern in Deutschland (Schöffen; vgl. §§ 44 ff. DRiG; §§ 28 ff. GVG), die den Berufsrichtern grund­ sätzlich gleichgestellt sind (vgl. für die große Strafkammer etwa § 76 GVG). 3. Zwischenergebnis und Ausblick Die Garantie der richterlichen Unabhängigkeit kennt auch das US-Recht, sodass algorithmische Risikoprognosen den richterlichen Entscheid auch dort lediglich unterstützen, nicht jedoch verbindlich vorgeben können. Der Rich­ ter darf die Entscheidung darüber, eine strafrechtliche Sanktion zu verhängen oder einen Antrag auf Strafaussetzung zur Bewährung abzulehnen, nicht al­ lein auf einen algorithmisch generierten Score stützen. Rechtsstaatliche Grundsätze, etwa eine Begründungspflicht für gerichtliche Entscheidungen, gelten dort ebenfalls. Dennoch scheint das US-amerikanische Rechtssystem geradezu prädesti­ niert zu sein für eine algorithmische Entscheidungsunterstützung: Die Präju­ dizienwirkung vergangener Rechtsprechung begründet einen korrelativen Rechtsfindungsprozess – eine Logik, der auch die Arbeitsweise algorithmen­ basierter Systeme folgt. Risk-assessment-Tools sind dort jedenfalls grund­ sätzlich geeignet, einen sinnvollen Beitrag zu einer rationaleren, weniger vorurteilsbelasteten und verzerrten Entscheidungsfindung zu leisten. Die Debatte um COMPAS fördert keine durchschlagenden Gründe gegen einen entscheidungsunterstützenden Algorithmeneinsatz als solchen zu Tage. Vielmehr steht und fällt die (berechtigte) Kritik an Systemen wie COMPAS mit der konkreten technischen Ausgestaltung, insbesondere der Zielvorgabe S. 75 ff. Zu den Unterschieden im Umgang mit Fehlern, auch aus psychologischer und philosophischer Sicht, Schafer/Wiegand, Law, Probability and Risk 3 (2004), 93 (93 ff.); siehe zu den Chancen einer comparative criminal justice noch Harrendorf, Rechtswissenschaft 8 (2017), 113 (115 ff.).

388

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

an die Optimierung: Nach welchen Kriterien die Tools zu optimieren sind, muss im Rechtsstaat die Entscheidung des demokratisch legitimierten Norm­ gebers sein.106 Auch die Entscheidung darüber, welche Merkmale überhaupt in die algorithmisch ermittelte Prognose einfließen dürfen, steht nicht privat­ wirtschaftlichen Unternehmen zu: So speist COMPAS bspw. auch die Ant­ wort auf die Frage ein, ob und in welchem Alter sich die Eltern des Betrof­ fenen haben scheiden lassen. Derartige Merkmale als unmittelbar entschei­ dungsrelevant zu berücksichtigen, wäre nach deutschem Recht nicht zulässig, weil sie für sich genommen strafrechtlich irrelevant sind.107 Bestehen bleiben insbesondere die Bedenken gegen intransparente Entscheidungsparameter: Der Mangel an Transparenz und inhaltlicher Begründungstiefe erschwert so­ wohl die gesellschaftliche Akzeptanz als auch die rechtsstaatlich abgesicherte Durchführung tatsächlich fairer Verfahren.108 In dieser Form kann ein System wie COMPAS den Maßstäben der deutschen Rechtsordnung jedenfalls nicht genügen.

IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme im Strafverfahren (Überblick) 1. Vorab: Risikoprognosen auch im deutschen Strafrecht Trotz der Unterschiede in der konkreten Ausgestaltung des Strafprozesses in den USA und Deutschland ist das Kalkül hinter Systemen wie COMPAS dem deutschen Strafrecht nicht gänzlich fremd: Auch das StGB und die StPO kennen Risikobewertungen. Unerlässlich sind sie etwa für die Entscheidung, ob die Freiheitsstrafe eines Delinquenten zur Bewährung auszusetzen ist oder nicht.109 Das deutsche Recht fasst diese Einschätzung unter den Begriff der Sozialprognose: Ist diese günstig, setzt das Gericht die Vollstreckung einer 106  Vgl. oben S. 382 sowie dort Fn. 92. Die fragliche Wirksamkeit hängt zudem von den kriminologischen Grundannahmen ab; man könnte insoweit etwa von „tech­ nologischen Kinderkrankheiten“ sprechen. 107  Im Übrigen ist jede begünstigende oder benachteiligende Anknüpfung an die gem. Art. 3 Abs. 3 GG besonders geschützten Merkmale unzulässig. Art. 3 Abs. 3 GG nennt, anders als z. B. § 1 AGG, allerdings nicht das Lebensalter – so überrascht es nicht, dass das Alter etwa für die Strafzumessung durchaus eine Rolle spielen darf, vgl. Fischer, StGB, 66. Aufl., 2019, § 46, Rn. 42; Heintschel-Heinegg, in: ders. (Hrsg.), BeckOK StGB, 42. Ed. (Stand: 1.5.2019), § 46, Rn. 63 m. w. N. 108  Vgl. zum verfassungsrechtlichen Transparenzgebot oben S. 331 ff. 109  Siehe zu den strafrechtlichen Prognosen und den Möglichkeiten der algorith­ mischen Unterstützung näher sogleich unten S. 416 ff.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme389

Freiheitsstrafe, die ein Jahr nicht übersteigt, zur Bewährung aus (§ 56 Abs. 1 S. 1 StGB).110 Bei höheren Freiheitsstrafen (von bis zu zwei Jahren) bedarf es zusätzlicher Voraussetzungen (§ 56 Abs. 2 S. 1 StGB). Eine günstige Sozi­ alprognose ergibt sich, wenn zu erwarten ist, dass sich die Person schon die Verurteilung zur Warnung nimmt und künftig auch ohne die Einwirkung des Strafvollzugs keine Straftaten mehr begehen wird (§ 56 Abs. 1 S. 1 StGB). Einer Risikobewertung bedarf auch die Entscheidung darüber, ob das Ge­ richt den Strafrest einer bereits teilweise verbüßten Freiheitsstrafe zur Be­ währung aussetzt (§§ 57, 57a StGB, § 454 StPO). Das Erfordernis einer Ri­ sikoprognose folgt unmittelbar aus (§ 57a Abs. 1 S. 1 Nr. 3 i. V. m.) § 57 Abs. 1 S. 1 Nr. 2 StGB: Die Strafrestaussetzung ist nur möglich, wenn sich dies unter Berücksichtigung des Sicherheitsinteresses der Allgemeinheit ver­ antworten lässt. Nach § 57 Abs. 1 S. 2 StGB sind bei dieser Entscheidung insbesondere die Persönlichkeit und Lebensverhältnisse der verurteilten Per­ son, die Umstände ihrer Tat, das Gewicht des bei einem Rückfall bedrohten Rechtsguts, das Verhalten im Strafvollzug und die Wirkungen zu berücksich­ tigen, die von der Strafrestaussetzung für die Person zu erwarten sind. Auch zur Entscheidung über die Anordnung der Untersuchungshaft i. S. d. § 112 Abs. 2 Nr. 2 und 3 StPO (Haftgrund der Flucht- bzw. Verdunkelungs­ gefahr) bedarf es einer Gefahren- bzw. Risikoprognose.111 §§ 56, 57 StGB, §§ 112 ff. StPO stehen dem Einsatz algorithmenbasierter Unterstützungssysteme nicht a priori entgegen: Dort ist geregelt, welche As­ pekte für die gerichtliche Entscheidung relevant sind bzw. sein können, aber nicht, wie sie zu berücksichtigen sind. Ebenso wie in die Entscheidungsfin­ dung im Kopf des Richters könnten diese (und weitere) Merkmale grundsätz­ lich auch in eine algorithmische Prognose einfließen.

110  Allerdings setzt das Gericht bei der Verurteilung zu Freiheitsstrafe von min­ destens sechs Monaten die Vollstreckung nicht aus, wenn die Verteidigung der Rechtsordnung sie gebietet (§ 56 Abs. 3 StGB). 111  Vgl. nur Krauß, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 112, Rn. 23, 32 ff. Die Untersuchungshaft setzt zudem einen dringenden Tatverdacht voraus (§ 112 Abs. 1 S. 1 StPO) und sie muss im Einzelfall verhältnismäßig sein (Abs. 1 S. 2). Siehe zu den Möglichkeiten der algorithmischen Assistenz unten S. 397 ff. Mit Risikoprognosen operiert auch das sog. Predictive Policing, das seit einigen Jahren auch deutsche Polizeibehörden anwenden. Vgl. zu dieser Form der „voraussagenden Polizeiarbeit“ durch automatisierte Datenauswertung die Übersicht bei Martini/Nink, Mit der algorithmischen Kristallkugel auf Tätersuche?, in: Bertels­ mann Stiftung (Hrsg.), Automatisch erlaubt?, 2020, S. 32 ff., sowie die ausführlichen Analysen bei Rademacher, AöR 2017, 366 (368 ff.), und Singelnstein, NStZ 2018, 1 (1 ff.).

390

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

2. Technisch-praktische Herangehensweise (Überblick) a) Notwendigkeit interdisziplinärer Zusammenarbeit Juristische Entscheidungen durch algorithmenbasierte Verfahren zu unter­ stützen, kann sich nicht auf „Insellösungen“ einzelner Disziplinen und Mate­ rien – insbesondere Recht und Informatik – beschränken. Um der Vielgestal­ tigkeit und Komplexität der Fragestellungen Herr zu werden, bedarf es mul­ tidisziplinärer Expertengruppen zur Erstellung und Pflege geeigneter Sys­ teme: Neben Juristen und Informatiker sollte ein solches Gremium, etwa in Form von Forschungsverbundprojekten, auch Wirtschafts- und Sozialwissen­ schaftler, im Bereich der strafrechtlichen Entscheidungsunterstützung auch Kriminologen und deren Expertise einbinden.112 In Verbundprojekten könn­ ten privatwirtschaftliche Unternehmen gemeinsam mit Forschungseinrichtun­ gen und staatlichen Akteuren an einem Strang ziehen.113 b) Datenbasis Als technisch-methodische Grundbausteine einer algorithmenbasierten Entscheidungsassistenz im Strafverfahren kommen insbesondere Musterer­ kennungsverfahren, aber auch Such- und Optimierungsverfahren in Betracht. Algorithmen zur Mustererkennung nutzen (historische) Datensätze, detektie­ ren Zusammenhänge und ermöglichen dadurch Vorhersagen oder Extrapola­ tionen, während Algorithmen zur Suche und Optimierung in der Lage sind, 112  Vgl. auch Europarat/Europäische Kommission für die Effizienz der Justiz (CEPEJ), Ethical Charter on the Use of AI, 2018, S. 10 f. Vor einem tatsächlichen Einsatz bedarf es (offizieller) Zertifizierungen oder externer Audits mit Zugang zum Designprozess. Ziel muss sein, Transparenz, Unparteilichkeit und Fairness von Be­ ginn der Entwicklung an bis zum konkreten Einsatz mitzudenken und bestmöglich sicherzustellen. Für die Zertifizierung und Auditierung, aber auch die begleitende Beratung und laufende Evaluierung könnten unabhängige Expertengremien eingerich­ tet werden. Siehe zu Vorschlägen der organisatorischen Ausgestaltung im Einzelnen Martini, Blackbox Algorithmus, 2019, S. 157 ff.; The Law Society of England and Wales, Algorithms in the Criminal Justice System, Juni 2019, S. 5 ff. Kompetenz­ rechtliche Fragen (vgl. Art. 92 Hs. 2 GG: „durch die Gerichte der Länder“) können hier keine Erörterung finden. 113  Auch staatliche Eigenentwicklungen sind nicht ausgeschlossen. Insbesondere für Machine-learning-Verfahren bedarf es einer umfassenden Datenbasis – wer, wenn nicht der Staat in Gestalt der Justiz und Justizverwaltung hätte Zugang hierzu? Vgl. dazu auch sogleich unten S. 442 ff. Entsprechende Projekte wären bzw. sind aller­ dings sehr aufwendig; treffend Yuan, RW 2018, 477 (492): „Die Vorstellung, dass ‚irgendwie‘ Daten bereitgestellt werden, und der Algorithmus ‚eigenverantwortlich‘ die Arbeit erledigt, entspricht nicht der Realität“.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme391

in einem großen Raum von Optionen die beste Option zu identifizieren.114 Auch der beste Algorithmus kann Entscheidungen allerdings nur so gut und präzise treffen bzw. vorschlagen, wie es die Trainingsdaten und der DatenInput als Entscheidungsbasis hergeben;115 zu kleine oder zu inhomogene Datenmengen bilden eine gewichtige Fehlerquelle maschineller Lernverfah­ ren. Bereits für den Trainingsprozess eines lernenden Systems bedürfte es bspw. einer großen Zahl an echten (rechtskräftigen) Gerichtsentscheidungen. Dabei ist insbesondere wichtig, eine Vorauswahl an sinnvollen Informationen zu treffen, deren Verwertung auch zulässig ist: Der COMPAS-Algorithmus bspw. nutzt neben den Straftaten des Betroffenen auch Daten über etwaige Kriminalitätshistorien Verwandter (insbesondere Inhaftierungen), was nach deutschem Recht unzulässig ist. Im strafprozessualen Einsatz entscheidungsunterstützender Systeme steht für den Trainingsprozess wie auch für den Daten-Input im konkreten Einzel­ fall potenziell eine vielgestaltige Datenbasis zur Verfügung. Je nach Datei­ format könnten elektronische Akten eine wahre Schatzgrube für Algorithmen sein: Darin könnten letztere etwa blitzschnell das Protokoll der mündlichen Verhandlung, die Anklageschrift, evtl. den Haftbefehl, aber auch Protokolle der früheren Beschuldigten- und Zeugenvernehmungen nach relevanten In­ formationen durchforsten.116 Idealerweise finden sich die Dokumente dabei in einem maschinell eingelesenen, offenen und standardisierten Dokumenten­ format (etwa XML oder HTML); eingescannte oder PDF-Dokumente sind nicht direkt maschineninterpretierbar.117 Mit Hilfe automatisierter Sprachund Sprechererkennung ist auch denkbar, Vernehmungssituationen automa­ 114  Vgl. Bünau, Legal Revolution 2018, 98 (99). Zu Begriffen und Grundsätzen der Künstlichen Intelligenz bereits oben S. 146 ff. 115  Eingehend Barocas/Selbst, California Law Review 104 (2016), 671 (673 ff.). 116  So gelingt es bereits, semantische Informationen wie etwa das Jahr eines Rechtsstreits oder (mit etwas mehr Aufwand) Legaldefinitionen automatisch aus ju­ ristischen Dokumenten zu extrahieren; vgl. etwa Waltl/Landthaler et al., Automated Extraction of Semantic Information, in: Schweighofer/Kummer/Hötzendorfer et al. (Hrsg.), IRIS 2017 Tagungsband, 2017, S. 217 (217 ff.), die indes betonen, dass ins­ besondere im Feld der Rechtstheorie viele offene Forschungsfragen liegen (S. 222 ff.). 117  Vgl. dazu nur Coupette/Fleckner, JZ 2018, 379 (382 f.), sowie Off/Kühn et al., E-Gesetzgebung, in: Rätz/Breidung/Lück-Schneider et al. (Hrsg.), Digitale Transfor­ mation, 2016, S. 35 (41). Die Techniken des Text Mining funktionieren zwar mit ho­ mogenen Dokumenten, wie sie bspw. das Mahnverfahren oder das Besteuerungsver­ fahren vorhält, besser als mit der heterogenen Dokumentenmasse etwa in Straf- oder Kartellrechtsprozessen. Gleichwohl sind die hinreichend großen Datenmengen, die die Systeme für den Lernvorgang benötigen, grundsätzlich vorhanden – etwa Gesetze, Urteile und Beschlüsse sowie Parlamentsdrucksachen. Die Informationen darin liegen allerdings unstrukturiert als Text in natürlicher Sprache vor. Ein Computer muss also zunächst befähigt werden, diesen zu verarbeiten (bspw. durch Natural Language Processing); sodann kann er Informationen suchen und bereitstellen, Fakten erkennen

392

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

tisch zu verschriftlichen und dabei Vernehmungsinhalte zu transkribieren und sie automatisch den einzelnen Sprechern einer dynamischen Vernehmungssi­ tuation zuzuordnen.118 Denkbar sind sogar Audio- oder audiovisuelle Auf­ zeichnungen der Hauptverhandlung oder der Einsatz von Diktiergeräten mit Spracherkennung.119 c) Statische regelbasierte und dynamische datenbasierte Systeme Wie schon in der Analyse der technischen Hürden, Einzelfälle und Aus­ nahmen rechtssicher einzuordnen,120 sowie für die Bewertung der demokra­ tischen Legitimation,121 ist es auch hinsichtlich der technisch-praktischen Umsetzung eines Entscheidungsunterstützungssystems sinnvoll, zunächst zwischen rein regelbasierten und datenbasierten System zu unterscheiden. Regelbasierte (Experten-)Systeme operieren mit einer Regelbasis und ei­ nem Inferenzmechanismus, der jeweils festlegt, welche Regeln anzuwenden sind.122 Für die Unterstützung juristischer Entscheidungen macht diese Funk­ und Daten interpretieren. Es gibt indes auch rein regelbasierte OCR-Software (Optical Character Recognition). 118  Vgl. Ministerium der Justiz des Landes Nordrhein-Westfalen, Künstliche In­ telligenz in der Justiz, Dezember 2018, S. 4. 119  Zusätzliche Geräte und Anwendungen bedeuten freilich auch zusätzliche Feh­ lerquellen – etwa hinsichtlich Transkription, ggf. Übersetzung und Spracherkennung. Aus einer anderen Motivation heraus fordert die Bundesrechtsanwaltskammer bereits seit 2010 eine präzisere, technische Dokumentation der strafprozessualen Hauptver­ handlung, vgl. Bundesrechtsanwaltskammer, Entwurf eines Gesetzes zur Verbesse­ rung der Wahrheitsfindung im Strafverfahren durch verstärkten Einsatz von Bild-TonTechnik, 2010, S. 3 ff. Denn bislang werden Aussagen nicht wörtlich erfasst, sondern finden über Erinnerungen und Mitschriften der Richter Eingang in die Entscheidung. Das birgt Gefahren für (unbewusste) Fehler: Menschen nehmen Gehörtes unter­ schiedlich auf, werten, interpretieren, unterliegen womöglich Rationalitätsschwächen. Erste Abhilfe könnten etwa Tonaufzeichnungen schaffen. Mit dem Gesetz zur effekti­ veren und praxistauglicheren Ausgestaltung des Strafverfahrens vom 17.8.2017 (BGBl. I 2017, S. 3202) hat der Gesetzgeber jedenfalls für das Ermittlungsverfahren bereits eine begrenzte Verpflichtung zur Bild-Ton-Aufzeichnung geschaffen; die Re­ gelung tritt am 1.1.2020 in Kraft (vgl. dann den neuen § 136 Abs. 4 StPO). Siehe zu Fragen der strafprozessualen Revision „im Zeitalter technischer Reproduzierbarkeit“ noch Wehowsky, NStZ 2018, 177 (177 ff.). 120  Vgl. oben S. 202 ff. 121  Vgl. oben S. 325 ff. 122  Siepermann, Stichwort: regelbasiertes System, in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, 2018. Sie folgen dabei einer deduktiven Logik: Aus allge­ meinen Regeln ergeben sich zwingende logische Schlussfolgerungen für den konkre­ ten Fall. Vgl. zu den Möglichkeiten regelbasierter Entscheidungsunterstützungssys­ teme ergänzend Islam/Governatori, Artificial Intelligence and Law 26 (2018), 315 (315 ff.).



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme393

tionsweise ihre Grundkonzeption sehr aufwendig: Die unstrukturierten Re­ gelquellen – insbesondere Gesetze und andere Normen, aber auch Rechtspre­ chung – bedürfen einerseits oftmals selbst der Interpretation und müssten andererseits zunächst formalisiert bzw. in eine maschinenlesbare Form über­ führt werden.123 Datenbasierte Systeme maschinellen Lernens hingegen erstellen Progno­ sen und berechnen (in die Zukunft gerichtete) Wahrscheinlichkeiten auf der Grundlage statistischer Zusammenhänge, die sie in historischen Daten aus­ machen.124 Ihre Algorithmen erkennen Muster über Wirkungszusammen­ hänge oder Korrelationen und überführen diese in ein Entscheidungsmodell, das sich durch Erweitern der Datenbasis dynamisch anpassen lässt.125 Für das Erfahrungswissen durch Beispiele sind hohe Anfangsinvestitionen erfor­ derlich, um eine ausreichend breite Datenbasis sowohl für Trainings- als auch für Testdaten aufzubauen; den Datenbestand zu bereinigen, kann enor­ men Aufwand bedeuten. Die verwendeten Daten müssten (möglichst) reprä­ sentativ, aktuell sowie fehlerfrei sein und Entscheidungen sowohl der erst­ instanzlichen wie auch der übergeordneten Gerichte enthalten. Stehen zu wenige Trainingsdaten zur Verfügung, könnte ein System bspw. Ausnahmeund Spezialfälle verallgemeinern und ihre Aussagekraft überschätzen. Ge­ genüber den zumeist händisch erstellten Algorithmen regelbasierter Sys­ teme, die mit einfachen Konditionalsätzen operieren, können die komplexe­ ren Systeme maschinellen Lernens grundsätzlich einzelfallspezifischere Lösungen einer (rechtlichen) Fallfrage erzeugen.126 Sie können durch statistische Textauswertung Hypothesen im Textkorpus finden, die anhand der (vorgegebenen) Einflussfaktoren aus dem Daten-Input den Output errechnen:127 Auf der Basis tatsächlicher Rechtsfälle, deren Ausgangslage, Rechtsfolgen sowie relevante Details und Hintergrund- bzw. Metadaten be­ kannt sind, können Systeme maschinellen Lernens ein Muster erkennen, 123  Anhand von Entscheidungsbäumen und „Wenn-dann“-Sätzen wären die darin enthaltenen Rechtsregeln zu simplifizieren und auf jedes Detail herunterzubrechen. 124  Vgl. bereits oben S. 147 ff. 125  Sie folgen einer verallgemeinerten induktiven Logik: Aus dem Betrachten mehrerer Einzelfälle erstellen sie ein generalisiertes Modell, aus dem sie selbstständig Regeln ableiten. Vgl. zum Sonderfall des fallbasierten Schließens, bei dem die Ent­ scheidungsfindung durch Analogieschluss erfolgt, etwa Grabmair/Ashley, Facilitating Case Comparison, in: Ashley/van Engers (Hrsg.), ICAIL ’11, 2011, S. 161 (162 ff.); Richter, Fallbasiertes Schließen, in: Görz/Schneeberger/Schmid (Hrsg.), Handbuch der Künstlichen Intelligenz, 5. Aufl., 2013, S. 297 (299 ff.). 126  Vgl. bereits oben S. 202 ff. 127  Russell/Norvig, Künstliche Intelligenz, 3. Aufl., 2012, S. 812; siehe zum Lern­ prozess in Trainings- und Testphase des Systems auch Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 109 f.

394

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

das die bisherigen Fälle beschreibt. Dieses vom einzelnen Fall losgelöste Problemlösungsmuster lässt sich dann auf neue, dem System unbekannte Rechtsfälle anwenden.128 Vor diesem Hintergrund besonders anbieten könnten sich Kombinationen bzw. Hybride aus statischen regelbasierten Systemen und Machine-learningKomponenten: Denn auch bei Entscheidungen mit Ermessens- oder Wer­ tungsspielraum umfasst dieser Spielraum nicht das gesamte Spektrum der Entscheidung. Sie lassen sich vielmehr regelmäßig aufteilen in einen Teil, der gebundene Elemente enthält, denen sich ein regelbasiertes System wid­ men könnte, und einen „reinen Ermessens- oder Wertungsteil“, in dem dy­ namische Komponenten des maschinellen Lernens zum Zuge kommen könnten.129 Hybride Systeme schließen nicht lediglich rein fallbasiert auf Muster, sondern operieren in Verbindung mit händisch programmierten Re­ geln, die den Inhalt der relevanten Rechtsvorschriften enthalten (können).130 Auf diese Weise sind sie in der Lage, ein statistisch bzw. per Mustererken­ nung gefundenes Ergebnis (nachträglich) mit juristischen Argumenten zu spicken.131 d) Regression und Klassifikation Die in der Strafrechtspflege grundsätzlich in Betracht kommenden Anwen­ dungsszenarien132 lassen sich auch in ihrer informationstechnischen Ziel­ richtung in zwei Gruppen unterteilen: Regression und Klassifikation. Die Zuweisung quantitativer Werte – ein aktuelles Beispiel ist etwa die automati­ sche Preisermittlung in Onlineshops – lässt sich anhand von Regressionsverfahren modellieren. Einen Sachverhalt in (Risiko-)Gruppen einzuteilen oder auch Ja/Nein-Einordnungen vorzunehmen, geschieht über Modelle der Klassifikation.133 128  Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 109 f.; vgl. auch Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (457). 129  Das System könnte dem Anwender dann bspw. den verbleibenden Spielraum in einer Art „Entscheidungskorridor“ aufzeigen: „In Betracht kommt eine Entschei­ dung zwischen … und … Folgende Merkmale sollten Sie als Anwender gesondert beachten: …“. 130  Vgl. etwa Jandach, Juristische Expertensysteme, 1993, S. 18. 131  Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 159 f. 132  Im Einzelnen sogleich S. 396 ff. 133  Vgl. die Einführung zu Regression und Klassifikation bei Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 30 ff.; vgl. auch Russell/Norvig, Künstliche Intelligenz, 3. Aufl., 2012, S. 696. Siehe auch die Anwendungsbei­ spiele bei Ashley, Artificial Intelligence and Legal Analytics, 2017, S. 108 ff.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme395

Die lineare Regression ist ein statistischer Ansatz, der eine (beobachtete) abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklä­ ren versucht.134 Sie kann Ausgangspunkt eines auch für technische Laien verständlichen Machine-learning-Algorithmus sein. In einem dynamischen System lernt der Algorithmus, indem er die Korrelationen zwischen den In­ putvariablen und der bzw. den Outputvariablen sucht; das System findet die Gewichtungen für die Inputvariablen idealiter selbstständig aus den Trai­ ningsdaten, genauer gesagt anhand der Korrelationen in den Daten. Als Er­ gebnis steht ein trainiertes Modell. Das Maß der Erklärbarkeit ist semantisch mit den Eingabevariablen verknüpft.135 Die lineare Regression ist eine be­ währte Technik, um Zahlenwerte vorherzusagen. Diese Darstellung erhebt nicht den Anspruch der Passgenauigkeit für strafrechtliche Entscheidungen, sondern soll lediglich zeigen, dass die Funktionsweise lernender Algorithmen für technische Laien nicht a priori undurchsichtig ist. Dagegen eignen sich für einfache Klassifikationsprobleme (im überwach­ ten maschinellen Lernen) besonders Modelle der sog. logistischen Regres­ sion. Dabei wird eine lineare Regression in eine nichtlineare Funktion einge­ bettet, welche ihrerseits Zahlenwerte beliebiger Größe in ein begrenztes In­ tervall (typischerweise zwischen 0 und 1) projiziert: Anhand eines definierten Schwellenwerts trifft der Algorithmus dann entweder eine positive oder eine negative Vorhersage und modelliert eine binäre Entscheidung (z. B. zur Kre­ ditwürdigkeit einer Person).136 Eine solche Vorgehensweise scheint im Grundsatz etwa für die Sozialprognose nach § 56 StGB denkbar: So könnte das System in einem näher zu definierenden Wertebereich (z. B. zwischen 0 und 0,5) eine „Empfehlung pro Bewährung“, zwischen 0,5 und 1,0 eine 134  Ein Regressionsmodell ist dann linear, wenn es linear in den Parametern ist, die Parameter also nur mit einem Exponenten von 1 vorkommen und nicht multipli­ kativ miteinander verknüpft sind, vgl. Auer, Stichwort: Regression, lineare, in: Sprin­ ger Gabler (Hrsg.), Gabler Wirtschaftslexikon, 2018. In erster Näherung lassen sich die Entscheidungskriterien früherer Strafrechtsentscheidungen in einem solchen Mo­ dell darstellen – etwa (vereinfachend) in einem gewöhnlichen Term der linearen Re­ gression (Y = Const. + a1  X1 + a2  X2 + … + an  Xn), in dem Y die Outputvariable ist, Const. die „Entscheidungskonstante“ bezeichnet (sie entspricht dem Wert von Y, wenn alle Inputfaktoren Xᵢ gleichzeitig 0 sind), X1 … Xn die Inputfaktoren und a1 … an die jeweiligen Gewichtungen sind (Darstellung angelehnt an Stimac, Wie Compu­ ter lernen, golem.de vom 8.10.2018). 135  Vgl. Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 31. 136  Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 32. Die logistische Regression findet bspw. beim Kreditscoring Anwendung. Plakativ auch Yuan, RW 2018, 477 (486): „Es geht um die Frage, ob ein bestimmtes gesetz­ liches Merkmal – sei es auf Tatbestands- oder Rechtsfolgenseite – erfüllt ist oder nicht. In der Terminologie des maschinellen Lernens gesprochen: Subsumtion ist Klassifikation“.

396

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

„Empfehlung gegen Bewährung“ aussprechen, und im kritischen Graubereich zwischen 0,4 und 0,6 ausdrücklich die Unsicherheit der Prognose betonen. Denkbar sind jedoch auch andere Algorithmen, z. B. solche, die ausschließ­ lich mit Entscheidungsbäumen arbeiten.137 Die Entwicklerteams müssten testen, welche Vorgehensweise die besten Ergebnisse liefert – das hängt freilich auch von der Datenmenge und -qualität ab. Beim Lernen anhand korrekter Trainingsbeispiele (überwachtes Lernen) ist es jedenfalls grund­ sätzlich sinnvoll, die Trainingsdatensbasis zufällig aufzuteilen in einen Teil, mit dem das System trainiert wird, und einen weiteren, um das Modell an­ hand statistisch unabhängiger Validierungsdaten zu testen. Da sich Klassifi­ kations- und Regressionsverfahren in ihrer Mathematik nicht grundlegend unterscheiden, eignen sich insbesondere künstliche neuronale Netze sowohl für Klassifikations- als auch für Regressionsmodelle. Beide Verfahren dienen indes unterschiedlichen Zielen – die Regression zur Vorhersage von (steti­ gen) Zahlenwerten, die Klassifikation zur Unterscheidung von Klassen. So könnte sich die Regressionsanalyse bspw. zur Strafzumessung anbieten, wäh­ rend zur Prognose der Rückfallwahrscheinlichkeit oder der Fluchtgefahr Klassifikationsmodelle in Betracht kommen. Auf diese Weise scheint es möglich, algorithmenbasierte Systeme nicht „lediglich“ Dokumente ordnen und organisieren oder Informationen aufbereiten zu lassen, sondern ihnen auch konkrete Entscheidungsvorschläge oder die Einordnung in einen „Ent­ scheidungskorridor“ abzuverlangen. 3. In Betracht kommende Anwendungsszenarien Algorithmische Assistenz kommt insbesondere in Betracht für Entschei­ dungen über die Anordnung der Untersuchungshaft, die Strafzumessung, die Aussetzung einer verhängten Strafe zur Bewährung, die Aussetzung des Rests einer Freiheitsstrafe zur Bewährung sowie über die Gewährung des offenen Strafvollzugs.138

Stimac, Wie Computer lernen, golem.de vom 8.10.2018. Kohärenz mit den Ausführungen zu den menschlichen Rationalitätsschwä­ chen (oben S. 45 ff.), die sich oftmals gerade in der Strafzumessung auswirken, nimmt auch in diesem Abschnitt die Strafzumessung den größten Raum ein. Entscheidungen über Maßregeln der Besserung und Sicherung (§§ 61 ff. StGB), die mangels Bezug­ nahme auf einen persönlichen Schuldvorwurf als solche bereits verfassungsrechtlich nicht unproblematisch sind, finden hier keine Berücksichtigung – wenngleich teilau­ tomatisierte Musteranalysen dort ebenfalls sinnvoll sein könnten. 137  Vgl. 138  In



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme397

a) Untersuchungshaft aa) Gesetzliche Vorgaben Die normativen Steuerungsvorgaben der Untersuchungshaft finden sich in §§ 112 ff. StPO. Haftgründe für die Untersuchungshaft bilden im deutschen Strafprozessrecht Flucht, Fluchtgefahr, Verdunkelungsgefahr und Wiederho­ lungsgefahr (§ 112 Abs. 2, § 112a StPO), letztere allerdings – da ihr keine verfahrenssichernde Bedeutung i. S. d. Durchsetzung des staatlichen Strafan­ spruchs zukommt – nur bei besonders schwerwiegenden Straftaten (§ 112a Abs. 1 StPO). Für die in § 112 Abs. 3 StPO genannten Straftaten, darunter etwa Mord und schwere Körperverletzung, ist die Untersuchungshaft auch ohne Haftgrund i. S. d. § 112 Abs. 2 StPO zulässig. Neben einem Haftgrund muss zudem dringender Tatverdacht bestehen, also nach den Erkenntnissen im jeweiligen Ermittlungsstand eine große Wahrscheinlichkeit dafür vorliegen, dass der Beschuldigte Täter oder Teil­ nehmer einer strafbaren Handlung ist.139 Die Bewertung des dringenden Tatverdachts anhand des jeweiligen Ermittlungsstands liegt im Kernbereich strafrichterlicher Rechtsanwendung: Das Gesetz verlangt dem Richter eine vorläufige, jedoch umfassende Würdigung des Sachverhalts ab. Die Untersu­ chungshaft muss überdies zur Straftat und Strafe in angemessenem Verhältnis stehen (§ 112 Abs. 1 S. 2 StPO), also verhältnismäßig sein. bb) Kein normativer Ausschluss algorithmenbasierter Unterstützung, insbesondere für die Prüfung der Haftgründe Das Gesetz ist hinsichtlich der Frage, ob ein Haftgrund vorliegt, durchaus offen für softwareunterstützte Prognosen, schließt sie jedenfalls nicht unmit­ telbar aus: Die Prüfung eines Haftgrundes stellt eine faktenbasierte Prognose über das (zukünftige) Verhalten des Beschuldigten dar – entsprechend rele­ vante Kriterien kann grundsätzlich ein (lernender) Algorithmus gleich einem Richter verwerten und vorbereiten, soweit er lebensweltliche Umstände ad­ äquat zu berücksichtigen in der Lage ist.140 139  Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62.  Aufl., 2019, § 112, Rn.  5 f.; Krauß, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 112, Rn. 9. Der (strafbare) Versuch ist ausreichend. Die Annahme des dringenden Tatver­ dachts setzt nicht zugleich den hinreichenden Tatverdacht, dessen Bezugspunkt die Wahrscheinlichkeit einer späteren Verurteilung ist und der als Grundlage der Anklage­ erhebung dient (§ 170 Abs. 1 StPO), voraus. 140  Vgl. auch bereits Martini/Nink, Strafjustiz ex machina?, in: Bertelsmann Stif­ tung (Hrsg.), Automatisch erlaubt?, 2020, S. 44 (58).

398

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

So ist bspw. Fluchtgefahr (§ 112 Abs. 2 Nr. 2 StPO) dann zu bejahen, wenn die konkreten Umstände des Einzelfalls es wahrscheinlicher erscheinen lassen, dass der Beschuldigte sich dem Strafverfahren entzieht, als dass er sich ihm stellt.141 In der hierfür anzustellenden Prognose – die Annahme der Fluchtgefahr verlangt kein sicheres Wissen um die sie begründenden Tatsa­ chen; diese müssen nicht zur vollen Überzeugung des Gerichts feststehen142 – sind alle Kriterien zu berücksichtigen, die für und gegen eine wahrscheinliche Flucht sprechen. Darunter fallen insbesondere Informationen darüber, ob dem Beschuldigten durch Kontakte im Ausland oder seine wirtschaftlichen Verhältnisse eine Flucht leichtfiele oder aber ob sein Alter oder berufliche und familiäre Bindungen ihn von der Flucht abhalten werden. cc) Technische Weichenstellungen und erste positive Ergebnisse Ist eine algorithmische Abbildung des Prognoseentscheidungsprozesses in der Theorie insoweit gut vorstellbar, gilt für die technisch-rechtliche Schnitt­ stelle dennoch weiterhin: Der Einsatz algorithmenbasierter Verfahren kann die Justiz vor ein Transparenzproblem stellen.143 Neue Forschungsansätze versprechen jedoch, einfache Regeln für komplexe Entscheidungen sichtbar zu machen – auch für Systeme, die im Strafverfahren nutzbar sind, insbeson­ dere zur Prüfung der Fluchtgefahr.144 Hat sich etwa in praxi gezeigt, dass nur einige wenige maßgebliche Indikatoren (z. B. Alter, Anzahl der Vorstra­ fen, Anzahl an verpassten Gerichtsterminen oder Polizeivorladungen) eine genaue Gefahrenprognose ermöglichen, lassen sich historische Daten nutzen, um ein algorithmisches Modell über das Ergebnis (die verwirklichte Flucht­ gefahr) in Bezug auf die ausgewählten Prädikatoren zu konzipieren.145 Als 141  BGH, NJW 2014, 2372 (2373); OLG Hamm, Beschl. v. 14.1.2010 – 2 Ws 347/09 –, juris, Rn. 11; Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, § 112, Rn. 17. 142  Krauß, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 112, Rn. 23. 143  Vgl. oben S. 331 ff. 144  Jung/Concannon et al., Simple Rules for Complex Decisions, 2017; zusam­ mengefasst in Jung/Concannon et al., Creating Simple Rules for Complex Decisions, Harvard Business Review (Online) vom 19.4.2017. Die Modelle sind – entsprechende Statistiksoftware vorausgesetzt – mit wenig Code ausführbar. Siehe ergänzend zu aktuellen Entwicklungen hinsichtlich der Transparenz algorithmenbasierter Entschei­ dungsprozesse auch die Internetpräsenz der Initiative OpenAI unter https://www.open ai.com/. 145  Vgl. ergänzend zu der statistischen Methode des Feature Selection, womit sich auch ohne Basiswissen über die Indikationsstärke möglicher Merkmale eine Liste mit Faktoren erstellen lässt, etwa Asaithambi, Why, How and When to apply Feature Selection, Towards Data Science (medium.com) vom 31.1.2018.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme399

Output steht ein Modell, das jedem Faktor ein (numerisches) Gewicht zuord­ net. Sind die Gewichtungen zu präzise und detailliert, lassen sie sich runden, um adäquate und verwertbare Ergebnisse zu liefern.146 Sofern die Letztentscheidung in der Hand des Richters verbleibt, kann dieser immer auch weitere, der Maschine unbekannte Kriterien berücksichti­ gen und zu einem anderen Ergebnis gelangen oder das Ergebnis zusätzlich abstützen. Prognosesysteme können aus einem Daten-Input die Wahrschein­ lichkeit für ein bestimmtes Ereignis (Output) folgern. Ist der Input gelabelt, bspw. unterteilt in Alter, Anzahl und Schwere bereits begangener Taten, konkrete Straftat, soziale Bindungen etc., können sie die Wahrscheinlichkei­ ten für eine Flucht oder eine erneute Straffälligkeit errechnen. Diese Werte kann der Richter dann in seine Einschätzung aufnehmen – oder eben nicht. Das könnte noch einen weiteren Nutzen stiften: Entscheidungen, die im Zeitpunkt ihrer Entstehung rechtlich vertretbar oder angesichts der dem Ent­ scheider vorliegenden Informationen richtig sind, sich aber im Nachhinein als falsch erweisen, weil neue Informationen zu Tage treten, können im Be­ reich der Strafrechtspflege gravierende Auswirkungen zeitigen. Wenn der Haftrichter etwa – angesichts der ihm vorliegenden Informationslage recht­ lich zutreffend – keine Untersuchungshaft angeordnet und der Beschuldigte sich dann dem Verfahren entzieht oder weitere erhebliche Straftaten gleicher Art begeht (vgl. § 112a StPO), tragen die Rechtsordnung oder Dritte Schäden davon. Eine automatisierte Musteranalyse solcher Fälle erscheint sinnvoll: Maschinen können Muster auch dort erkennen und Rückschlüsse ziehen, wo Menschen sich ein (kausaler oder korrelativer) Zusammenhang tendenziell verschließt.147 Die Ungenauigkeitsprobleme des COMPAS-Systems konnten Forscher durch deutlich präzisere Prognosewerkzeuge minimieren und ein genaueres Machine-learning-System zur Vorhersage der Flucht- und Wiederholungsge­ fahr erstellen.148 Während die Software an einen Daten-Input anknüpft, der sich aufbereiten und bspw. um sensible Daten und Kriterien bereinigen lässt, verwerten Richter, bisweilen unbewusst, auch solche Informationen, die der 146  Jung/Concannon et al., Simple Rules for Complex Decisions, 2017; zusam­ mengefasst in Jung/Concannon et al., Creating Simple Rules for Complex Decisions, Harvard Business Review (Online) vom 19.4.2017. Die einzelnen Regeln lassen sich grundsätzlich nachvollziehen. Eine solche Vorgehensweise funktioniert am besten, wenn genügend historische Daten zur Verfügung stehen, die sowohl das Endergebnis (also etwa die verwirklichte Fluchtgefahr) als auch einzelne Merkmale (Alter etc.) zumindest enthalten. Auf diese Weise können statistische Modelle die Erfahrung und Intuition von Experten übertreffen. 147  Vgl. etwa die Nachweise zur Definition von Big Data, oben S. 145. 148  Dazu und zum Folgenden Kleinberg/Lakkaraju et al., The Quarterly Journal of Economics 133 (2018), 237 (237 ff.).

400

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Maschine verborgen bleiben – etwa das persönliche Auftreten des Beschul­ digten bzw. Angeklagten, Augenkontakt, Sympathien, Empathie etc. Lernende Algorithmen stehen hier aber vor einem Problem: Sie können nur mit denjenigen Fällen trainieren, in denen der Richter keine Untersu­ chungshaft anordnet – und sich die Verneinung der Haftgründe entweder als zutreffend erwiesen hat oder nicht. Die Fälle, in denen der Beschuldigte in­ haftiert wird, bleiben der Maschine verborgen. Denn eine eingesperrte Person begeht zumeist keine Straftaten, sodass ein Rückschluss auf die Richtigkeit der ursprünglichen Prognose nicht möglich ist. Dieses Problem der fehlenden unabhängigen Validierungsdaten führt dazu, dass die algorithmische Prog­ nose die Entscheidung beeinflusst, welche wiederum den Output beeinflusst (sog. selektive Label).149 Es entsteht eine Feedback-Schleife, die sich selbst verstärkt. Die selektive Etikettierung führt überdies dazu, dass sich Vorurteile verfestigen und die Prognosequalität leidet. Das trainierte Modell von Kleinberg et al. schnitt trotz der strukturellen Schwierigkeiten statistisch deutlich besser als die menschlichen Richter ab: In der Modellsimulation konnte es, bei gleicher Anzahl der Inhaftierten, die Kriminalität um etwa 25 Prozent reduzieren, oder aber eine Reduktion der Inhaftierungsrate um ca. 42 Prozent erreichen, ohne einen Anstieg der Krimi­ nalitätsbelastung auszulösen.150 In Anbetracht der hohen Bedeutung der persönlichen Freiheit (Art. 2 Abs. 2 S. 2 GG) scheint es – neben der erhöhten Sicherheit durch weniger Straftaten – besonders attraktiv, Beschuldigte ohne Flucht- oder Wiederholungsgefahr nicht zu Unrecht zu inhaftieren. Ein Grund für die guten Vergleichsergebnisse der Maschine im Modell scheint zu sein, dass Richter diejenigen Informationen, die der Algorithmus gerade nicht einfließen lassen kann – bspw. den persönlichen Eindruck – teilweise überoder missinterpretieren. In einem kollaborativen Nebeneinander des mensch­ lichen Entscheiders und der maschinellen Unterstützung kann ein Algorith­ mus auch anhand einer Vorhersage der richterlichen Entscheidung aufzeigen, ob und inwieweit die Richter in vergleichbaren Fällen biased oder ihre Risi­ koprognosen unpräzise waren.

149  Dazu etwa Lakkaraju/Kleinberg et al., The Selective Labels Problem, in: Mat­ win/Yu/Farooq (Hrsg.), Proceedings of KDD, 17, 2017, S. 275 (275 ff.), sowie bereits oben S.  382 ff. 150  Kleinberg/Lakkaraju et al., The Quarterly Journal of Economics 133 (2018), 237 (238 ff.). Das Modell ist nicht nur für die Entscheidung über die Untersuchungs­ haft nutzbar, sondern u. a. auch für die Sozialprognose in der Entscheidung über eine Straf(rest)aussetzung zur Bewährung.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme401

dd) Grenze: qualitative Wertungsfragen und Verhältnismäßigkeit Eine rechtsstaatlich bedenkliche Zone erreicht die maschinelle Entschei­ dungsunterstützung insbesondere dort, wo die Prüfung der einzelfallbezoge­ nen Verhältnismäßigkeit (§ 112 Abs. 1 S. 2 StPO) beginnt.151 Der Grundsatz der Verhältnismäßigkeit gilt nicht nur für die Anordnung der Untersuchungs­ haft, sondern ist auch für deren Dauer (§ 120 StPO) und Vollzug (§ 116 StPO) relevant.152 Die Untersuchungshaft darf nicht außer Verhältnis zur erwarteten Strafe stehen; sie anzuordnen, hat aber auch unabhängig von der Straferwartung verfassungsrechtliche Grenzen.153 Der grundrechtlich ge­ schützte Anspruch auf Freiheit der Person (Art. 2 Abs. 2 S. 2 GG) ist stets als Korrektiv mit in die Abwägung einzubeziehen. Verhältnismäßig ist die Un­ tersuchungshaft dann, wenn sie zur Sicherung der Haftzwecke notwendig ist, also der Anspruch der staatlichen Gemeinschaft auf vollständige Aufklärung der Tat sowie auf Bestrafung des Täters nicht durch weniger einschneidende Maßnahmen gesichert werden kann als durch den Freiheitsentzug.154 Die jeweiligen Zwecke nennt das Gesetz in § 112 Abs. 2 StPO – etwa die Anwe­ senheit des Beschuldigten im Prozess oder eine ungestörte Beweisermittlung. In die Abwägung sind insbesondere die Bedeutung der Sache und die Rechts­ folgenerwartung einzubeziehen. Eine Unverhältnismäßigkeit, welche die In­ haftierung ausschließt, ist allerdings positiv festzustellen;155 der Grundsatz in dubio pro reo gilt nicht.156 Es bedarf einer wertenden Abwägung zwischen den konkreten Nachteilen und Gefahren des Freiheitsentzugs für den Beschuldigten und der Bedeutung der Strafsache sowie der zu erwartenden Straffolgen, wobei auch die nachtei­ ligen Folgen für seine berufliche und wirtschaftliche Existenz, sein Gesund­ heitszustand und die Auswirkungen auf die Familie mit zu berücksichtigen sind.157 Die Bedeutung der Strafsache richtet sich nach der gesetzlichen Strafandrohung, der Art des verletzten Rechtsgutes, der konkreten Erschei­ 151  Martini/Nink, Strafjustiz ex machina?, in: Bertelsmann Stiftung (Hrsg.), Auto­ matisch erlaubt?, 2020, S. 44 (59). 152  Böhm/Werner, in: Kudlich (Hrsg.), Müko-StPO, Bd. 1, 2014, § 112, Rn. 3. 153  Vgl. BVerfGE 20, 45 (49). 154  BVerfGE 20, 144 (147); Krauß, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 112, Rn. 42. Für jugendliche Beschuldigte ist dieser Grundsatz der Subsidiarität der Untersuchungshaft ausdrücklich normiert in § 72 Abs. 1 S. 1 JGG. 155  Graf, in: Hannich (Hrsg.), KK-StPO, 8. Aufl., 2019, § 112, Rn. 46; Krauß, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 112, Rn. 42. 156  OLG Düsseldorf, NStZ 1993, 554 (554). 157  Krauß, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 112, Rn. 44.

402

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

nungsform der Tat (etwa sozialschädliche Auswirkungen; Gelegenheits- oder Serientat) und den tatrelevanten Umständen in der Person des Beschuldigten, wie bspw. eine „Neigung“ oder ein „Hang“ zu gleichartigen Straftaten und die Intensität des kriminellen Verhaltens.158 Auch das öffentliche Interesse an der Tatverfolgung und -aufklärung kann relevant sein, insbesondere im Blick auf die Verteidigung der Rechtsordnung.159 Nämliches gilt für das le­ gitime Interesse der Allgemeinheit an der wirksamen Bekämpfung bestimm­ ter Deliktsgruppen (etwa Drogenkriminalität oder Sexualstraftaten), das der Sache eine erhöhte Bedeutung verleihen kann;160 eine durch die Tat mögli­ cherweise hervorgerufene „Erregung der Bevölkerung“ bzw. der Öffentlich­ keit hat indes keine Relevanz.161 Diese einzelfallbezogene, wertende Abwägung auf Basis der konkreten Kerndaten des Sachverhalts sind Maschinen nicht zu leisten im Stande.162 Sie können die Entscheidung zur Anordnung der Untersuchungshaft in eng begrenzten Bereichen unterstützen, etwa treffsichere Prognosen zu Fluchtoder Wiederholungsgefahr treffen. Insbesondere die individuelle Prüfung des Verhältnismäßigkeitsprinzips sprengt aber aktuell den Rahmen maschineller Kompetenz. b) Strafzumessung aa) Normative Vorgaben und Rechtsprechungspraxis Kommt es zu Anklage und Hauptverfahren (§ 170 Abs. 1, § 203 StPO), ist die Strafzumessung (neben dem Schuldspruch) wohl der für einen Angeklag­ ten wichtigste Teil der strafprozessualen Entscheidungen, bringt doch bspw. die Beweisaufnahme oder die juristische Bewertung des Sachverhalts aus seiner Sicht keine besonderen „Überraschungen“ mit sich und entscheiden zuvorderst Schuldspruch und Strafzumessung darüber, ob und wie intensiv die Staatsgewalt in seine Rechtspositionen eingreift. Normativer Ausgangspunkt der Strafzumessung ist § 46 StGB. Das scharfe Schwert des staatlichen Strafens ist an einen persönlichen Schuldvorwurf geknüpft, der sich auf ein bestimmtes (vgl. auch Art. 103 Abs. 2 GG, § 1 StGB) strafbares Verhalten bezieht. Die Subsumtion eines Lebenssachver­ 158  Graf, in: Hannich (Hrsg.), KK-StPO, 8. Aufl., 2019, § 112, Rn. 49; Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62. Aufl., 2019, § 112, Rn. 11. 159  Vgl. etwa OLG Frankfurt, NStZ 1986, 568 (568 f.). 160  Schmitt, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62.  Aufl., 2019, § 112, Rn. 11; Graf, in: Hannich (Hrsg.), KK-StPO, 8. Aufl., 2019, § 112, Rn. 49 m. w. N. 161  BVerfGE 19, 342 (350). 162  Vgl. dazu bereits oben S. 196 ff., insbesondere das Zwischenfazit S. 239 ff.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme403

halts unter einen gesetzlichen Straftatbestand ebnet den Einstieg in die Straf­ zumessung. Das Sanktionenrecht der Praxis orientiert sich dabei an der sog. Spielraumtheorie des BGH:163 Die (retrospektive) Bewertung der auf die Tat bezogenen individuellen Strafzumessungsschuld ergibt einen Rahmen („Spielraum“), der nach oben und unten jeweils durch das gerade noch schuldangemessene Strafmaß begrenzt ist. Innerhalb des anzuwendenden Strafrahmens bestimmt der Richter die individuelle Strafe dann auch (pros­ pektiv) unter Berücksichtigung der Strafzwecke der Spezial- und Generalprä­ vention sowie des tatbestandlichen Schutzzwecks.164 Vereinfacht lässt sich die Strafzumessung in drei Schritte zusammen­ fassen:165 Nachdem der Richter den gesetzlichen Strafrahmen für ein ver­ wirklichtes Delikt ermittelt hat, ordnet er die konkrete Tat in den Strafrah­ men – in die Grenzen der schon und gerade noch schuldangemessenen Strafe – ein, bevor er über Strafart und -höhe für den individuellen Schuld­ rahmen entscheidet. Die für den individuellen Schuldvorwurf relevanten Kriterien nennt das Gesetz – nicht abschließend („namentlich“) – in § 46 Abs. 2 S. 2 StGB: In die Abwägung der für und gegen den Täter sprechen­ den Umstände einzubeziehen sind insbesondere die Beweggründe, die Ge­ sinnung und die Ziele des Täters, die Art der Tatausführung und die ver­ schuldeten Auswirkungen, das Vorleben des Täters sowie sein Verhalten nach der Tat. 163  St. Rspr. seit BGHSt 7, 28 (32, 89); bestätigt u.  a. durch BGHSt 20, 264 (266 f.); 29, 319 (320 f.). Siehe zur Kritik an der Spielraumtheorie nur Hörnle, Vorü­ berlegungen zu DSS in der Strafzumessung, in: Schünemann/Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (398, 400, 402) m. w. N., die davon ausgeht, dass eine Handlungsanweisung zur Strafzumessung gar nicht bezweckt war, sondern die Spielraumtheorie lediglich „die obergerichtliche Rechtsprechung vor ei­ ner Detailprüfung sämtlicher von deutschen Gerichten erlassenen Strafmaßentschei­ dungen […] bewahren“ sollte. Das lässt sich mit guten Gründen so sehen, ändert aber nichts daran, dass die Spielraumtheorie in der Praxis Verwendung findet und den Richtern Anhaltspunkt und Orientierung ist. Hörnle, Tatproportionale Strafzu­ messung, 1999, passim, plädiert daher für ein Modell der Tatproportionalität anstelle der Spielraumtheorie; vgl. auch Giannoulis, Studien zur Strafzumessung, 2014, S.  409 f. 164  Der Richter muss in der Strafzumessung das Erfolgsunrecht, das Handlungs­ unrecht und die persönliche Schuld im engeren Sinne bewerten. Innerhalb des gesetz­ lichen Strafrahmens können die unterschiedlichen Strafzwecktheorien – insbesondere: absolute (von der Strafwirkung unabhängige) versus relative (von der Strafwirkung ausgehende, präventive) Strafzwecktheorien – je nach ihrer Gewichtung im Einzelfall zu verschiedenen Ergebnissen führen: So kann etwa der Präventionsaspekt eine eher milde Strafe begründen, aber aufgrund des verwirklichten Unrechts fordert der Ver­ geltungsaspekt eine höhere Strafe – oder umgekehrt (sog. Antinomie der Strafzwe­ cke). 165  Vgl. Heintschel-Heinegg, in: ders. (Hrsg.), BeckOK StGB, 42. Ed. (Stand: 1.5.2019), § 46, Rn. 3 ff.

404

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

bb) Rationalisierung durch Strafzumessungstabellen? Der normativ verbleibende Spielraum in der Strafzumessung bietet Raum für fachfremde Einflüsse: So lässt sich bspw. eine uneinheitliche Strafzumes­ sungspraxis je nach Region bzw. Gerichtsbezirk beobachten, obgleich eine „ortsübliche Straftaxe“ kein sanktionenrechtlich relevantes Kriterium i. S. d. § 46 StGB ist.166 Um – als Reaktion hierauf – eine bundesweite Konsistenz oder jedenfalls Angleichung zu erreichen, kommen prima facie auch Strafzu­ messungstabellen in Betracht: Entgegen der bisherigen Rechtstradition weit gefasster gesetzlicher Strafrahmen i. V. m. § 46 StGB könnten Tabellen ver­ gleichsweise (hand-)feste Vorgaben für das Strafmaß liefern, die etwa am Delikt, der Anzahl der Vorstrafen und der Höhe des entstandenen Schadens ansetzen. Im Zivilrecht zeigen bspw. Schmerzensgeldtabellen oder die Düsseldorfer Tabelle für Unterhaltsverpflichtungen, dass tabellarische Schematisierung in der Rechtsprechung längst stattfindet und eine partiell wünschenswerte Ver­ gleichbarkeit ermöglicht. Auch Strafzumessungstabellen finden (als Straf­ maßtabellen) bereits Anwendung: Beliebtheit erfreuen sich solche Entschei­ dungshilfen vor allem im Steuerstrafrecht bei den Finanzbehörden,167 die damit Fälle kleinerer und mittlerer Kriminalität (§ 386 Abs. 1 und 2 AO) bis hin zum Strafbefehlsantrag (§ 400 AO) selbst bearbeiten. In der AO finden sich keine eigenen Strafzumessungsregeln, sondern es gilt der Verweis auf die allgemeinen Strafzumessungsgrundsätze des StGB (§ 369 Abs. 2 AO). Dass es mit dem Schuldprinzip (lat. nulla poena sine culpa) des § 46 StGB, das auf einen Vorwurf individueller Vorwerfbarkeit zielt, nicht ohne Weiteres vereinbar ist, wenn der Entscheider auf starre Tabellenwerte fixiert ist, liegt auf der Hand.168 Die Praxis mancher Finanzbehörden und Staatsanwaltschaf­ ten zeigt aber, dass ein gewisser Grad an Schematisierung bereits stattfindet und die Obergerichte dies zumindest dulden. Selbst die Staatsanwaltschaften nutzen tabellarische Schematisierungen als Entscheidungshilfe: Es gibt zwar 166  Vgl.

dazu bereits oben S. 84 ff. etwa Bilsdorfer, NJW 2009, 476 (477). Die Zulässigkeit dieser Praxis insgesamt ablehnend Minoggio, Praxis Steuerstrafrecht 2003, 212 (214 ff.); im Ergeb­ nis ebenso Leibold, NZWiSt 2015, 74 (79). Der BGH hat insofern jedenfalls eine schematische und „tarifmäßige“ Strafzumessung kritisiert und auf § 46 StGB hinge­ wiesen, vgl. BGH, NJW 2009, 528 (531). Die Finanzbehörden veröffentlichen „ihre“ Strafzumessungstabellen nicht. Weil die Tabellen auf „Üblichkeiten“ in den verschie­ denen OFD-Bezirken beruhen und daher rein deskriptiv sind, können sie normative Fragen nicht beantworten – etwa das gleichheitsrechtliche Problem der Uneinheitlich­ keit in den Bundesländern. 168  Vgl. zur verfassungsrechtlichen Herleitung des Schuldprinzips (aus dem Rechtsstaatsprinzip sowie der Menschenwürde) BVerfGE 123, 267 (408, 413), sowie zuvor bereits BVerfGE 20, 323 (332); 58, 159 (162 f.); 80, 367 (387); 95, 96 (140). 167  Vgl.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme405

keine offiziellen Strafzumessungstabellen, aber insbesondere Berufsanfänger können sich an internen, teilweise mündlichen Richtlinien orientieren, die auch von Bundesland zu Bundesland variieren.169 Auch die Rechtsprechung selbst wendet (Teil-)Schematisierungen an – etwa für einen „Vermögensver­ lust großen Ausmaßes“ (etwa § 263 Abs. 3 S. 2 Nr. 2 StGB), den der BGH nur mehr bei Schadenswerten ab 50.000 € annimmt.170 Der Deutsche Juristentag 2018 hat sich mit Fragen der Entscheidungsun­ terstützung im Strafzumessungsrecht befasst und u. a. sog. Sentencing Guidelines nach US-amerikanischem Vorbild mit deutlicher Mehrheit abgelehnt.171 Eine Einflussnahme auf den Richter durch starre tabellarische Vorgaben, Strafzumessungskataloge nach lokalen Strafmaßtraditionen sowie bindende Strafzumessungsrichtlinien nach Art der Sentencing Guidelines kam für die klare Mehrheit der abstimmungsberechtigten Mitglieder nicht in Betracht. Auch Vorschläge für eine abgeschwächte Form, bspw. Orientierungstabellen, konnten sich nicht durchsetzen. Tabellarische Vorgaben und Kataloge, so die Befürchtung, könnten die Vielfalt möglicher Fallgestaltungen nicht abbilden und daher dem Einzelfall nicht gerecht werden.172 Den Bedenken ist im Ergebnis zuzustimmen. Strafzumessung ist individu­ ell auf Tat und Täter zugeschnitten. Sie rein schematisch-tabellarisch zu er­ mitteln, kann der normativen Forderung nach Einzelfallgerechtigkeit und dem auf eine qualitative Bewertung individueller Schuld ausgerichteten Schuldprinzip nicht vorbehaltlos entsprechen. Strafzumessungstabellen und Sentencing Guidelines sind nicht das Mittel der Wahl für eine konsistentere, rationalere Strafzumessung.173 169  Diese internen Richtlinien sind nicht zu verwechseln mit den veröffentlichten und in Teilen kommentierten „Richtlinien für das Strafverfahren und das Bußgeldver­ fahren (RiStBV)“, denen aber ebenfalls keine Gesetzeskraft zukommt. Ein weiteres Beispiel ist das Hauptzollamt, das sich ebenfalls intern tabellarischer Vorgaben be­ dient, z. B. für die Entscheidung, bis zu welcher Schadenshöhe beim Sozialleistungs­ betrug einer Einstellung des Verfahrens zugestimmt wird. 170  Vgl. BGHSt 48, 360 (360, Ls.), bestätigt bzw. übernommen für eine Steuer­ hinterziehung „großen Ausmaßes“ gem. § 370 Abs. 3 S. 2 Nr. 1 AO in BGHSt 53, 71 ff. 171  Deutscher Juristentag e. V., Beschlüsse zum 72. Deutschen Juristentag, 2018, S. 20 f.; vgl. aber auch Hoven, KriPoZ 2018, 276 (289 f.). 172  Deutscher Juristentag e. V., Beschlüsse zum 72. Deutschen Juristentag, 2018, S. 21. 173  Wenngleich Vorschlägen zu Strafzumessungstabellen oder Sentencing Guidelines hier nicht das Wort geredet werden soll, kann das Argument der „Vielfalt der möglichen Fallgestaltungen“ grundsätzliche, rechtstheoretische Bedenken nur bedingt tragen, weil eben diese Vielfalt sich durchaus auch tabellarisch widerspiegeln könnte; die praktische Umsetzbarkeit ist dann eine Frage der feingliedrigen, detaillierten Aus­ gestaltung. Auch bislang entspricht ein vollständig „stufenloses“ Vorgehen nicht der

406

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

cc) Algorithmenbasierte Entscheidungsunterstützung Neben Strafzumessungstabellen kommen grundsätzlich auch algorithmen­ basierte Systeme in Betracht, um die richterliche Sanktionsentscheidung zu unterstützen oder zu vereinfachen sowie fachfremde Einflüsse zu reduzie­ ren.174 Die Idee eines computergenerierten Strafzumessungsvorschlags bzw. computergestützter Entscheidungshilfen in der Strafzumessung ist nicht neu.175 Gewachsene technische Möglichkeiten und neue Erkenntnisse darü­ richterlichen Entscheidungspraxis, weil Menschen sich in numerischen Entscheidun­ gen (wie der Strafzumessung) grundsätzlich an einem irgendwie gearteten Referenz­ wert orientieren. Um zu großer regionaler Wertungsunterschiede Herr zu werden, hat der Deutsche Juristentag 2018 stattdessen (vgl. ibid.) eine auf gesetzlicher Grundlage beruhende Rückfall- und Verlaufsstatistik vorgeschlagen, um mehr Informationen darüber zu erhalten, welchen Einfluss Strafen auf die tatsächlichen Rückfallquoten haben. Auch der Vorschlag zur Einrichtung einer zentralen Entscheidungsdatenbank zwecks Erweiterung des richterlichen Horizonts stieß auf Zustimmung; siehe dazu auch bereits Strauch, Nutzung juristischer Datenbanken, in: Rüßmann (Hrsg.), FS Käfer, 2009, S. 387 (388 ff.), sowie zu diesem Vorschlag gesondert unten S. 442 ff. Mittel- bis langfristig kann es auch sinnvoll sein, das Strafzumessungsrecht und kri­ minologische Grundlagen in die Ausbildung der Strafrechtsstage während des Vorbe­ reitungsdienstes aufzunehmen: Die Bedeutung der Strafzumessung in der Praxis – insbesondere durch ihre Auswirkungen auf Einzelschicksale und die massiven Grund­ rechtseingriffe – und ihre stiefmütterliche Behandlung in der Ausbildung liegen nicht kongruent. 174  Die nachfolgend skizzierten Überlegungen für ein Unterstützungssystem grei­ fen dort, wo der Richter sich bereits persönlich von der Täterschaft sowie der indivi­ duellen Schuld des Angeklagten überzeugt hat und es anschließend (nur noch) um das Strafmaß geht. Denkbar ist eine technische Unterstützung indes auch für die Frage, ob der Angeklagte die ihm zur Last gelegte Tat begangen hat. In der Literatur wird zur Bestimmung der Täterschafts- bzw. Schuldwahrscheinlichkeit u. a. der Einsatz sog. Bayesscher Netze diskutiert, vgl. Schweizer, Beweiswürdigung und Beweismaß, 2015, S.  198 ff.; Glöckner/Towfigh, DRiZ 2015, 270 (273). Janßen, Bayessche Netze in der Rechtsprechung, 2017, S. 9 ff., 41 ff., beschreibt die Überzeugungsbildung des Richters als subjektives statistisches Entscheidungsproblem und illustriert ihre Me­ thode anhand des Strafverfahrens gegen den ehemaligen Wettermoderator Kachel­ mann, indem sie die Beweislage als Bayessches Netz darstellt und auswertet. Vgl. zum Einsatz Bayesscher Modelle in der strafrechtlichen Entscheidungsfindung auch die Diskussion bei Prakken, Argument Schemes for Discussing Bayesian Modellings of Complex Criminal Cases, in: Wyner/Casini (Hrsg.), Legal Knowledge and Infor­ mation Systems, 2017, S. 69 (69 ff.). Denkbar ist auch der assistierende Algorithmen­ einsatz für die Entscheidung über die Strafart (Geld- oder Freiheitsstrafe). 175  Vgl. etwa Köberer, Iudex non calculat, 1996, S. 74 ff., 169 f., der von einer Unmöglichkeit, Strafzumessung zu automatisieren und zu formalisieren, ausgeht und diese These u. a. aus dem Scheitern bisheriger Versuche schließt. Zu den Schlussfol­ gerungen Köberers kritisch Philipps, MschrKrim 1998, 263 (264 ff.). Siehe zu den Möglichkeiten, künstliche neuronale Netze in regelbasierte Expertensysteme für straf­ rechtliche Entscheidungen zu integrieren und nutzbar zu machen, auch bereits H ­ aman, Integration neuronaler Netze in regelbasierte juristische Expertensysteme, 1998,



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme407

ber, wie sehr insbesondere sanktionenrechtliche Entscheidungen Verzerrun­ gen unterliegen,176 laden indes dazu ein, mögliches Rationalisierungspoten­ zial auch weiterhin zu eruieren. (1) Stand der Strafzumessungsdogmatik als Hürde Die jüngere Strafrechtsliteratur sieht ein derzeit kaum zu überwindendes Problem der praktischen Ausgestaltung und Umsetzung eines Strafzumes­ sungsunterstützungssystems im ungenügend entwickelten Diskussionsstand der sanktionenrechtlichen Dogmatik in Lehre und Praxis: So mangelt es be­ reits an einem Konsens hinsichtlich der verschiedenen Strafzwecktheori­ en.177 Der Gesetzgeber hat seit Einführung des StGB (in Kraft seit 1.1.1872) bewusst darauf verzichtet, die Strafzwecke – etwa Vergeltung, Spezial- oder Generalprävention – und ihre jeweilige Gewichtung ausdrücklich normativ festzuschreiben. Kann aber die unterschiedliche Gewichtung einzelner Straf­ zwecke – bspw. des Präventionsgedankens – zu abweichenden Strafen führen und lässt das Gesetz den Richtern insoweit freie Hand, steht die jedenfalls auf einen Grundkonsens angewiesene Konzeption eines Unterstützungssys­ tems vor organisatorischen Schwierigkeiten. Die mit der De-facto-Geltung der Spielraumtheorie verbundenen Unge­ nauigkeiten erschweren es, einen Ausgangspunkt für ein in der Praxis auch nutzbares Programm zu finden.178 Um numerische Werte zu ermitteln – ins­ S. 101 ff.; skeptisch hinsichtlich einer Nutzung in der Strafzumessung hingegen Maurer, Komparative Strafzumessung, 2011, S. 90 f. 176  Vgl. oben S. 53 ff. 177  Hörnle, Vorüberlegungen zu DSS in der Strafzumessung, in: Schünemann/ Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (394 f., 409 f.). Das betrifft in praxi etwa die Gewichtung der einzelnen Strafzumessungskriterien, die Relation des Handlungs- zum Erfolgsunrecht, die Bedeutung der Vorstrafen im Ver­ gleich zur Tatschwere u. v. a. m. Der Stand der Dogmatik bleibt im Sanktionenrecht bspw. deutlich hinter dem der Tatbestandslehre zurück. 178  Vgl. Hörnle, Vorüberlegungen zu DSS in der Strafzumessung, in: Schüne­ mann/Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (400), die für das Gelingen eines DSS „als erste Bedingung eine normative Entscheidung“ (Hervorhebung im Original) sieht – nämlich „die Verabschiedung der Spielraumtheo­ rie“. Mit dem Ziel fairer und rechtssicherer Bestrafungen plädiert auf eine tatpropor­ tionale, an der Tatschwere orientierte Strafzumessung und damit einen geringeren Einfluss präventiver Erwägungen auch Giannoulis, Studien zur Strafzumessung, 2014, S. 14 f. Der in der Spielraumtheorie verbleibende Rahmen steht in Gefahr, eine Beliebigkeit der Strafentscheidung zu suggerieren, welche dem Verhältnismäßigkeits­ grundsatz und dem Gebot der Gleichbehandlung widerspräche. Mit guten Gründen lässt sich fragen, welcher Richtigkeitsanspruch einem Urteil innewohnt, für das das Gericht nicht in Anspruch nimmt, die (einzig) zutreffende Tat- und Schuldbewertung zu bescheiden (vgl. a. a. O., S. 38 ff.). Die in der Rechtsprechung üblicherweise prak­

408

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

besondere die Höhe einer Freiheits- oder Geldstrafe – steuert auch § 46 Abs. 2 S. 2 StGB keine greifbare Präzision bei: Dessen Merkmalsliste ist nicht abschließend179 und zudem nicht in allen Delikten gleichermaßen aus­ sagekräftig; es bedürfte einer deliktsspezifischen Liste für jeden einzelnen Tatbestand.180 Die Grenzen der Dogmatik und der normativen Präzision zeigen sich vor allem in der sog. Umwertung der individuellen Schuld in einen numerischen Wert.181 Wie genau der Entscheider ein abstraktes Straf­ bedürfnis in reale Strafmaßeinheiten umzuwerten hat, zeichnet das Gesetz nicht eindeutig vor. Solange die grundlegenden relevanten Fragen der Straf­ zumessungsdogmatik nicht (konsensual oder normativ) geklärt sind, kann die Entwicklung eines entsprechenden Programms und erst recht ein flächende­ ckender Praxiseinsatz nicht gelingen, weil dazu die Offenlegung der Ent­ scheidungsparameter nötig wäre – während die derzeitige, tatsächliche Straf­ zumessungspraxis (auch) intuitive und traditionalistische, an lokalen Gebräu­ chen orientierte Herangehensweisen zulässt.182 Der ungeklärten Dogmatikfragen könnte sich zunächst eine (einzurich­ tende) Strafzumessungs-Expertenkommission auf Bundesebene annehmen, in dem Richter sowie Vertreter der Strafrechtswissenschaften, der Staatsanwalt­ schaften und auch Strafverteidiger vertreten sind.183 tizierte Spielraumtheorie kann daher in erster Linie aus Sicht des Revisionsrichters überzeugen, dem eine über die Vertretbarkeitskontrolle hinausgehende Richtigkeitsprüfung bereits aus Kapazitätsgründen verwehrt sei, während der Tatrichter durchaus für sich in Anspruch nehmen kann und darf, die richtige (eben tatproportionale) Strafe zu finden – und diese Entscheidung i. S. d. § 267 Abs. 3 S. 1 StPO nachvollziehbar zu begründen (a. a. O., S. 47). Siehe zur Frage nach der „einzig richtigen Entscheidung“ bereits oben S. 95 ff. Vgl. zu den Thesen Giannoulis’ auch Heghmanns, ZIS 2016, 879 (879 ff.). 179  Vgl. bspw. jüngst zur Diskussion um die „Lebensleistung“ eines Täters als Strafzumessungskriterium Stadler, Die Lebensleistung des Täters als Strafzumes­ sungserwägung, 2019, S. 271 ff. 180  Hörnle, Vorüberlegungen zu DSS in der Strafzumessung, in: Schünemann/ Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (404 f.). 181  Vgl. Streng, in: Kindhäuser/Neumann/Paeffgen (Hrsg.), NK StGB, 5. Aufl., 2017, § 46, Rn. 26 f.; Streng, NStZ 1989, 393 (394 f., 400). 182  Hörnle, Vorüberlegungen zu DSS in der Strafzumessung, in: Schünemann/ Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (410). Rechts­ sicherheit und die Vorhersehbarkeit staatlichen Handelns sind unerlässlich; vgl. auch Giannoulis, Studien zur Strafzumessung, 2014, S. 295, der den „Kampf um Voraus­ sehbarkeit als […] Prämisse jedes rationalen Projekts“ versteht. 183  Siehe zu den möglichen Rahmenbedingungen eines solchen (politisch unab­ hängigen) Gremiums und seiner Zusammensetzung Giannoulis, Studien zur Strafzu­ messung, 2014, S. 406 f. Das Gremium könnte insbesondere Strafmaßempfehlungen als Richtlinien mit Empfehlungscharakter aussprechen, bspw. nach dem Vorbild der Richtlinien für das Strafverfahren und das Bußgeldverfahren (RiStBV). Die Forde­ rung, eine Strafzumessungskommission einzurichten, war auch Gegenstand des Juris­



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme409

(2) Konzeption (a) Skalen und Fuzzy-Logik – Entscheidungsassistenz bei Eigentums- und Vermögensdelikten Im materiellen Strafrecht sind formalisierende Berechnungen trotz der dog­ matischen Schwierigkeiten im Grundsatz geeignet, dem Richter Vorschläge für die Entscheidung zu liefern.184 Um individuelle Schuld in einem numeri­ schen Wert abzubilden, entwirft Georgios Giannoulis zwei konkrete Modelle: eine Schadenshöhe- und Strafzumessungstabelle auf Basis einer Skalenbil­ dung und ein EDV-basiertes Entscheidungsunterstützungssystem.185 Ein die Strafzumessung unterstützendes regelbasiertes System müsste auf einem konkreten Strafzumessungsmodell beruhen – etwa auf der Lehre der tatpro­ portionalen Strafzumessung;186 denkbar sind freilich auch andere Modelle. Für die Konzeption des Systems ist es sinnstiftend, den Anwendungsbereich (zunächst) auf ein Delikt oder eine Deliktsgruppe zu begrenzen – bspw. auf die Strafzumessung bei Kernstraftaten gegen Eigentum und Vermögen, also insbesondere Diebstahl, Unterschlagung, Betrug, Untreue, Sachbeschädigung, Hehlerei: In diesen Tatbeständen ist die Rechtsgutsverletzung anhand eines geldwerten Schadens vergleichsweise gut quantifizierbar. Anders ist dies etwa bei Körperverletzungen, für die eine qualitative Wertung in einem gesonder­ ten Schritt in eine quantitative Strafhöhe zu überführen ist; auch Termini wie „Gewalt gegen eine Person“ (§ 249 Abs. 1 StGB) oder „besonders erniedri­ gen“ (§ 177 Abs. 6 S. 2 Nr. 1 StGB) lassen sich nur schwer numerisch be­ schreiben.187 Eigentums- und Vermögensdelikte haben hingegen als wichtigs­

tentags 2018, vgl. Kaspar, Gutachten C zum 72. Deutschen Juristentag, 2018, S. C 113 f. Vgl. jüngst auch Kaspar/Höffler/Harrendorf, Neue Kriminalpolitik 32 (2020), 35 (47 ff.), die auch die Strafzumessungsdatenbank, welche in Japan u. a. bei der Beteiligung von Laienrichtern (Saiban’in) zum Einsatz kommt, als positives Bei­ spiel nennen. 184  So im Ergebnis auch Hörnle, Vorüberlegungen zu DSS in der Strafzumessung, in: Schünemann/Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (394); Philipps, Unbestimmte Rechtsbegriffe und Fuzzy Logic, in: Haft/Hasse­ mer/Neumann et al. (Hrsg.), Strafgerechtigkeit, 1993, S. 265 (265 ff.). 185  Zum Folgenden Giannoulis, Studien zur Strafzumessung, 2014, S. 295 ff. 186  Siehe zum (vergleichsweise neuen) Modell der tatproportionalen Strafzumes­ sung grundlegend Hörnle, Tatproportionale Strafzumessung, 1999, passim. 187  Dabei erscheint eine lineare Beziehung zwischen Schaden und Strafe weniger sinnvoll als eine Schadensskala unter Einsatz einer Potenzfunktion, weil ab einer be­ stimmten Schadenshöhe der Mehrschaden die Tatschwere weit weniger beeinflusst als bei Kleinstschäden, vgl. Giannoulis, Studien zur Strafzumessung, 2014, S. 196 ff., 205 ff. So erzeugt bspw. eine Verzehnfachung der Schadenssumme (nur) etwa die Verdoppelung der Tatschwere.

410

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

ten Strafzumessungsfaktor die Schadenshöhe gemeinsam, welche das Er­ folgsunrecht maßgeblich prägt und dabei gut mess- und typisierbar ist.188 Bei Giannoulis mündet diese Verknüpfung einer Schadens- mit einer Straf­ skala nicht in Endstrafmaße, sondern in Einstiegswerte, die dann den Aus­ gangspunkt für weitere Zumessungserwägungen bilden.189 Sein System ba­ siert auf der Fuzzy-Logik, welche die Zwischen- und Graustufen der Welt besser abbilden kann als die Schwarz-Weiß-Muster der binären Logik:190 Elemente gehören nach klassischer Logik entweder zu einer Menge oder nicht, in der Fuzzy-Logik kann ein Element einer Menge hingegen auch mehr oder weniger, zu einem gewissen Grad angehören.191 Fuzzy-Logik er­ möglicht also einen Übergang der vagen linguistischen Variablen – etwa „mild“ oder „hart“ beim Strafmaß; „leichte“, „mittlere“ und „grobe“ Fahrläs­ sigkeit; „hoher Wert“ eines Schadens – in numerische Begriffe wie etwa die exakte Höhe einer Freiheitsstrafe.192 Die Rückübersetzung gleitender Be­ griffe in eine wiederum präzise numerische Entscheidung heißt „Defuzzyfizierung“;193 die Entscheider gehen so von linguistischen Werten aus und spezifizieren sie anschließend numerisch. Die Fuzzy-Logik kann Ungenauigkeiten, Übergänge, verwischte Grenzen und Grautöne abbilden, sodass das Ergebnis auch Einordnungen wie „gering“, „mittel“ oder „hoch“ 188  Auch die bisweilen kongruenten Zumessungsvorgaben, etwa in § 259 Abs. 2 i. V. m. § 248a; § 263 Abs. 4 i. V. m. § 243 Abs. 2, § 248a; § 266 Abs. 2 i. V. m. § 243 Abs. 2, §§ 248a, 263 Abs. 3 S. 2 Nr. 2 StGB, zeigen, dass der Gesetzgeber der Scha­ denshöhe erhebliche Bedeutung angedacht hat und die Delikte sich daher gut in einer Gruppe zusammenfassen lassen. Die Schadenshöhe ist freilich nicht der einzige Straf­ zumessungsfaktor, was bspw. die sog. „Enkeltrick“-Fälle und die besondere Schutz­ bedürftigkeit der Opfer erkennen lassen. 189  Giannoulis, Studien zur Strafzumessung, 2014, S. 299, 303. 190  Giannoulis, Studien zur Strafzumessung, 2014, S. 309 ff., insbesondere 368 ff. Siehe zu Begriff und Möglichkeiten der Fuzzy-Logik bereits oben S. 217 f. 191  Philipps, JurPC 1995, 3256 (3259). 192  Philipps, Ein bißchen Fuzzy Logic für Juristen, in: Tinnefeld/Philipps/Weis (Hrsg.), Institutionen und Einzelne im Zeitalter der Informationstechnik, 1994, S. 219 (222 f.); Philipps, MschrKrim 1998, 263 (270). Die Kombination „Strafzumessung und Fuzzy-Logik“ ist allerdings nicht neu, vgl. bereits die Grundzüge eines Unterstüt­ zungssystems für die Strafzumessung bei Raub und Vergewaltigung bei Schild, Intel­ ligent Computers for Criminal Sentencing, in: McCarty (Hrsg.), Proceedings of ICAIL ‘95, 1995, S. 229 (235 f.). Vgl. auch Yager, Decision Sciences 12 (1981), 589 ff. Ein plastisches Beispiel für die Anwendung der Fuzzy-Logik auf Entscheidun­ gen, die mehrere Kriterien berücksichtigen müssen, liefert Philipps, JurPC 1995, 3256 (3256 ff.); siehe ergänzend auch Philipps, Unbestimmte Rechtsbegriffe und Fuzzy Logic, in: Haft/Hassemer/Neumann et al. (Hrsg.), Strafgerechtigkeit, 1993, S.  265 ff. 193  Vgl. Munte, Rechtstheorie 32 (2001), 533 (535); Philipps, Ein bißchen Fuzzy Logic für Juristen, in: Tinnefeld/Philipps/Weis (Hrsg.), Institutionen und Einzelne im Zeitalter der Informationstechnik, 1994, S. 219 (224).



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme411

oder bspw. ein Wert zwischen 0 und 10 (etwa für das Maß der „Schuld“) sein kann. Einem solchen System könnte der Anwender bspw. drei (zuvor ermittelte) Eingangswerte als Input eingeben – das Erfolgsunrecht (also die Schadens­ höhe), das Handlungsunrecht (z. B. „neutral“ bzw. eine numerische Überset­ zung, etwa „0 Punkte“) und das Maß der Schuld (etwa „Vollschuld“ bzw. wiederum eine numerische Übersetzung, etwa „0 Punkte“).194 Möglich ist auch die Eingabe weiterer Strafzumessungsumstände, insbesondere präventi­ onsrelevanter Faktoren. Gegenüber Strafzumessungstabellen ist ein solches Konzept im Vorteil, weil der Richter bereits für den Schaden eine genaue Zahl (etwa 18.345 €) eingeben kann und nicht auf Intervalle (etwa „18.000 bis 18.499 €“) rekurrieren muss, was präzisere Ergebnisse ermöglicht. Für Eigentums- und Vermögensdelikte lässt sich auf diese Weise eine fein austarierte Skala des Erfolgsunrechts erreichen, in der sich bestimmte Scha­ denshöhen mit bestimmten Strafhöhen verknüpft sehen. Im nächsten Schritt bedürfte es präziser Modifikationen für das Handlungsunrecht, die Schuld im engeren Sinne und evtl. weitere denkbare Faktoren; dafür bieten sich wiede­ rum unverbindliche Empfehlungen einer einzurichtenden Strafzumessungs­ kommission an.195 Die Fuzzy-Logik ist wegen der Unschärfen natürlicher Sprache grundsätz­ lich gut geeignet für sanktionenrechtliche Entscheidungen, berücksichtigt ihre Anwendung doch, dass benachbarte Kategorien wie „leicht“ und „mittel­ schwer“ (etwa in Bezug auf die Tatschuld) oft nicht trennscharf zu unter­ scheiden sind und Überschneidungsmengen aufweisen.196 In einem algorith­ menbasierten System lassen sich mehrere solcher unscharfen Kategorien, insbesondere die Abstufungen von Erfolgs- und Handlungsrecht sowie die Strafschwere, verknüpfen, um trotz der integrierten Unschärfen ein präzises Resultat in Form einer ganz bestimmten Strafhöhe zu errechnen. Indem das Unterstützungssystem nur einen Vorschlag, eine erste Einord­ nung generiert, bleibt es dem Richter unbenommen, weitere aus seiner Sicht relevante Aspekte für die Strafzumessung zu berücksichtigen und zu einem anderen Ergebnis zu kommen. So zeigt bspw. der Diebstahl eines Haares aus einer DNA-Probe, das als Beweismaterial in einem Mordprozess dienen sollte,197 dass die Anknüpfung an die ökonomische Schadenshöhe – allge­ 194  Giannoulis,

Studien zur Strafzumessung, 2014, S. 372, 384. Studien zur Strafzumessung, 2014, S. 296 ff. 196  Vgl. Munte, Rechtstheorie 32 (2001), 533 (534  f.); Adrian, Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Methodenlehre, 2009, S. 703 ff. 197  Beispiel übernommen von Giannoulis, Studien zur Strafzumessung, 2014, S. 306. 195  Giannoulis,

412

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

meiner: an Regelfälle oder Standards – nicht allein ausreicht und der Richter stets einen Blick für Ausnahmefälle haben muss. Daneben bietet die kompa­ rative Logik der Eigentums- und Vermögensdelikte aber einen guten Aus­ gangspunkt für algorithmenbasierte Entscheidungsunterstützungssysteme. (b) D  atenbasierte Systeme – Ausblick und „Problem“ der fehlenden präjudiziellen Wirkung Grundsätzlich sind die Einsatzmöglichkeiten algorithmenbasierter Systeme allerdings nicht auf die Strafzumessung bei Eigentums- und Vermögensdelik­ ten beschränkt. So könnte ein Assistenzsystem bspw. auf eine große Daten­ bank zurückgreifen sein, die viele verschlagwortete Einzelaspekte enthält.198 Die Strafhöhe für den Täter einer gefährlichen Körperverletzung (§ 224 Abs. 1 StGB)199 könnte sich dann bspw. anhand eines Vergleichs mit rechts­ kräftigen Entscheidungen ergeben; eine algorithmische Regressionsanalyse könnte Korrelationen zwischen den Inputvariablen und der Outputvariablen (Strafhöhe) suchen. Inputvariablen könnten insbesondere Tatmodalitäten (Gewalt, Ausmaß der Schädigung etc.) und (weitere) Aspekte des § 46 StGB (Vorstrafen, Motiv etc.) sein. Diese Kriterien wären zuvor verbal oder bereits quantifiziert zu beschreiben und einzugeben. Ein mit Vergleichsfällen trai­ niertes Modell müsste dann zunächst in einer Testphase nachweisen, dass seine vorgeschlagenen bzw. geschätzten Strafhöhen statistisch ausreichend nah an den tatsächlich verhängten Strafen der (echten und rechtskräftigen) Fälle liegen.200 Mit der Regressionsanalyse (etwa durch künstliche neuronale Netzwerke) ist davon auszugehen, dass ein Bestand an Entscheidungen auch verdeckte Gesetzmäßigkeiten enthält, die es statistisch zu ermitteln und zu 198  Mögliche Probleme datenbasierter Modelle sind (allgemein) eine zu kleine Datenbasis und eine schlechte Datenqualität, vgl. bereits oben S. 390 f. sowie zu den Diskriminierungsrisiken S. 167 ff. Ein großes Problem hierbei wäre vor allem die vergleichsweise kleine Zahl an veröffentlichten Gerichtsentscheidungen in Deutsch­ land. Vgl. dazu auch unten S. 442 ff. 199  Als Beispiel eignet sich § 224 StGB besser als § 223 StGB, weil die einfache Körperverletzung dem Entscheider neben der Entscheidung über die Strafhöhe auch noch eine Entscheidung über die Strafart abverlangt. Der Algorithmus müsste also noch eine weitere Outputvariable vorhalten oder aber das Modell müsste anhand ei­ nes zusätzlichen Algorithmus zuvor die Entscheidung über die Strafart „erlernen“. 200  Ein auf linearer Regression basierendes Modell ist freilich nur sinnvoll, wenn die Korrelationen zwischen den Inputvariablen und der Outputvariable linear sind. In Betracht kommen auch andere Formen; die Wahl der Algorithmen ist auch abhängig von der Datenmenge und -qualität. Welche Herangehensweise die besten Ergebnisse bringt, müssten daher umfangreiche Tests beleuchten. Ebenso bedürfte es KostenNutzen-Analysen, die insbesondere auch Hardwareressourcen und Rechenleistung berücksichtigen.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme413

simulieren gilt.201 Neue Fälle interpoliert das System mit dem Ziel der ge­ rechten Homogenisierung i. S. d. Art. 3 Abs. 1 GG – Gleiches gleich und Ungleiches ungleich zu behandeln.202 Das Entscheidungsmodell wäre nicht starr, sondern dynamisch: Anpassungen sind bspw. möglich, wenn ein Mus­ terfall, der von den bisherigen Fällen abweichend bewertet wird, Eingang in die Menge der Lernmuster findet, und dies auch die Ausstrahlungswirkung der älteren Fälle verändert – etwa in einem Trend zu einer milderen Bestra­ fung für bestimmte Konstellationen.203 Denn ähnlich dem menschlichen Entscheidungsprozess204 folgen datenbasierte Entscheidungssysteme nicht einer strikten Logik, sondern bauen vielmehr auf Heuristiken und ein „Ler­ nen vom Vergleichbaren“. Historische Vergleichsfälle als Ausgangspunkt der Entscheidungsfindung zu nutzen, kann sich in einer Rechtsordnung, die auf Präjudizialität verzich­ tet, indes zum Legitimationsproblem auswachsen. Können sogar Empfehlun­ gen oder Vorschläge des Revisionsgerichts nicht mehr sein als Anregungen der eigenen Strafzumessung des Tatrichters,205 sodass ein Abweichen keinen revisiblen Rechtsfehler begründet, und ist auch die Strafpraxis anderer Ge­ richte grundsätzlich ohne Belang,206 darf der Richter grundsätzlich auch ei­ nen algorithmisch generierten Entscheidungsvorschlag, der auf einen Ver­ gleich mit bisherigen Entscheidungen zurückgeht, nicht als alleiniges Stand­ bein seiner Strafzumessung heranziehen. Maßgeblich ist immer die individu­ elle Schuld des Täters im konkreten Fall: „In anderen Urteilen verhängte Strafen führen zu keiner, wie auch immer beschaffenen, rechtlichen Bindung des Gerichts bei der Strafzumessung.“207 Freilich ist es zulässig, die Höhe anderweit verhängter Strafen – neben anderen Aspekten – mit in die Strafzu­ messungserwägungen einfließen zu lassen.208 Daraus folgt nicht, dass dieses mögliche Strafzumessungskriterium aus Rechtsgründen als bestimmend (vgl. § 267 Abs. 3 S. 1 StPO) anzusehen und daher ausdrücklich zu erörtern ist, denn die „Erörterung sämtlicher vorstellbarer Strafzumessungsgesichtspunkte ist [ohnehin] nicht möglich und daher auch nicht geboten“209. Die Orientie­ rung an rechtskräftigen Entscheidungen oder den Wertungen anderer Richter 201  Philipps,

MschrKrim 1998, 263 (269). sind strafrechtliche Fälle und Lebenssachverhalte nie exakt „gleich“. Sie können aber immerhin so weit vergleichbar sein, dass (nur) eine gleiche Bewer­ tung und Entscheidung gerechtfertigt ist. 203  Philipps, MschrKrim 1998, 263 (269 f.). 204  Vgl. oben S. 29 ff. 205  Vgl. etwa BGHSt 53, 71 (86 ff.). 206  BGHSt 28, 318 (324); Fischer, StGB, 66. Aufl., 2019, § 46, Rn. 75. 207  BGH, Beschl. v. 23.8.2006 – 1 StR 327/06 –, juris, Rn. 7. 208  Vgl. nur BGH, NStZ-RR 1997, 196 (197). 209  BGH, Beschl. v. 23.8.2006 – 1 StR 327/06 –, juris, Rn. 8. 202  Freilich

414

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

ist jedenfalls nicht systemwidrig, wie etwa § 196 GVG (Kollegialgerichte) zeigt. Der Vergleich mit anderen Entscheidungen kann nur, aber immerhin, Ausgangs- und Orientierungspunkt innerhalb des Entscheidungsspielraums sein. Allerdings hat der BGH auch solche Entscheidungen beanstandet, die erheblich vom üblichen Strafmaß in vergleichbaren Fällen abweichen, weil sie die Besonderheiten des abweichenden Falles nicht verständlich dargestellt haben.210 Komparative Strafzumessung erfüllt daher eine anerkannte Orien­ tierungsfunktion: Ein deutliches Abweichen vom Üblichen evoziert den Ver­ dacht auf ein rechtsfehlerhaftes Strafmaß und die Pflicht einer gesonderten Begründung. Die fehlende präjudizielle Wirkung bereits ergangener Rechtsprechung spricht jedoch nur auf den ersten Blick a priori gegen den Einsatz datenba­ sierter Systeme: Auch in der „analogen Welt“ gleicht der Richter den Fall – schon um einen Referenzpunkt in Form einer gedanklichen Absicherung zu erhalten – mit rechtskräftigen (ober- und untergerichtlichen) Entscheidungen in vergleichbaren Fällen ab. Dabei ordnet er den konkreten Fall zunächst (wenngleich unbewusst) in eine Ordinalskala ein, er ermittelt also die ver­ wirklichte (relative) Tatschwere im Vergleich mit anderen Urteilen zum sel­ ben Straftatbestand; erst danach folgt die Zuordnung zu einem numerischen Strafmaß, das sich in einer Rationalskala abbilden lässt.211 Ein mit dem Ziel größerer Konsistenz algorithmisch generierter unverbindlicher Entschei­ dungsvorschlag ohne rechtliche (und faktische) Bindungswirkung212 kommt daher keiner Präjudizienwirkung gleich. (3) Zwischenergebnis und Praxisbezug der Überlegungen Nicht Tabellen oder mathematische Formeln, sondern Einzelfallgerechtig­ keit und das Schuldprinzip sind Ausgangs- und Zielpunkt der Strafzumes­ sung. Schuld ist nicht ohne Weiteres quantifizierbar, auch (konkrete) präven­ tive Überlegungen lassen sich nur schwer automatisieren. Algorithmenba­ sierte Entscheidungsunterstützungssysteme zu konzipieren ist daher aufwen­ 210  Vgl. BGHSt 28, 318 (324); BGH, StV 1986, 57 (57); 1987, 530 (530); 1990, 494 (494); siehe auch Streng, in: Kindhäuser/Neumann/Paeffgen (Hrsg.), NK StGB, 5. Aufl., 2017, § 46, Rn. 120. 211  Vgl. Hörnle, Vorüberlegungen zu DSS in der Strafzumessung, in: Schüne­ mann/Tinnefeld/Wittmann (Hrsg.), Gerechtigkeitswissenschaft, 2005, S. 393 (402 f.). Eine Ordinalskala weist nur die Rang- bzw. Reihenfolge aus, während Rationalskalen die Rangfolgen mit Zahlenwerten nennen bzw. in der die einzelnen Elemente in gleichmäßigen Abständen angeordnet sind (bspw. ist eine Geldstrafe von 60 Tages­ sätzen genau doppelt so hoch wie eine von 30 Tagessätzen). Vgl. auch Streng, in: Kindhäuser/Neumann/Paeffgen (Hrsg.), NK StGB, 5. Aufl., 2017, § 46, Rn. 119 f. 212  Vgl. dazu sogleich S. 422 ff. sowie bereits oben S. 291 ff.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme415

dig. Schwierigkeiten bereiten insbesondere die vielen ungeklärten Fragen in der Strafzumessungsdogmatik. Ihr Einsatz ist jedoch nicht aus prinzipiellen Erwägungen heraus, also dem Grunde nach unmöglich.213 Im besten Fall können sie die Transparenz und Konsistenz der gerichtlichen Strafzumes­ sungspraxis erhöhen. Datenbasierte Systeme können dabei auch flexibel ausgestaltet sein, um außergewöhnliche Umstände zu berücksichtigen, sowie auch wandelbar und anpassungsfähig auftreten, indem neuere (mildere oder strengere) Urteile in die Datenbasis einfließen und als Grundlage für zukünf­ tige Entscheidungen dienen. Die Bewertung der Tatschwere und der persönlichen Schuld, letztlich die obligatorische Abwägung i. S. d. § 46 Abs. 2 S. 1 StGB – mithin die Kern­ schwierigkeiten in der Strafzumessung – kann indes auch der Einsatz algo­ rithmischer Entscheidungsunterstützung nicht auflösen oder vollständig sim­ plifizieren.214 Erachtet man den Einsatz algorithmenbasierter Assistenzsysteme grund­ sätzlich für sinnvoll und denkbar, ist damit freilich nicht der (mittelfristige) Praxisbezug solcher Überlegungen bescheinigt. Lehnt der Deutsche Juristen­ tag z. B. bereits die Errichtung einer Strafzumessungskommission ab, weil die (unverbindlichen) Vorschläge einer solchen Expertenkommission mit ei­ ner Schematisierung, die der Forderung nach Einzelfallgerechtigkeit dem Grunde nach zuwiderlaufen kann, verbunden wären,215 stieße wohl auch der Vorschlag eines algorithmenbasierten Entscheidungsunterstützungssystems in der Praxis auf Skepsis – sowohl als rein regelbasiertes wie auch als datenba­ siertes Modell. Die Zustimmung für in der Strafzumessung eingesetzte Ent­ scheidungsunterstützungssysteme dürfte also bislang insgesamt gering aus­ fallen. Ohne dogmatischen Konsens sowie ohne die Akzeptanz und grund­ sätzliche Bereitschaft der Richterschaft zur Nutzung scheint ein tatsächlicher Einsatz algorithmenbasierter Entscheidungsunterstützungssysteme in der Rechtsprechungspraxis kaum vorstellbar.

213  A.  A. wohl Köberer, Iudex non calculat, 1996, S. 116 ff., 169 ff.; wie hier Philipps, MschrKrim 1998, 263 (267 ff.); Giannoulis, Studien zur Strafzumessung, 2014, S. 400; jüngst auch Kaspar/Höffler/Harrendorf, Neue Kriminalpolitik 32 (2020), 35 (41 ff., 50, 52). 214  So auch bereits Hassemer, Automatisierte und rationale Strafzumessung, in: Arbeitsgemeinschaft Rechtsinformatik (Hrsg.), Gesetzesplanung – Beiträge zur Rechtsinformatik, 1972, S. 95 (107); ähnlich Martini/Nink, Strafjustiz ex machina?, in: Bertelsmann Stiftung (Hrsg.), Automatisch erlaubt?, 2020, S. 44 (59 f.). 215  Vgl. nur Deutscher Juristentag e. V., Beschlüsse zum 72. Deutschen Juristen­ tag, 2018, S. 21.

416

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

c) Strafaussetzung zur Bewährung Die richterlichen Entscheidungen zur Untersuchungshaft und zur Strafzu­ messung sind nicht die einzigen für den Betroffenen relevanten Fälle, von denen seine persönliche Freiheit abhängt. Hat er nach der Strafzumessung eine Freiheitsstrafe216 von nicht mehr als zwei Jahren verwirkt, kann ihn die Entscheidung über die Strafaussetzung zur Bewährung noch vor der Frei­ heitsentziehung retten. Eine algorithmische Unterstützung könnte sich dabei wiederum nicht als Vorschlag der Entscheidung über die Strafaussetzung selbst gerieren, sondern diese lediglich in einem Teilbereich – der Prognose – vorbereiten und absichern.217 Das kommt grundsätzlich sowohl für die Sozi­ alprognose nach § 56 StGB als auch, nach Verbüßung eines Teiles der Frei­ heitsstrafe, für die Entscheidung über eine Strafrestaussetzung (§§ 57, 57a StGB) in Betracht. aa) Die normativen Vorgaben in § 56 und §§ 57, 57a StGB (1) Strafaussetzung zur Bewährung – die Sozialprognose nach § 56 StGB Eine günstige Sozialprognose ist dem Verurteilten zu bescheinigen, wenn zu erwarten ist, dass er sich bereits die Verurteilung zur Warnung dienen lassen und künftig auch ohne die Einwirkung des Strafvollzugs keine Straf­ taten mehr begehen wird (§ 56 Abs. 1 S. 1 StGB). Anknüpfungspunkte der Prognose, die im Kern eine Risikobewertung ist, sind insbesondere („na­ mentlich“) die Persönlichkeit des Verurteilten, sein Vorleben, die Tatum­ stände, sein Verhalten nach der Tat, seine Lebensverhältnisse und die Wir­ kungen, die die Strafaussetzung für ihn erwarten lässt (§ 56 Abs. 1 S. 2 StGB). Die Erwartensklausel (§ 56 Abs. 1 S. 1 StGB) verlangt dabei keine sichere Gewähr der künftigen Straffreiheit:218 Einer (Sozial-)Prognose ist stets ein gewisses Maß an Unsicherheit immanent. § 56 Abs. 1 StGB ist es vielmehr um eine durch Tatsachen begründete Wahrscheinlichkeit straffreier Lebensführung bestellt.219 216  Auch eine Geldstrafe kann das Gericht „zur Bewährung aussetzen“: Das Ge­ setz kennt diese Konstellation als sog. Verwarnung mit Strafvorbehalt (§ 59 StGB). In der Praxis ist die Bedeutung der Vorschrift aber gering. 217  Vgl. zu Prognosen in der Strafrechtspflege bereits oben S. 388 f. 218  Fischer, StGB, 66. Aufl., 2019, § 56, Rn. 4. 219  Vgl. BGHSt 7, 6 (8  ff.); BGH StV 1991, 514 (514); OLG Braunschweig, NStZ-RR 1998, 186 (186); Detter, NStZ 1992, 169 (172 f.); Fischer, StGB, 66. Aufl., 2019, § 56, Rn. 4.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme417

Bei einer Freiheitsstrafe von nicht mehr als einem Jahr und einer günsti­ gen Sozialprognose ist die Strafe zur Bewährung auszusetzen.220 Eine hö­ here verwirkte Strafe von bis zu zwei Jahren kann das Gericht aussetzen, wenn sich bei der vorzunehmenden Gesamtwürdigung von Tat und Persön­ lichkeit des Verurteilten besondere Umstände zeigen (§ 56 Abs. 2 S. 1), wo­ bei zusätzlich zu den Voraussetzungen des Abs. 1 insbesondere das Bemühen des Verurteilten, den durch die Tat verursachten Schaden wiedergutzuma­ chen, zu berücksichtigen ist (Abs. 2 S. 2). (2) Aussetzung eines Strafrests zur Bewährung (§§ 57, 57a StGB) Die materiell-rechtlichen Grundlagen für eine Strafrestaussetzung zur Be­ währung regeln § 57 StGB für eine zeitige und § 57a StGB für eine lebens­ lange Freiheitsstrafe; die prozessuale Komponente normiert § 454 StPO. Wie die Entscheidung nach § 56 StGB setzt auch § 57 StGB eine Prognose vor­ aus, wenngleich beide Prognosen sich inhaltlich unterscheiden: Anders als erstere basiert die Strafrestaussetzung nicht darauf, ob der Verurteilte ohne (weiteren) Strafvollzug keine Straftaten mehr begehen werde.221 Erforder­ lich ist vielmehr eine Abwägung (§ 57 Abs. 1 S. 1 Nr. 2 StGB), die je nach Schwere der möglichen Rückfalltaten unterschiedliche Anforderungen kennt. Die Möglichkeit der Strafrestaussetzung knüpft daran an, ob die Haftentlas­ sung mit Blick auf das Sicherheitsinteresse der Allgemeinheit verantwortbar ist (§ 57 Abs. 1 S. 1 Nr. 2 StGB; im Fall der lebenslangen Freiheitsstrafe über den Verweis in § 57a Abs. 1 S. 1 Nr. 3 StGB). Die Gesamtabwägung muss insbesondere das Sicherungsbedürfnis der Bevölkerung in die Waagschale legen und bewerten, inwieweit eine Freilas­ sung objektiv das Sicherheitsinteresse der Öffentlichkeit wahrt. Das Straf­ vollstreckungsgericht muss das Spannungsverhältnis zwischen dem Freiheits­ anspruch des Verurteilten und dem Sicherungsbedürfnis der Allgemeinheit zu einem gerechten Ausgleich bringen und dabei auch die unter Umständen zu erwartenden erheblichen Rechtsgutsverletzungen einpreisen.222 Materiellrechtlich setzt eine positive Prognose auch hier keine Gewissheit voraus, sondern eine „naheliegende Chance“ künftiger Straffreiheit.223 Da eine sol­ che Gewissheit i. d. R. ohnehin nicht zu erlangen ist, muss vielmehr die Pro­ gnose ausreichend sein, dass nach Abwägung aller Umstände eine wirkliche 220  Das gilt nicht bei einer Freiheitsstrafe von mindestens sechs Monaten, wenn die Verteidigung der Rechtsordnung die Vollstreckung gebietet (§ 56 Abs. 3 StGB). 221  Fischer, StGB, 66. Aufl., 2019, § 57, Rn. 12. 222  BVerfGE 117, 71 (97); BVerfG, NJW 2009, 1941 (1942). 223  Fischer, StGB, 66. Aufl., 2019, § 57, Rn. 14; Heintschel-Heinegg, in: ders. (Hrsg.), BeckOK StGB, 42. Ed. (Stand: 1.5.2019), § 57, Rn. 7.

418

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Chance für das positive Ergebnis einer Erprobung besteht.224 Dazu sind ins­ besondere die Persönlichkeit der verurteilten Person, ihr Vorleben, die Ta­ tumstände, das Gewicht des bei einem Rückfall bedrohten Rechtsguts, das Verhalten im Strafvollzug, die Lebensverhältnisse sowie die Wirkungen, die von der Aussetzung für die Person zu erwarten sind, einzubeziehen (§ 57 Abs. 1 S. 2 StGB). Auch den Verhältnismäßigkeitsgrundsatz gilt es zu beach­ ten.225 Das Gericht ist nach dem Wortlaut der Norm („setzt […] aus“) bei einer günstigen Prognose zur Strafrestaussetzung verpflichtet. Die gerichtli­ che Entscheidung ergeht ohne mündliche Verhandlung durch Beschluss (§ 454 Abs. 1 S. 1 StPO), wobei die Staatsanwaltschaft, der Verurteilte und die Vollzugsanstalt zu hören sind (S. 2); der Verurteilte ist, solange kein Aus­ nahmefall (S. 4) vorliegt, mündlich zu hören (S. 3). Das Strafvollstreckungsgericht holt in den Fällen des § 454 Abs. 2 StPO – also bei einer lebenslangen Freiheitsstrafe (vgl. § 57a StGB) und bei einer Freiheitsstrafe von mehr als zwei Jahren wegen einer Straftat gem. § 66 Abs. 3 S. 1 StGB, wenn Gründe der öffentlichen Sicherheit einer vorzeitigen Entlassung womöglich entgegenstehen – ein Sachverständigengutachten zu der Frage ein, ob bei dem Verurteilten keine Gefahr mehr besteht, dass des­ sen durch die Tat zu Tage getretene Gefährlichkeit fortbesteht (§ 454 Abs. 2 S. 1 und 2 StPO).226 Insbesondere bei schweren Straftaten gehen verblei­ bende Zweifel an einer hinreichend günstigen Prognose zu Lasten des Verur­ teilten.227 Das Gericht muss die Grundlagen der (Sachverständigen-)Prognose aber immer auch selbstständig bewerten.228 Dazu gehört, dass sich die Richter um eine möglichst breite Tatsachenbasis für die Prognoseentscheidung be­ 224  OLG

Düsseldorf, NStZ 1988, 272 (272). StGB, 66. Aufl., 2019, § 57, Rn. 15; BVerfG, NJW 2009, 1941 (1942). Je länger der Freiheitsentzug bereits andauert, desto höher sind die Anforde­ rungen der Verhältnismäßigkeitsprüfung. Vgl. auch BVerfG, NStZ-RR 2013, 360 (360, Ls. 2 und 3). 226  Für die Prognosegutachten haben forensische Psychiater, Psychologen, Sexu­ almediziner sowie Richter, Bundesanwälte und weitere Juristen in einer interdiszipli­ nären Arbeitsgruppe Mindestanforderungen aufgestellt, vgl. Boetticher/Kröber et al., NStZ 2006, 537 (537 ff.). Ausgangspunkt der Begutachtung ist die in der Tat zu Tage getretene Gefährlichkeit (§ 454 Abs. 2 S. 2 StPO), die sich anhand objektiver Merk­ male beschreiben und greifen lässt, vgl. dazu Kröber, Automatisierte oder handgefer­ tigte Kriminalprognose?, in: Barton/Eschelbach/Hettinger et al. (Hrsg.), Festschrift für Thomas Fischer, 2018, S. 901 (903 ff.): Nicht die psychiatrische Diagnose oder die Persönlichkeitsstruktur sondern die juristisch aufgeklärte Tat oder Tatserie ist die primäre Erkenntnisquelle (a. a. O., S. 905). 227  BVerfGE 117, 71 (100 f.); BVerfG, NJW 2009, 1941 (1942). 228  BVerfG, NJW 2000, 501 (501); 2009, 1941 (1942  ff.); Fischer, StGB, 66. Aufl., 2019, § 57, Rn. 14. 225  Fischer,



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme419

mühen und alle prognoserelevanten Umstände besonders sorgfältig klären:229 Um den hohen Wert der Freiheit zu achten, hat der i. S. d. Art. 104 Abs. 2 GG zur Entscheidung über den Freiheitsentzug berufene Richter die Tatsachen­ grundlage eigenständig nachzuvollziehen. bb) Raum und Grenzen für eine algorithmische Assistenz Algorithmenbasierte Prognosesysteme sind keine Wunderwerkzeuge. Auch der präzisesten Software ist es nicht möglich, mit vollständiger Sicherheit zu berechnen, ob eine Person erneut straffällig wird oder nicht. Dennoch exis­ tieren – auch wenn als solche nicht unmittelbar erkennbar – Wirkzusammen­ hänge, nach denen Menschen entscheiden, wieder straffällig zu werden. Systeme maschinellen Lernens sind prädestiniert dafür, solche (korrelativen) Verknüpfungen und Zusammenhänge aus einem Informationspool zu extrahieren:230 Ihre Algorithmen leiten selbstständig Entscheidungsregeln ab und könnten bspw. in der Frage der Strafaussetzung zur Bewährung neue Fälle unterteilen in „rückfallgefährdet“ und „nicht rückfallgefährdet“ oder verschiedene Wahrscheinlichkeitsstufen. Die beiden Prognosen in § 56 bzw. §§ 57, 57a StGB sind rechtlich nicht deckungsgleich, ihr grundsätzlicher Charakter ist aber vergleichbar. Die Fälle des § 454 Abs. 2 StPO zeigen: Die Gerichte setzen bereits auf externen Sachverstand als Hilfe und Unterstützung ihrer Entscheidung. Auch in vielen anderen Fällen kennt die Rechtsordnung Notwendigkeiten und Möglichkeiten, externe Sachverständigengutachten und außerjuristisches Ex­ pertenwissen in den Prozess richterlicher Entscheidungsfindung einfließen zu lassen. Mit Recht hat der BGH betont, dass auch standardisierte Prognoseinstrumente zur Beurteilung der Gefährlichkeit eines Angeklagten nicht grund­ sätzlich unzulässig sind – insbesondere nicht deshalb, weil die Instrumente Besonderheiten des jeweiligen Falles gerade wegen der Standardisierung nicht berücksichtigen könnten: Dieser Einwand geht fehl, weil die entspre­ chenden Prognosewerkzeuge gerade auf einer Verallgemeinerung empirischer Befunden beruhen.231 Sie erlauben und ermöglichen es indes lediglich, den Einzelfall im kriminologischen Erfahrungsraum zu verorten, und können eine Gefährlichkeitsbeurteilung nicht eigenständig, sondern nur im Zusam­ 229  BVerfGE 117, 71 (107); BVerfG, NJW 1992, 2344 (2345); 1998, 2202 (2203); 2009, 1941 (1942); siehe auch BVerfGE 109, 133 (165). 230  Die abgeleiteten Zusammenhänge sind dabei immer abhängig von der Daten­ grundlage, insbesondere ihrer Qualität und ihrem Detailgrad. Vgl. auch das Beispiel zur Unfallgefährdung von Autofahrern in Relation zum Alter bei Zweig, Algorithmi­ sche Entscheidungen: Transparenz und Kontrolle, Januar 2019, S. 4. 231  BGH, NStZ-RR 2009, 75 (75).

420

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

menhang mit der Erforschung der individuellen Täterpersönlichkeit tragen. Prognoseinstrumente müssen überdies im jeweils zu beurteilenden Einzelfall ein taugliches Instrument zur Abschätzung des Rückfallrisikos darstellen.232 Für eine algorithmenbasierte Entscheidungsunterstützung kann freilich nichts anderes gelten. Rückfallprognosen lassen sich im Grundsatz per Klassifikationsalgorith­ mus abbilden. Denn unabhängig davon, ob ein Richter, ein Sachverständiger oder Algorithmus sie trifft, knüpft die Prognose an einzelnen, objektiv greifbaren Kriterien an; auch Richter und Sachverständige müssen ihre Ein­ schätzungen auf „harte Fakten“ gründen und dürfen sich nicht auf rein subjektive oder intuitive Annahmen beschränken.233 So kann bspw. ein rela­ tiv kleiner Block an Merkmalen – etwa das Alter zu Beginn der Delinquenz, die Zahl der Vorstrafen, die Art der Delikte sowie etwaige Bewährungsbrü­ che – die gruppenstatistische Wahrscheinlichkeit eines Rückfalls gut annä­ hern.234 Hinsichtlich der Umstände der Tat und der Lebensverhältnisse des Verur­ teilten kann ein standardisierter Fallvergleich zwar im Ansatz hilfreich sein, um damit auch bei Bewährungsentscheidungen und vorzeitigen Haftentlas­ sungen zu einer konsistenteren und objektiveren Entscheidungspraxis beizu­ tragen, indem er das Bewusstsein der Richter für die einbezogenen Kriterien und deren Gewichtung schärft. Eine Software stünde aber insbesondere vor Problemen, die für die Entscheidungen gem. § 56 bzw. § 57 StGB maßgebli­ chen Kriterien präzise zu erfassen und zueinander in Beziehung zu setzen. Möglich scheint das allenfalls dann, wenn der Gesetzgeber die einzelnen Kriterien stärker konkretisiert, z. B. welche Persönlichkeitsmerkmale (vgl. § 56 Abs. 1 S. 2, § 57 Abs. 1 S. 2 StGB) negativ oder positiv zu werten sind.235 Die Wirkungen einer Strafe auf den Einzelnen kann eine Maschine indes nicht (schematisch) beurteilen. Darüber hinaus ist die algorithmische Assistenz wie­ derum limitiert durch die Probleme einer nur über beschränkte Sensorik ver­ fügenden Maschine mit der Sachverhaltsermittlung und -erfassung,236 den 232  BGH,

NStZ-RR 2009, 75 (75). auf diese Weise als Klassifikationsaufgabe modellierten Prognosen nach § 56 Abs. 1 S. 1 StGB und § 57 Abs. 1 S. 1 Nr. 2 StGB sind (lernende) Algorithmen grundsätzlich zu leisten im Stande. Vgl. insoweit ergänzend die entsprechenden Aus­ führungen zu den Prognosen im Rahmen der Entscheidung über die Untersuchungs­ haft, oben S. 394 f. sowie 397 ff. 234  Kröber, Automatisierte oder handgefertigte Kriminalprognose?, in: Barton/ Eschelbach/Hettinger et al. (Hrsg.), Festschrift für Thomas Fischer, 2018, S. 901 (905 f.). 235  Vgl. Martini/Nink, Strafjustiz ex machina?, in: Bertelsmann Stiftung (Hrsg.), Automatisch erlaubt?, 2020, S. 44 (60). 236  Vgl. oben S. 177 ff. 233  Die



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme421

Graben zwischen natürlicher und formaler Sprache237 sowie die Schwierig­ keiten, automatisiert dem Einzelfall gerecht zu werden.238 Gruppenstatisti­ sche Aussagen standardisierter Prognoseinstrumente können eine sorgfäl­ tige, „handgefertigte“ Einzelfallbewertung nicht ersetzen;239 die Rechtsord­ nung verlangt dem Strafprozess individuelle Prognosen und Wertungen ab. Hinsichtlich der Strafrestaussetzung ist daneben auch die sich auf einen Ge­ samteindruck stützende Bewertung, ob eine Haftentlassung „verantwortet“ werden kann (§ 57 Abs. 1 S. 1 Nr. 2 StGB), keine automatisiert erfassbare Kategorie. d) Ausweitung des offenen Vollzugs Nicht nur in den Vereinigten Staaten besteht das Problem einer hohen In­ haftierungsrate: Auch in Deutschland sind viele Justizvollzugsanstalten über­ füllt.240 Neben rechtspolitischen Zielen, über Prävention und weitere Steue­ rungsmöglichen die Zahl der Straftaten und der Inhaftierten zu senken, offen­ bart sich insbesondere der sog. offene Vollzug als Chance, den Strafvollzug selbst zu entschlacken. Dabei geht der Gefangene tagsüber einer geregelten Arbeit außerhalb der Haftanstalt nach, in die er abends zurückkehrt; das Wo­ chenende verbringt er bei seiner Familie. Der offene Vollzug ist per Gesetz nicht die Ausnahme, sondern der (vorbehaltlich tatsächlicher Umsetzbarkeit) vorrangig anzustrebende „Normalfall“: Nach § 10 Abs. 1 StVollzG soll ein Gefangener „mit seiner Zustimmung in einer Anstalt oder Abteilung des of­ fenen Vollzuges untergebracht werden, wenn er den besonderen Anforderun­ gen des offenen Vollzuges genügt und namentlich nicht zu befürchten ist, daß er sich dem Vollzug der Freiheitsstrafe entziehen oder die Möglichkeiten des offenen Vollzuges zu Straftaten mißbrauchen werde.“ Nur „im Übrigen“ sind die Gefangenen im geschlossen Vollzug unterzubringen (§ 10 Abs. 2 S. 1 StVollzG). Der gesetzliche Regelfall und die tatsächliche Vollzugspraxis klaffen jedoch auseinander – so befanden sich bspw. im Jahr 2018 von etwa 63.000 Gefangenen insgesamt lediglich etwas mehr als 6.000 im offenen Vollzug.241 237  Vgl.

oben S. 208 ff. oben S. 196 ff. 239  Kröber, Automatisierte oder handgefertigte Kriminalprognose?, in: Barton/ Eschelbach/Hettinger et al. (Hrsg.), Festschrift für Thomas Fischer, 2018, S. 901 (908 ff.). 240  Siehe etwa Götz, Hoffnungslos überfüllt, Deutschlandfunk (Online) vom 3.1.2019; für den Freistaat Sachsen bspw. im Detail Ulrich, Über der Belastungs­ grenze, ZEIT Online vom 13.11.2017. 241  Statistisches Bundesamt, Bestand der Gefangenen und Verwahrten, 2018, S. 5; vgl. aber auch S. 8 sowie die Erläuterungen und methodischen Hinweise auf S. 3 f. 238  Vgl.

422

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Auch hinsichtlich der Entscheidung darüber, ob der offene Vollzug mit den Sicherheitsinteressen der Allgemeinheit in Einklang zu bringen ist, scheinen algorithmenbasierte Risikobewertungstools prima facie durchaus geeignet, per Musteranalyse einen assistierenden Beitrag zu leisten – insbesondere für jüngere Entscheider ohne (kriminologische bzw. kriminalprognostische und psychologische) Berufserfahrung.242 4. Rechtskonformität der skizzierten Anwendungsbeispiele (Standortbestimmung) Die denkbaren Anwendungsszenarien werfen sodann auf die Frage auf, ob und wie sie sich rechtskonform umsetzen lassen. a) Entscheidungsunterstützung und richterliche Unabhängigkeit im Strafprozess aa) Grenzen und Zielrichtung Damit der Einsatz algorithmenbasierter Entscheidungsunterstützungssys­ teme im Strafverfahren die verfassungsrechtlichen Vorgaben erfüllen kann, ist vor allem der normative Wirkbereich der richterlichen Unabhängigkeit (Art. 97 Abs. 1 GG) zu beachten.243 Ein Entscheidungsunterstützungssystem verdeutlicht bereits etymologisch, dass es dem Richter kein Urteil aufoktroy­ ieren soll.244 Die im Strafverfahren in Betracht kommenden algorithmenba­ 242  Vgl. zu Predictive-Policing-Systemen, die ohne händische Vorgabe kriminolo­ gischer Theorien aus Korrelationen in Datensätzen selbstständig kriminologische Hypothesen und Zusammenhänge finden, Berk, Security Informatics 2 (2013), 1 (2 ff.); Chan/Bennett Moses, Theoretical Criminology 20 (2016), 21 (25 ff.); Ferguson, University of Pennsylvania Law Review 163 (2015), 327 (376 ff.); Singelnstein, NStZ 2018, 1 (3). Über Mustererkennung per Videoüberwachung ist technisch auch eine flächendeckende Suizidprävention im Strafvollzug denkbar; mit verfassungsund datenschutzrechtlichen Anforderungen an den Schutz der Intim- und Privatsphäre ließe sich das indes kaum in Einklang bringen. 243  Siehe zu den Grundsätzen oben S. 288 ff., insbesondere 291  ff. In jedem Fall unzulässig wäre bspw. ein Gesetz, das Richter dazu verpflichtete, sich ausnahms­ los an die Vorschläge eines algorithmischen Systems zu halten. Die Frage adressiert aber nicht nur die Entscheidungsfindung in konkreten Fällen, sondern stellt sich auch strukturell: EDV-basierte Systeme bergen auch die Gefahr einer übermäßigen Kont­ rolle des Richters, etwa durch eine Nachprüfung, wie und wie lange der Richter an der (elektronischen) Akte gearbeitet hat. 244  Vgl. Giannoulis, Studien zur Strafzumessung, 2014, S. 394. Ist „die Richter­ schaft“ zudem selbst in der Expertenkommission vertreten, welche das System entwi­ ckelt, liegt in Teilen auch weniger eine fremde Beeinflussung als vielmehr eine ge­ wisse „Selbstbindung der Justiz“ vor.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme423

sierten Assistenzsysteme können und sollen das richterliche Judiz nicht erset­ zen. Ihre Konzeption basiert vielmehr gerade auf diesem. Sie streben ein Zusammenspiel mit der Vorgehensweise des Richters an. Die Befürchtung, dass die Systeme die Individualität und Flexibilität der richterlichen Arbeits­ weise einschränken, lässt sich zwar nicht bedenkenlos beiseite wischen.245 Allerdings sind qualitative Einzelfallbewertungen weder Ausgangspunkt noch Ziel algorithmenbasierter Verfahren. Diese können den Richter nicht „degradieren“, weil sie einer anderen Zielrichtung verschrieben sind. Ein mögliche Beeinflussung des Richters durch ein Entscheidungsassis­ tenzsystem wäre im Übrigen kein Novum: Auch den juristischen Datenban­ ken und Rechercheportalen bzw. ihren komplexen Suchalgorithmen kommt in praxi durchaus Einflussnahmepotenzial zu.246 Die Quellenauswahl etwa kann sich unmittelbar in der richterlichen Entscheidung niederschlagen. Die Verschlagwortung in den Datenbanken sowie die nach „Relevanz“ geordnete Auswahl und Rangfolge der Suchergebnisse markieren eine anbietergeprägte Vorselektion, weil viele Anwender (lediglich) den oder die ersten Treffer ei­ ner Suche nutzen und damit weiterarbeiten. Algorithmische Assistenz muss eine reine Entscheidungshilfe bleiben, sie darf den Richter nicht bevormunden. Dieser hat nicht nur das „Recht auf die Letztentscheidung“, sondern er ist verfassungsrechtlich dazu verpflichtet. Er selbst muss eigenverantwortlich den rechtlichen Tatbestand prüfen, die Pro­ 245  Auch das Selbstverständnis könnte Schaden nehmen, wenn sich Richter in ihrer Tätigkeit weniger wertgeschätzt und zu mechanischen Umsetzungsautomaten herabgewürdigt fühlen. 246  Vgl. Fries, RW 2018, 414 (421). Vergleiche mit den Instrumenten der Dienst­ aufsicht (§ 26 DRiG) und dem Justizcontrolling zeigen überdies, dass der Richter ohnehin nicht der allein maßgebliche Akteur im Justizwesen ist. Solange der Kernbe­ reich rechtsprechender Tätigkeit nicht angetastet wird, sind bspw. auch neue Steue­ rungsinstrumente („New Public Management“) in der Justiz zulässig, wo sie neben Budgetierung, Leistungsvergleichen und Wettbewerbsansätzen, Verwaltungsmarke­ ting, Personal- und Organisationsentwicklung auch Kosten-Leistungs-Rechnung und Controlling umfassen können. Siehe dazu Aweh, Richterliche Unabhängigkeit und Justizökonomie, in: Institut für Wirtschaftsrecht der Universität Kassel (Hrsg.), 60 Jahre GG, S. 211 (226 ff.); vgl. auch Damkowski/Precht, VerwArch 96 (2005), 525 (525 ff.). Ressourcenknappheit kennt auch die Justiz. Dabei kann indes die Aufgabe solcher Instrumente in der Dritten Staatsgewalt nur sein, mehr Transparenz und Steu­ erung von Strukturen und Kosten zu erzeugen; Controlling in Gerichten ist (nur) zu­ lässig, soweit der Richter bei jedem entscheidungsrelevanten Akt im Kernbereich rechtsprechender Tätigkeit „von gesetzlich nicht vorgesehenen Einwirkungen anderer staatlicher Amtswalter frei bleibt“, vgl. Damkowski/Precht, NVwZ 2005, 292 (292). Siehe zur Abgrenzung zwischen richterlicher Unabhängigkeit und Dienstaufsicht i. S. d. § 26 DRiG nur BGHZ 42, 163 (167 ff.); 70, 1 (4); BGH, DRiZ 1991, 368 (369); sowie zur Kritik in der Literatur an dieser Rechtsprechung Schmidt-Räntsch, DRiG, 6. Aufl., 2009, § 26, Rn. 19 ff.

424

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

zessrechte der Beteiligten wahren und eine bindende Entscheidung treffen. In der rechtlichen Bewertung ist also klar zwischen Voll- und Teilautomation zu trennen. In praxi besteht aber die Gefahr, dass die Grenzen verschwimmen: Wegen hoher Fallzahlen, Arbeitsbelastung und knapper Ressourcen könnte es bspw. sein, dass Richter Unterstützungssysteme exzessiv nutzen und einzelne Entscheidungen „delegieren“ an Systeme, die dazu nicht bestimmt und ent­ wickelt wurden.247 Auch das Phänomen des Automation Bias248 erschwert die Abgrenzung: Ein gesteigertes Vertrauen in die vermeintliche „Unfehlbar­ keit“ und absolute Rationalität technisch-automatischer Systeme kann eine faktische Prädeterminierung der Entscheidung des Anwenders begründen. Die mögliche Beeinflussung lässt die Trennlinie zwischen Entscheidung und Entscheidungsassistenz verschwimmen, wenn es sich – die algorithmische Logik auf seiner Seite wissend – für den Anwender als „bequem“ erweist, nicht anders zu entscheiden. Einem „Algorithmenkonformitätsdruck“ des Richters beugt die Rechtsordnung daher idealiter mit geeigneten Gegenmaß­ nahmen vor. bb) Maßnahmen zur rechtskonformen Ausgestaltung – gegen eine faktische Prädeterminierung und den Automation Bias Entscheidungsunterstützungssysteme bieten dem Entscheider einen Vor­ schlag dar und weisen ihn auch auf mögliche Unsicherheiten hin, damit er den Vorschlag adäquat bewerten und nutzen kann.249 Beim Einsatz entschei­ dungsunterstützender Systeme im Strafprozess kommt es besonders darauf an, dass der Richter den Blick für die Individualität des konkreten Falles behält. Die Systeme selbst müssten Mechanismen und Vorkehrungen bereit­ halten, die dem Richter aktiv ins Gedächtnis rufen, dass er selbst allein die Entscheidung zu treffen und zu verantworten hat und dass der Algorithmus lediglich ihm selbst als Stütze dienen kann. Die Entscheidung verbleibt dann bei ihm, er kann umgekehrt aber auch seine eigenen Entscheidungsprozesse prüfen und hinterfragen. Dabei muss der Richter zunächst ohne eine gesonderte Begründung von einem algorithmisch generierten Vorschlag abweichen können. Eine gemin­ derte Bereitschaft, abweichende Entscheidungen zu treffen, scheint jedenfalls 247  Vgl. Europarat/Committee of Experts on Internet Intermediaries (MSI-NET), Algorithms and Human Rights, März 2018, S. 8, 12. 248  Vgl. zum Automation Bias als Tendenz, automatischen Systemen zu sehr zu vertrauen und gegenläufige Informationen auszublenden, bereits oben S. 295 ff. 249  Vgl. Zweig, Algorithmische Entscheidungen: Transparenz und Kontrolle, Ja­ nuar 2019, S. 7; Zweig/Krafft, Fairness und Qualität von Algorithmen, in: Mohabbat Kar/Thapa/Parycek et al. (Hrsg.), Algorithmen und Automatisierung, 2018, S. 204 (219 ff.).



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme425

dann wahrscheinlich, wenn dies mit zusätzlicher Argumentations- und Be­ weislast sowie dem Risiko eines „Fehlurteils“ verbunden ist.250 Um den Einfluss menschlicher Rationalitätsschwächen zu minimieren, wäre auch der gegenteilige Weg denkbar, wonach der Richter eine bewusste Abweichung von der algorithmischen Empfehlung gesondert begründen muss. Ein solcher Algorithmeneinsatz enthielte indes eine Komponente der Verbindlichkeit und damit einen Verstoß gegen Art. 97 Abs. 1 GG; denkbar ist das allenfalls in Ausnahmefällen, etwa wenn der algorithmische Vorschlag auf einer sog. Prima-facie-Regel des BGH (z. B. zum Betrug oder Steuerschaden „großen Ausmaßes“, vgl. § 263 Abs. 3 S. 2 Nr. 2 StGB; § 370 Abs. 3 S. 2 Nr. 1 AO) beruht.251 Auch eine mittelnde Lösung scheint denkbar, wonach der Richter innerhalb eines Spielraums ohne Begründung abweichen „darf“ und diese erst bei einer starken Abweichung gesondert begründen muss. Der Bedeutung der Art. 92 Hs. 1, Art. 97 Abs. 1 GG entspricht es jedoch am ehesten, den Richtern die (verfahrensrechtlich auszugestaltende) Pflicht aufzuerlegen, zu begründen, warum sie einen Entscheidungsvorschlag über­ nehmen, obwohl dieser bestimmte Aspekte des Einzelfalls im algorithmi­ schen Entscheidungsprozess nicht gewürdigt haben kann. Der Richter müsste also begründen, warum die algorithmisch nicht berücksichtigten Umstände auch auf sein eigenes Entscheidungsergebnis keine Auswirkung hatten.252 Eine solche gesonderte Begründungspflicht verstünde sich für den Richter gleichsam als „Schutz vor sich selbst“ und dem eigenen Automation Bias. Für den Fall, dass der Richter bewusst von einem algorithmisch generier­ ten oder unterstützten Entscheidungsvorschlag abweicht, darf es überdies keine gesonderte Revisionskontrolle geben: Die Ausübung der richterlichen Aufgabe – Bewertung und Entscheidung des Einzelfalls – kann als solche nicht revisibel sein. Die psychologische Forschung konnte zeigen, dass sich der Einfluss des Automation Bias eindämmen lässt253 – bspw. über das Design des Unterstüt­ 250  Siehe ergänzend zum sog. Default-Effekt (engl. default: Voreinstellung, Vor­ gabe) – einer kognitiven Verzerrung, wonach ein Entscheider diejenige Option bevor­ zugt, bei der er keine aktive Entscheidung trifft bzw. treffen muss – noch Dinner/ Johnson et al., Journal of Experimental Psychology 17 (2011), 332 (332 f.); Jachimowicz/Duncan et al., Behavioural Public Policy 87 (2019), 1 (2 ff.). Im Alltag ist der Default-Effekt bspw. bei den sog. Opt-In- bzw. Opt-Out-Einstellungen im OnlineRechtsverkehr erkennbar, ein weiteres Beispiel ist die diskutierte Widerspruchslösung bei Organspenden. 251  Giannoulis, Studien zur Strafzumessung, 2014, S. 404. 252  Vgl. auch Martini/Nink, Strafjustiz ex machina?, in: Bertelsmann Stiftung (Hrsg.), Automatisch erlaubt?, 2020, S. 44 (52 f.). 253  Vgl. Goddard/Roudsari et al., Journal of the American Medical Informatics Association 19 (2012), 121 (124 ff.); Skitka/Mosier et al., International Journal of

426

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

zungssystems, etwa indem Detailgrad und Komplexität der ausgeworfenen Informationen und Vorschläge reduziert oder indem die algorithmischen Vorschläge ausdrücklich als „Assistenz“, „Unterstützung“, „unterstützende Information“ o. Ä. und nicht als Vorgabe oder Aufforderung dargestellt wer­ den. Helfen kann auch ein spezielles Training mit dem bzw. am System, das (absichtlich) eingebaute Fehler und Fehlfunktionen enthält. Gezielte Trai­ nings können den Einfluss des Automation Bias deutlich effektiver reduzie­ ren als die reine Information darüber, dass solche Systemfehler auftreten können.254 Weil der Richter selbst und nicht das algorithmische System Autor, Urheber und Verantwortlicher der Entscheidung sein muss, könnte die Bedienoberfläche auch mit einem gut sichtbaren Banner und der Aufschrift „Unverbindlicher Vorschlag! Bitte kritisch prüfen und auch Alternativen be­ denken! Plausibilitätskontrolle durchführen.“ geschmückt sein. Hinweis und Darstellung könnten sich regelmäßig ändern, damit beim Anwender kein Gewöhnungseffekt auftritt. Die Problematik der faktischen Prädeterminierung entschärft sich auch durch einen Blick auf die bisherige Praxis: Hat etwa eine Orientierung am „üblichen“ Strafmaß Steuerungskraft,255 dann lässt sich grundsätzlich auch einem Konsens aus Wissenschaft und Praxis, der in ein Unterstützungssys­ tem gemündet ist, Orientierungsfunktion (ohne Bindung) zubilligen.256 In­ dem Richter die Vorschläge eines Unterstützungssystem nicht ungeprüft und unkritisch „abnicken“ (dürfen), verliert auch der Einwand an Schlagkraft, die zu einem bestimmten Zeitpunkt erfolgende Konzeption eines Assistenzsys­ tems schneide konstruktive Diskussionen und Meinungsstreitigkeiten der Strafrechtswissenschaft und Rechtsprechung von vornherein ab.257 Denn die Fortentwicklung der Rechtswissenschaft ist weiterhin möglich; über regelmä­ ßige Aktualisierungen des Systems – auch um systemische Fehler und Unge­ reimtheiten zu korrigieren – lässt sich die vermeintliche Gefahr einer „er­ Human-Computer Studies 52 (2000), 701 (710 ff.); freilich jeweils in anderem Kon­ text als dem der juristischen Entscheidungsfindung. 254  Bahner/Hüper et al., International Journal of Human-Computer Studies 66 (2008), 688 (688 ff.). 255  Vgl. dazu bereits oben S. 413 f. 256  Giannoulis, Studien zur Strafzumessung, 2014, S. 403. Die mit der Konzep­ tion und Fortentwicklung des Unterstützungssystems betraute Expertenkommission muss auch hinreichend abgeschirmt sein gegenüber direkter Einflussnahme aus Poli­ tik und Exekutive, um dem Gewaltenteilungsgrundsatz zu genügen. 257  Zu diesem berechtigten Einwand und seiner Entgegnung Giannoulis, Studien zur Strafzumessung, 2014, S. 398 f. m. w. N.; vgl. hinsichtlich der Möglichkeit einer Rechtsentwicklung auch bereits Munte, Rechtstheorie 32 (2001), 533 (557). In daten­ basierten Systemen kann neue Rechtsprechung zugleich eine Feedback-Schleife er­ zeugen, sodass jede eingespeiste Entscheidung potenziell das algorithmische Ent­ scheidungsverhalten beeinflusst.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme427

starrten“ Rechtsanwendung in der Praxis minimieren. Rechtsprechung ist und bleibt ein dynamischer Vorgang.258 Verbleibt es in den skizzierten Anwendungsszenarien bei explizit als un­ verbindlich deklarierten Vorschlägen und beziehen sich diese Vorschläge nicht auf ein Urteil insgesamt, sondern nur auf einzelne Teile einer Entschei­ dung – etwa eine Prognose der Fluchtgefahr oder einen Vorschlag für die Höhe einer Freiheitsstrafe – lässt sich der Einsatz algorithmischer Unterstüt­ zungssysteme, vergleichbar etwa mit der Einschätzung eines Kollegen oder eines Referendars (vgl. § 10 S. 1 GVG), mit der richterlichen Unabhängigkeit grundsätzlich in Einklang bringen. Art. 97 Abs. 1 GG lässt sich auch umgekehrt in Stellung bringen: Wenn bspw. die großen juristischen Verlage entsprechende Software oder Tools entwickeln – könnte der Gesetzgeber den Richtern eine eigenverantwortliche Nutzung verbieten?259 Richtigerweise wären die Richter dann gerade kraft ihrer Unabhängigkeit auch frei darin, sich ihre Tätigkeit mit algorithmischer Hilfe zu erleichtern. cc) Freie Beweiswürdigung im Strafprozess Dass der Richter nicht verpflichtet sein kann, ein algorithmisch ermittel­ tes Ergebnis zu berücksichtigen, folgt ergänzend auch aus § 261 StPO, der im Strafprozess die normativen Vorgaben der freien Beweiswürdigung setzt: Über das Ergebnis der Beweisaufnahme entscheidet das Gericht nach Maß­ gabe seiner freien Überzeugung, die es aus dem Inbegriff der Verhandlung schöpft. Im Einklang mit den Wertungen zur richterlichen Unabhängigkeit (Art. 97 Abs. 1 GG) muss sich der Richter nicht vorschreiben lassen, wel­ che Schlussfolgerungen er aus den einzelnen Informationen der Verhand­ lung zieht oder welches Gewicht er einer Tatsache zumisst. Seine Wertun­ gen und Folgerungen dürfen den Rahmen des Gesetzes sowie der Logik nicht verlassen, innerhalb dieser Grenzen ist er aber selbstbestimmt und frei – und darf sich (nur) auf sein eigenes Judiz verlassen. Diese Art auto­ nomer Entscheidungsfindung ist essenzieller Teil der Freiheit der Beweis­ würdigung.260 auch bereits Krimphove, Rechtstheorie 30 (1999), 540 (571). Enders, JA 2018, 721 (723). Skeptisch hingegen die Justizministerkonferenz 2019, Legal Tech: Herausforderungen für die Justiz, 1.7.2019, S. 57 f. 260  Miebach, in: Schneider (Hrsg.), MüKo-StPO, Bd. 2, 2016, § 261, Rn. 54, 92. Der Richter darf – spiegelbildlich – auch nicht blind auf einen vorgegebenen Vor­ schlag vertrauen, sondern muss sich selbst mit der Lösung auseinandersetzen. Über die richterliche Freiheit, sich über das algorithmisch ermittelte Ergebnis einer Soft­ ware hinwegzusetzen, kann es keinen Dissens geben; sie ist Ausgangspunkt und Vor­ 258  Vgl.

259  Ähnlich

428

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

b) Verfassungsrechtlich-organisatorische Vorgaben für Freiheitsentziehungen (Art. 104 GG) Aus Art. 92 Hs. 1 GG folgt, dass allein Richter strafrechtliche Sanktionen verhängen dürfen:261 Das staatliche Unwerturteil bedarf verfahrensrechtlicher Garantien, die nur in Form eines Richtervorbehalts realisierbar sind. Speziell für Freiheitsentziehungen kennt die Verfassung eine weitere normative Ein­ gehung: Art. 104 GG ergänzt und verstärkt das Grundrecht auf Freiheit der Person (Art. 2 Abs. 2 S. 2 GG), mit dem er in engem Zusammenhang steht.262 Die Norm etabliert sowohl verfahrensrechtliche Anforderungen wie auch subjektive Rechte.263 Der Richtervorbehalt bei Freiheitsentziehungen als Kern der Verfahrensregelungen (Art. 104 Abs. 2 und 3 GG) soll den Richtern präventiv die (alleinige) Befugnis zur Freiheitsentziehung oder aber die nachträgliche Kontrolle eines vorangehenden freiheitsentziehenden Exekutiv­ handelns ermöglichen.264 Im letzteren Fall ist die richterliche Entscheidung unverzüglich nachzuholen.265 Für die Frage der algorithmenbasierten Ent­ aussetzung eines rechtskonformen Technikeinsatzes. Ähnlich schon Martini/Nink, Strafjustiz ex machina?, in: Bertelsmann Stiftung (Hrsg.), Automatisch erlaubt?, 2020, S. 44 (50 ff.). 261  Classen, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7.  Aufl., 2018, Art. 92, Rn.  17 f.; Meyer, in: Münch/Kunig (Hrsg.), 6. Aufl., 2012, Art. 92, Rn. 27; BVerfGE 8, 197 (207); 12, 264 (274); 22, 49 (80). Im Einzelnen zu den Vorgaben des Art. 92 Hs. 1 GG oben S. 261 ff. 262  BVerfGE 10, 302 (322  f.); 58, 208 (220); 66, 191 (195). Verstöße gegen Art. 104 Abs. 1 und 3 GG verletzten daher zugleich auch Art. 2 Abs. 2 S. 2 GG, vgl. etwa Gusy, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 104, Rn. 12. 263  Vgl. nur Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 104, Rn. 15, 17. 264  Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 104, Rn. 19. Vgl. zum Grundrechtsschutz durch Richtervorbehalt ergänzend Krüger, DRiZ 2004, 247 ff. 265  Unmittelbare Adressaten der normativen Vorgaben in Art. 104 GG sind alle Träger staatlicher Gewalt i. S. d. Art. 1 Abs. 3 GG, im Besonderen indes die vollzie­ hende Gewalt und die Strafgerichtsbarkeit, vgl. Gusy, in: Mangoldt/Klein/Starck (Hrsg.), GG, 7. Aufl., 2018, Art. 104, Rn. 17; Müller-Franken, in: Stern/Becker (Hrsg.), 3. Aufl., 2018, Art. 104, Rn. 52; Schulze-Fielitz, in: Dreier (Hrsg.), GG Bd. 3, 3. Aufl., 2018, Art. 104, Rn. 23. Für Freiheitsentziehungen durch Private gilt Art. 104 GG nicht unmittelbar; Abs. 2–4 sowie die Pflicht zur Einhaltung grundsätzlicher Ver­ fahrensgarantien kommen aber jedenfalls im Wege der Ausstrahlungswirkung den­ noch zur Anwendung, vgl. Jarass, in: Jarass/Pieroth (Hrsg.), 15. Aufl., 2018, Art. 104, Rn. 29. Zentraler Rechtsgedanke des Art. 104 GG ist der Grundrechtsschutz bzw. die Grundrechtssicherung durch Verfahren, vgl. Gusy, a. a. O., Rn.  14, 39 f., 51 f.; Kunig, in: Münch/Kunig (Hrsg.), 6. Aufl., 2012, Art. 104, Rn. 11. Das ist insbesondere durch das Recht auf rechtliches Gehör zu gewährleisten. Daneben will Art. 104 GG die gesetzliche Bindung eines Verfahrens an bestimmte Formen sichern – bspw. über Antragserfordernisse, Zuständigkeiten, Fristen sowie die Rechte des Betroffenen auf



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme429

scheidungsunterstützung im Strafprozess folgt daraus das bereits zur richter­ lichen Unabhängigkeit Gesagte: Letztverbindliche Entscheidungen über Un­ tersuchungshaft oder Freiheitsstrafen muss ein Richter treffen; er darf weder die Entscheidungen der Exekutive ungeprüft bestätigen noch einen maschi­ nell erzeugten Entscheidungsvorschlag unkritisch übernehmen. c) Überlegungen zur Gesetzesbindung Ein rechtskonformer Einsatz entscheidungsunterstützender Systeme in der Strafjustiz muss die Gesetzesbindung hoheitlichen Handelns wahren (Art. 20 Abs. 3, Art. 97 Abs. 1 GG).266 Soweit algorithmenbasierte Vorschläge ledig­ lich vorläufige, „interne“ Entscheidungsteile betreffen und keinen rechtsdog­ matischen Anteil aufweisen, bietet das weitere Entscheidungsverfahren indes noch einigen Korrekturspielraum, z. B. weil die Begründungspflicht dem Gericht einen Anlass zur (Selbst‑)Kontrolle gibt. Algorithmenbasierte Ent­ scheidungsunterstützung ist dann in Ansätzen vergleichbar mit dem automa­ tisierten Mahnverfahren (§ 689 Abs. 1 S. 2 ZPO). Erschöpft sich die algorith­ mische Unterstützung allerdings nicht in rein regelbasierten (Experten-)Sys­ temen, wirft Art. 20 Abs. 3 GG insbesondere mit Blick auf die algorithmi­ schen Entscheidungsgrundlagen sowie die zulässigen Anknüpfungsmerkmale Fragen auf. aa) Datenbasis und Entscheidungsgrundlage Lernende, datenbasierte Systeme agieren in ihrer komplexen Problemum­ gebung nicht (allein) nach expliziten Programmieranweisungen.267 Sie ope­ rieren zumeist induktiv, also von Einzelfällen hin zu einer Regel, und nicht deduktiv, also von einer Regel bzw. Theorie zur Aussage über den Einzelfall. „Regeln“ sind aber Ausgangs- und Fixpunkt staatlichen Handelns (Art. 20 Abs. 3 GG) – namentlich die Gesetze bzw. das geschriebene und auch unge­ schriebene Recht. (1) Maßstab der Gesetzesbindung entscheidungsunterstützender Systeme Gilt dieser strenge Maßstab auch für die einzelnen Arbeitsschritte eines Entscheidungsunterstützungssystems? Daran lässt sich zweifeln, jedenfalls dann, wenn die Ausgestaltung des Systems einer faktischen Prädeterminie­ (vorherige) Anhörungen, vgl. BVerfG, NJW 2007, 3560 (3561); Jarass, a. a. O., Rn.  5, 17 f. 266  Siehe zu den verfassungsrechtlichen Vorgaben bereits oben S. 311 ff. 267  Vgl. bereits oben S. 147 ff., 202 ff.

430

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

rung des Richters vorbeugt.268 Zieht der Richter den algorithmisch ermittel­ ten Vorschlag nur ergänzend, unterstützend, und nicht als bindende oder al­ leinige Entscheidungsgrundlage heran, geriert sich die technische Assistenz nicht als Staatsgewalt, insbesondere nicht als „Rechtsprechung“ i. S. d. Art. 20 Abs. 3 GG.269 Die Kernaufgaben der Rechtsprechung sind den Richtern vorbehalten (Art. 92 Hs. 1 GG), die in ihrem Entscheidungsverhalten wiede­ rum frei und unabhängig sind – im Rahmen der Gesetzesbindung (Art. 97 Abs. 1, Art. 20 Abs. 3 GG). Kann daher ein algorithmenbasiertes Unterstüt­ zungssystem gerichtliche Entscheidungen als Ausdruck staatlicher Gewalt nicht treffen, unterfallen seine einzelnen Arbeitsschritte auch nicht unmittelbar der strengen Gesetzesbindung.270 Die gerichtliche Entscheidung, die der Richter eigenverantwortlich trifft, muss freilich dem Gesetz entsprechen – unabhängig davon, ob er eine algorithmische Prognose bzw. einen algorith­ misch ermittelten Vorschlag in seinen Entscheidungsprozess einfließen lässt oder nicht. Das Gesetz muss die Programmierung und Konzeption des Ent­ scheidungsunterstützungssystems leiten; solange ein Entscheidungsvorschlag aber nicht contra legem auftritt, laufen selbstlernende Komponenten, die sich fallbasiert-korrelativ (lediglich) an rechtskräftigen Entscheidungen orientie­ ren, Art. 20 Abs. 3 GG nicht zuwider.271 268  Vgl. die zuvor skizzierten Maßnahmen zum Schutz der richterlichen Unab­ hängigkeit oben S. 424 ff. 269  Vgl. zum Begriff der Staatsgewalt mit Blick auf die demokratische Legitimation (Art. 20 Abs. 2 GG) Grzeszick, in: Maunz/Dürig (Begr.), GG, 57. Erg.-Lfg. (Jan. 2010), Art. 20, Abschn. II, Rn. 90 f.: Darunter fällt zumindest jedes amtliche Handeln mit Entscheidungscharakter, also alle rechtserheblichen Tätigkeiten der Staatsorgane und Amtswalter – unabhängig von ihrer Rechts- und Handlungsform. Vgl. zu Wahlen und Volksbefragungen auch BVerfGE 47, 253 (273 f.); 83, 60 (74), wonach rein kon­ sultative, vorbereitende oder technische Tätigkeiten mit nur untergeordneter Bedeu­ tung dem Begriff der Staatsgewalt nicht unterfallen sollen. 270  Dagegen lässt sich einwenden, dass die algorithmischen Arbeitsschritte inso­ weit nicht „intern“ verbleiben, als sie personenbezogene Daten verarbeiten und so potenziell selbst bereits einen Eingriff in die informationelle Selbstbestimmung des Betroffenen (hier: des Angeklagten) bedeuten. Allerdings scheint ein Personenbezug nicht zwingend notwendig für einen maschinellen Entscheidungsvorschlag; überdies ist der datenschutzrechtlich Verantwortliche das Gericht, das die entsprechenden Da­ ten ohnehin verarbeitet – ein zusätzlicher, eigener Eingriff durch die Datenverarbei­ tung des Entscheidungsunterstützungssystems wirkte daher konstruiert. Mit guten Gründen lässt sich das freilich auch anders sehen und fragen, welchen Mehrwert ein Entscheidungsvorschlag, der die Bindung an Gesetz und Recht nicht gewährleistet, für den Richter haben kann. Dabei stellt sich aber wiederum die Frage, was die „Bin­ dung an Gesetz und Recht“ insbesondere bei Wertungsentscheidungen und semanti­ scher Offenheit der anzuwendenden Normen bedeutet: Vgl. zum Problem der „einzig richtigen Entscheidung“ bereits oben S. 95 ff. 271  Auf diese Weise ergänzen und ähneln sich der richterliche Entscheidungspro­ zess und die Arbeitsweise der Maschine: Auch der Mensch nutzt, wenngleich biswei­



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme431

(2) Fortschreiben der Rationalitätsschwächen Die algorithmischen Entscheidungsparameter ausschließlich an bisherigen, rechtskräftigen Gerichtsentscheidungen auszurichten, erscheint mit Blick auf die hier vorgetragene Motivation des Algorithmeneinsatzes – Rationalitäts­ schwächen zu reduzieren – prima facie wenig zielführend, weil der induktive Arbeitsprozess des Systems dann auch die Verzerrungen „übernimmt“, die sich in ihnen ausgewirkt haben. Die menschlichen Denkfehler könnten sich fortschreiben und verfestigen.272 Allerdings steht zu erwarten, dass die allermeisten der rechtskräftigen Ge­ richtsentscheidungen dem Gesetz entsprechen, insbesondere der Einfluss von Rationalitätsschwächen eine Entscheidung nicht per se zum iudicium contra legem macht. Am wahrscheinlichsten ist, dass sich etwaige Rationalitäts­ schwächen bzw. Einflüsse rechts- und verfahrensfremderer Aspekte – bspw. die regionalen Unterschiede der Strafzumessungspraxis – beim (bundeswei­ ten) Abgleich mit sehr vielen Vergleichsfällen nivellieren: In der Masse vieler einschlägiger Entscheidungen als Lernmuster werden sich „Ausreißer“ und „Gegenausreißer“ aufheben. (3) Musterfälle Allein auf die historische Datenbasis rechtskräftiger Gerichtsentscheidun­ gen zu rekurrieren, evoziert ein weiteres Problem: Das Recht ist wandelbar und ändert sich; neue Gesetze werden erlassen, ältere fallen weg, die oberge­ richtliche Rechtsprechung (der Großen Senate oder des Gemeinsamen Senats der obersten Gerichtshöfe des Bundes) verwirft eine jahrzehntelange Ent­ scheidungspraxis. Ein lernendes System könnte den historischen Datensatz in Form rechtskräftiger Urteile als Maßstab für die Entscheidung im konkreten Fall setzen. Der Einzelfall ist jedoch (ausschließlich) nach der aktuellen Rechtslage zu bewerten.273 Ein lediglich auf historischen Datensätzen basie­ len unbewusst, Fallvergleiche. Ausgangspunkt ist hier wie dort stets das Gesetz, aber innerhalb dessen entstehen Spielräume, in denen fallbasierte Schlussmethoden mit in die Entscheidung einfließen können. Zudem gibt es auch bisher keine Nachweis­ pflichten oder Kontrollmöglichkeiten dafür, dass jeder einzelne Zwischenschritt im Kopf des Richters oder in der Funktionsweise etwa von juris oder beck-online der Gesetzesbindung gerecht wird. 272  Vgl. oben S. 172 ff. 273  Ein Blick in die Praxis zeigt, dass Kasuistik (auch) dem deutschen Strafrecht nicht fremd ist. So erfuhr bspw. der Begriff der „Gewalt“ in § 240 StGB (Nötigung) regelmäßig neue Konturen, Abgrenzungen und Einschränkungen, vgl. nur die Über­ sicht bei Toepel, in: Kindhäuser/Neumann/Paeffgen (Hrsg.), NK StGB, 5. Aufl., 2017, § 240, Rn. 78 ff. Vor dem Hintergrund des Bestimmtheitsgebotes (Art. 103 Abs. 2

432

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

render Lernprozess induktiver Systeme birgt die Gefahr, dass bspw. auch die Wertungen einer bereits als verfassungswidrig erkannten Norm – etwa der frühere § 175 StGB (Strafbarkeit des Beischlafs unter Männern) – fortdau­ ernden Einfluss auf die Arbeitsschritte des Systems ausüben.274 Vor diesem Hintergrund kann eine Kombination aus echten historischen Falldaten und hypothetischen Musterfällen als „Protoptypen“275 einen rechtskonformen und in praxi gangbaren Weg darstellen. In einer solchen Datenbasis nivellieren sich „Ausreißer“ nach oben und unten; die typisierten Musterfälle, die ein damit betrautes, fachkundiges Expertengremium anhand normativer Wertungen (und nicht anhand einer Reproduktion der bisherigen Praxis) beschrieben und entschieden hat, könnten als durchgängiger „roter Faden“ dienen.276 Freilich stiften datenbasierte Systeme nur dann Nutzen, wenn die Entwick­ ler sie mit großen Datenmengen anlernen. Es bedürfte also auch sehr vieler Musterfälle, was einen erheblichen Aufwand bedeutete, oder aber die Mus­ terfälle müssten stärker gewichtet werden als die echten Gerichtsentschei­ dungen, was wiederum die systemische Effektivität und Präzision beein­ trächtigen könnte.277

GG) war sodann das BVerfG aufgerufen, zur Verfassungsmäßigkeit der vergleichs­ weise offenen Tatbestandsformulierung Stellung zu nehmen – es hat diese, bei ein­ schränkender Auslegung, bekräftigt, vgl. BVerfGE 73, 206 (237, 247); 92, 1 (18). 274  Vgl. Rostalski, Rethinking Law 1/2019, 4 (9 f.). Auf diese Weise kann eine einmal als „Recht“ eingestufte Wertung sich im System so verankern, dass sie sich nicht mehr ohne Weiteres löschen oder aktualisieren lässt. 275  Vgl. Philipps, MschrKrim 1998, 263 (268, dort Fn. 12); insoweit optimistisch auch Giannoulis, Studien zur Strafzumessung, 2014, S. 398, der „nichts Gefährliches an dieser Vorgehensweise [sieht], weil eben die neuen Fälle aus der Entzifferung der Gesetzmäßigkeit der bereits normativ entschiedenen Musterfälle zustande kommen, sodass dahinter derselbe normative Umwertungsschlüssel steckt“ (mit Blick auf die Strafzumessung bei Eigentums- und Vermögensdelikten). 276  Solche „Musterentscheidungen“, die in die Datenbasis und Lernprozesse der Maschine einfließen, wiesen Parallelen zu Verwaltungsvorschriften auf. Für die Justiz wäre dies freilich Neuland, zumal die „Musterentscheidungen“ den Anspruch der „idealen“ Entscheidung für diesen und jenen Sachverhalt erheben müssten – was ins­ besondere bei Wertungsspielräumen bedenklich wäre. Ein solches Vorgehen kann daher nur gelingen, wenn die verfahrensrechtliche Ausgestaltung und die einzelnen Kompetenzen der Fallauswahl, Entscheidung der Musterfälle usw. durch den Gesetz­ geber normativ vorgezeichnet ist. 277  Statt fiktiver Musterfälle könnte das mit der Systempflege und -aktualisierung betraute Gremium dem System bspw. wesentliche Rechts- und Rechtsprechungsände­ rungen auch als feste Regeln in einem vor- oder nachgeschalteten regelbasierten Systemteil vorgeben.



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme433

bb) Kombination aus induktiven und deduktiven Verfahren Hinsichtlich der Systemkonzeption bietet sich zudem eine Kombination aus induktiven und deduktiven Verfahren an, um die jeweiligen Nachteile zu minimieren und die Vorzüge ideal zu nutzen. Wenn während der Erstellung eines Systems bspw. die (Zwischen-)Ergebnisse den jeweiligen normativen Wertungen nicht entsprechen, dann sind auch die Regeln und die Zugehörig­ keitsfunktionen der Eingangsvariablen zu verändern – so lange, bis eine Kongruenz mit den normativen Vorgaben besteht: Ein solcher spiralartiger Vorgang vollzieht sich im Wechselspiel aus Eingangsvariablen, Regeln und Ergebnissen – durch eine allmähliche Anpassung hin zu einem rechtskonfor­ men Gleichgewicht.278 Die Systeme zu ändern, sollte wiederum (nur) durch das einzurichtende Expertengremium möglich sein, dessen explizite Aufgabe auch die Systemaktualisierung wäre; fortlaufende Aktualisierungen scheinen schon deshalb unumgänglich, um die Orientierung an der jeweils aktuellen Rechtslage gewährleisten zu können.279

278  Giannoulis,

Studien zur Strafzumessung, 2014, S. 397. wären bspw. als verfassungswidrig erkannte oder anderweitig entfallene Vorschriften „händisch“ aus dem Entscheidungsprozess des Systems herauszuneh­ men. Siehe allgemein zu den Diskriminierungsrisiken algorithmenbasierter Verfahren bereits oben S. 167 ff. Ein im Strafverfahren eingesetztes System sollte zudem seine Prognose oder seinen Entscheidungsvorschlag nicht an Merkmale knüpfen dürfen, die nicht im Machtbereich des Betroffenen liegen, die dieser also nicht beeinflussen kann. Die Haftstrafen der Eltern in die algorithmische Analyse einfließen zu lassen, wie es bspw. das COMPAS-System vollführt, bedeutet in der Strafzumessung einen Verstoß gegen das Schuldprinzip. Die Orientierung an historischen Trainingsdaten enthält auch insoweit die Gefahr eines Festschreibens der Vergangenheit, was wiede­ rum die strafrechtlichen Ziele der Resozialisierung und Prävention torpedieren kann: Trainiert man ein System mit Bestandsdaten und enthält ein Modell, aus dem sich bspw. (stark vereinfacht) ergibt, dass vor allem Erwerbslose straffällig werden, dann kann daraus rechtspolitisch etwa folgen, dass der Staat gerade bei dieser Gruppe ver­ stärkt präventiv-sozial tätig werden muss, um Delinquenz zu verhindern. Systeme wie COMPAS verhängen bei diesen Personen jedoch erst recht und überdurchschnittlich lange Haftstrafen – was sozialpolitisch wiederum kontraproduktiv sein kann. Die ein­ zurichtende (disziplinübergreifende) Expertenkommission müsste somit auch darauf achten, dass nur solche Merkmale im Verarbeitungsprozess des Systems entschei­ dungserheblich sind, bei denen eine Anknüpfung nicht dem Gesetz widerspricht – etwa die Haftstrafen der Verwandten. Eine solche (fortlaufende) Plausibilitätskont­ rolle kann sich insbesondere am Maßstab des § 46 Abs. 2 StGB vollziehen. Sind Änderungsbedarfe identifiziert, kann umgekehrt allerdings bei lernenden Systemen jede Änderung auch neue Fehler evozieren. 279  So

434

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

cc) Verfahrensrechtliche Begründungspflicht am Beispiel der Strafzumessung Sich am Vorschlag eines algorithmenbasierten Systems zu orientieren, entbindet den Richter insbesondere in der Strafzumessung nicht von seiner Begründungspflicht: So muss er in den Urteilsgründen auch „die Umstände anführen, die für die Zumessung der Strafe bestimmend gewesen sind“ (§ 267 Abs. 3 S. 1 StPO). Die Norm ist dem Ziel verschrieben, dem Revisi­ onsgericht zu ermöglichen, die Strafzumessung auf Rechtsfehler zu prü­ fen.280 Die Begründung der Strafzumessung darf (bzw. soll) sich indes nur auf deren (numerisches) Endergebnis beschränken und nicht auch den „Spielraum“ i. S. d. § 46 Abs. 1 S. 1 StGB darlegen:281 Zwischenergebnisse sind auf dem Weg des Entscheidungsprozesses grundsätzlich nicht anzuge­ ben.282 Das bietet verfahrensrechtlich auch hinsichtlich der Begründung Raum für algorithmische Assistenz:283 Der Richter trifft die Entscheidung 280  Kuckein/Bartel, in: Hannich (Hrsg.), KK-StPO, 8. Aufl., 2019, § 267 StPO, Rn. 2, 23. Das Revisionsgericht greift nicht in den Strafzumessungsvorgang selbst, der ureigene Aufgabe des Tatrichters ist, ein, vgl. BGHSt 34, 345 (349). Es prüft vielmehr insbesondere, ob die Erwägungen in sich fehlerhaft sind und ob anerkannte Strafzwecke missachtet wurden, vgl. nur BGHSt 57, 123 (127); BGH, NStZ 2015, 466 (466 f.); NZWiSt 2018, 196 (196 f.). 281  Meyer-Goßner, in: Meyer-Goßner/Schmitt (Hrsg.), StPO, 62.  Aufl., 2019, § 267, Rn. 19; Wenske, in: Schneider (Hrsg.), MüKo-StPO, Bd. 2, 2016, § 267 StPO, Rn. 387; wohl auch Peglau, in: Graf (Hrsg.), BeckOK StPO, 33. Ed. (Stand: 1.4.2019), § 267, Rn. 44. 282  Im Fall der Tatmehrheit (§§ 53 f. StGB) sind freilich auch die Einzelstrafen zu begründen. 283  Die Begründung als Voraussetzung der Transparenz obliegt ebenfalls (allein) dem Richter: Ob der algorithmisch ermittelte Vorschlag bzw. die Prognose rechtlichen Wertungen zuwiderläuft, muss der Richter ohnehin prüfen – und sodann die wesent­ lichen rechtlichen Umstände der Strafzumessung ausführen. Überspitzt ließe sich auch sagen: Ob ein Richter eine Entscheidung auch auf einen maschinell berechneten Score stützt oder allein auf eine Aktenlektüre – wie es im Strafbefehlsverfahren mög­ lich ist (§ 407 Abs. 1 S. 1 StPO) – macht keinen großen Unterschied. Für den „nor­ malen“ Strafprozess greift dieser Vergleich nicht exakt, weil der Richter den Ange­ klagten vor sich sieht und sich selbst ein Bild von ihm macht, einen persönlichen Eindruck verschafft. Allerdings verfügen bspw. junge Richter direkt nach dem Asses­ sorexamen über kaum Berufserfahrung und haben regelmäßig keine vertieften Kennt­ nisse in (Sozial-)Psychologie etc., sodass in rein tatsächlicher Hinsicht zweifelhaft ist, dass dieses persönliche Gegenübersitzen den Ausschlag gibt – und das auch normativ so gewollt ist. Gerade für diese Gruppe wäre eine Entscheidungshilfe in Form einer verlässlichen Wertungsgrundlage durchaus wünschenswert. Auch das Problem des korrelativen Rückschlusses einer Gruppe auf den Einzelnen, das der statistikorientier­ ten, schematischen Arbeitsweise von Maschinen in der Regel immanent ist, entschärft sich wiederum im Vergleich mit der menschlichen Entscheidungsfindung: Auch Men­ schen lassen sich vom „ersten Eindruck“ leiten, ordnen Situationen und Personen



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme435

eigenverantwortlich, ohne jeden einzelnen seiner – mit oder ohne technische Unterstützung gemachten – (gedanklichen) Zwischenschritte offenbaren zu müssen. dd) Besonders geschützte Merkmale und Diskriminierungsschutz Strafrechtliche Entscheidungen sind individuell anhand der konkreten Merkmale des Einzelfalls zu treffen; die Gruppenzugehörigkeit des oder der Prozessbeteiligten darf – abgesehen etwa vom Begriff der Bande (bspw. in § 244 Abs. 1 Nr. 2 StGB) – grundsätzlich nicht entscheidungserheblich sein. Beim Einsatz lernender Systeme stellt die Auswahl einer ausgewogenen Da­ tenbasis die Programmierer dabei vor Herausforderungen: Tragen bspw. in einem Datensatz 75 Prozent der Personen mit einer für sie positiven Ent­ scheidung – etwa die Bewilligung eines Kredits oder eine im Vergleich ge­ ringe Freiheitsstrafe – einen Vornamen, der mit dem Buchstaben „M“ be­ ginnt, so könnte ein Lernalgorithmus daraus statistisch schließen, dass die Entscheidung maßgeblich vom Anfangsbuchstaben des Vornamens abhängt. Gleiches gilt, wenn die Datenbasis ein signifikantes Ungleichgewicht der Geschlechter und ihrer Verteilung in positive oder negative Entscheidungen aufweist. Der Algorithmus ist dann verleitet, das Ungleichgewicht aktiv zu übernehmen und sogar zu verstärken – und anschließend dann bspw. 80 Pro­ zent der Personen mit einem bestimmten Vornamen oder Geschlecht eine positive Entscheidung zu gewähren.284 Als Strategie gegen derartige Unausgewogenheiten gilt es insbesondere, den Trainingsdatensatz auszubalancieren, indem die Programmierer entweder kontrolliert Datenpunkte der Mehrheitsgruppe nicht berücksichtigen (Undersampling) oder durch bestimmte Prozeduren künstlich zusätzliche Daten­ punkte der unterrepräsentierten Gruppe generieren (Oversampling). Das je­ weilige Merkmal (etwa das Geschlecht, die Hautfarbe oder, wie im fiktiven Beispiel, der Vorname) ist händisch aus dem Datensatz zu entfernen. Wenn ein durch Art. 3 Abs. 3 GG oder Art. 10 JI-RL bzw. Art. 9 Abs. 1 DSGVO geschütztes Attribut, das bei seiner Berücksichtigung zu diskriminierenden Effekten führen kann, mit der Zielvariablen – bspw. der Länge einer Frei­ heitsstrafe – korreliert, greifen Machine-learning-Modelle dieses in der Regel für ihre Entscheidungsfindung auch tatsächlich auf.285 Das geschützte Merk­ (bisweilen unbewusst) in Gruppen und Kategorien ein, lassen Korrelation und Kausa­ lität verschwimmen. 284  Vgl. Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S.  34 ff. 285  Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 35 f. m. w. N. Vgl. ergänzend zu technischen Möglichkeiten, Licht in die Blackbox solcher

436

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

mal bewusst zu ignorieren (Fairness by Blindness), hilft nicht immer weiter, weil es oftmals mit anderen Attributen korreliert, etwa mit der Postleitzahl oder dem sozioökonomischen Status (sog. Proxyvariablen), und sodann den­ noch Eingang in den Lernprozess findet. Zudem leidet auch die Genauigkeit der Voraussagen, letztlich die Präzision der Entscheidungsvorschläge, wenn die Entwickler solche mit dem Zielwert korrelierenden Variablen entfernen. Es lässt sich also ein Zielkonflikt zwischen inhaltlicher Genauigkeit und Richtigkeit auf der einen und der Vermeidung von Ungleichbehandlung auf der anderen Seite ausmachen.286 In der Forschung bestehen Ansätze, bspw. ein Klassifikationsmodell für Bewährungsentscheidungen explizit durch das Training zweier separater Mo­ delle für weiße und afroamerikanische Individuen zu erstellen und das Ge­ samtmodell sodann auf sein Fairnessverhalten zu überprüfen.287 Ein solches Vorgehen ist dem Zweck verschrieben, (technisch) quantitative Gleichbe­ handlungsgebote erfüllen bzw. (rechtlich) Diskriminierung aufdecken und reduzieren zu können. So kann sich für die weitere Forschung an den quan­ titativen Fairnessbegriffen ein nützlicher Referenzpunkt ergeben.288 Aus der regulatorischen Perspektive des Normgebers zeigen sich ambiva­ lente Folgerungen: Datengetriebene Modelle automatischer Entscheidungs­ systeme dürfen nicht diskriminierend sein und müssen grundsätzlich auf be­ Systeme zu bringen, insbesondere den indirekten Einfluss geschützter Merkmale auf die Entscheidungsfindung auszuleuchten, Adler/Falk et al., Knowledge and Informa­ tion Systems 54 (2018), 95 (95 ff.). 286  Ein ähnlicher Zielkonflikt besteht auch zwischen der Genauigkeit und der möglichen Transparenz, von der auch das Vertrauen und die gesellschaftliche Akzep­ tanz abhängen. Transparenz entsteht dabei vor allem durch eine nachvollziehbare Begründung, vgl. oben S. 338 ff. Algorithmische Systeme, deren Entscheidungen Anwender und Betroffene vertrauen können, scheinen vorzugswürdig gegenüber sol­ chen, die zwar theoretisch das beste Ergebnis liefern, praktisch aber weitgehend in­ transparent bleiben und in der Folge auch nicht akzeptiert werden. Vgl. Bünau, Legal Revolution 2018, 98 (105), der konstatiert: „Dafür müssen wir es im Zweifel auch hinnehmen, dass dieses Mehr an Vertrauen zulasten der Optimalität geht“. 287  Žliobaite/Custers, Artificial Intelligence and Law 24 (2016), 183 (183 ff.). Um die Qualität und Sicherheit maschineller Lernvorgänge im justiziellen Einsatz zu wahren, sollten die Prozesse jedenfalls rekonstruierbar und – etwa durch Protokollie­ rungen – rückverfolgbar sein, vgl. Europarat/Europäische Kommission für die Effizienz der Justiz (CEPEJ), Ethical Charter on the Use of AI, 2018, S. 10. 288  Borges/Grabmair et al., Algorithmische Entscheidungsverfahren, 2018, S. 43. In der Diskussion muss zudem die Geeignetheit und Effektivität des Datenschutzrechts zur Sicherstellung der Gleichbehandlung in algorithmenbasierten Entschei­ dungssystemen in Rede stehen. Vgl. ergänzend zu den möglichen (technischen) An­ sätzen, Diskriminierungen besser sichtbar zu machen, zu „vermessen“ und letztlich zu verringern, Žliobaite, Data Mining and Knowledge Discovery 31 (2017), 1060 (1061 ff.).



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme437

sonders geschützte Merkmale verzichten.289 Andererseits kann es gerade dabei helfen, die Modelle diskriminierungsfrei zu gestalten, wenn die Ent­ wickler besonders geschützte Daten (etwa die Ethnie) während des Trainings bewusst einbeziehen. Aus technischer Sicht verlaufen diese Zielsetzungen oftmals diametral.290 Jedenfalls im Anschluss an die Entwicklung und das Training des Systems sollte das geschützte Merkmal nicht mehr als Inputva­ riable in den Entscheidungsprozess einfließen. Der Gesetzgeber ist, sofern er den Einsatz entscheidungsunterstützender Systeme im Strafverfahren an­ denkt, herausgefordert, adäquate Ausgleiche für solche Konstellationen zu etablieren. d) Zieldefinition und Fairnessmaßstab In der theoretischen Konzeption und der praktischen Ausgestaltung ma­ schineller Entscheidungsunterstützung laufen die Gedanken zu Diskriminie­ rungsrisiken und besonders geschützten Attributen auf eine (neben der Geset­ zesbindung weitere) Kenngröße hinaus: Fairness. Die Debatte um das COMPAS-System zeigt, dass es für algorithmenbasierte Entscheidungs- und Prognosesysteme keine One-fits-all-Lösung der Fairness gibt. Vielmehr exis­ tieren verschiedene Ansatzpunkte und Maßstäbe für den Fairnessbegriff,291 welche bisweilen nicht miteinander kompatibel sind.292 Im Kontext rechtserheblicher Entscheidungen kommt als Fairnessmaßstab zunächst der Ansatz in Betracht, dass ein Algorithmus dann fair entscheidet, wenn er vollständig auf sensible bzw. besonders geschützte Merkmale wie Ethnie, Religion oder Geschlecht verzichtet. Gegen die Absolutheit dieses 289  Im Falle eines algorithmenbasierten Profilings zur Unterstützung der strafge­ richtlichen Entscheidung, das auf einer Verarbeitung personenbezogener Daten be­ ruht, etabliert bereits das Unionsrecht in Art. 11 Abs. 3 JI-RL ein generelles Verbot solcher Maßnahmen, die zur Folge haben, dass der Angeklagte gerade auf der Grund­ lage besonderer Datenkategorien i. S. d. Art. 10 JI-RL diskriminiert werden. 290  Žliobaite/Custers, Artificial Intelligence and Law 24 (2016), 183 (183 ff.); vgl. auch Berk/Heidari et al., Sociological Methods & Research 104 (2018), 1 (2 ff.). 291  Corbett-Davies/Pierson et al., ADM and Fairness, in: Matwin/Yu/Farooq (Hrsg.), Proceedings of KDD ’17, 2017, S. 797 (797 ff.); Zweig/Krafft, Fairness und Qualität von Algorithmen, in: Mohabbat Kar/Thapa/Parycek et al. (Hrsg.), Algorith­ men und Automatisierung, 2018, S. 204 (211 ff.). Vgl. auch die Übersicht bei Berk/ Heidari et al., Sociological Methods & Research 104 (2018), 1 (2 ff.). Der offenen Forschungsfragen widmen sich auch NGO-Initiativen wie bspw. „FAT/ML“ (Fairness, Accountability, and Transparency in Machine Learning), vgl. zu aktuellen Entwick­ lungen nur die Onlinepräsenz unter http://www.fatml.org/. 292  Vgl. nur Zweig/Krafft, Fairness und Qualität von Algorithmen, in: Mohabbat Kar/Thapa/Parycek et al. (Hrsg.), Algorithmen und Automatisierung, 2018, S. 204 (216 ff., 224).

438

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Ansatzes spricht indes, dass es durchaus Fälle gibt, in denen gerade die Nichtberücksichtigung (etwa des Geschlechts) zu unfairen Ergebnissen führt.293 Alternativ könnte es als fair gelten, wenn der Algorithmus dieselben Aus­ wirkungen für alle abgrenzbaren und relevanten Gruppen (z. B. hinsichtlich weißer und schwarzer Hautfarbe) zeitigt, also bspw. gleiche Proportionen hinsichtlich der Risikoprognosen zur Fluchtgefahr. Ein solcher Ansatz nimmt insbesondere die Fehlerraten als Anknüpfungspunkt: Wenn, wie im Falle der COMPAS-Analyse, nicht rückfällig gewordene Verurteilte mit schwarzer Hautfarbe häufiger fälschlich einen hohen Risikowert erhalten (false positives) als weiße Verurteilte, wäre das nach diesem Maßstab unfair. Beide dargestellten Maßstäbe greifen in ihrer Absolutheit und ihrer Simp­ lifizierung allerdings zu kurz. Sinnvoller scheint eine Orientierung am Maß­ stab des Art. 3 Abs. 1 GG – Gleiches gleich und Ungleiches ungleich zu be­ handeln. Ungleiche Inhaftierungsraten, auch ungleiche Fehlerquoten, sind nicht per se ein Indikator für die Unfairness eines algorithmenbasierten Sys­ tems bzw. einer Klassifikation.294 Auch in Deutschland zeigen die Tatver­ dächtigen- und Gefängnisstatistiken – die Ursachen einmal ausgeblendet – unstrittig bspw. eine ungleiche Kriminalitätsbelastung von Deutschen und Nichtdeutschen.295 An die in Art. 3 Abs. 3 GG geschützten Merkmale anzu­ knüpfen, ist unzulässig. Ergebnisgleichheit zu erzwingen, geriert sich jedoch ebenfalls nicht als sinnvoll. Die Ausgestaltung und Nutzung entscheidungs­ unterstützender Systeme muss auch darauf ausgerichtet sein, aus Fehlern lernen zu können: So muss insbesondere gewährleistet sein, dass die Algo­ rithmen immer wieder hinterfragt und verbessert werden.296 Der Fairnessbe­ griff sollte nicht auf die geschützten Beobachtungskriterien (Religion, Ethnie etc.) beschränkt sein. Fair ist in einem auf Kodifikation beruhenden, auch auf 293  Überzeugend Ayres, Justice and Research Policy 4 (2002), 131 (131 ff.). Zu­ dem knüpfen Algorithmen oftmals über Korrelationen mit anderen, nicht geschützten Merkmalen (etwa sozioökonomischer Status, Postleitzahl) dennoch indirekt an das geschützte Merkmal an; das Bereinigen der Trainingsdaten um die geschützten und die mit den geschützten korrelierenden Merkmale mindert die Genauigkeit und Funk­ tionstüchtigkeit der Systeme. 294  Corbett-Davies/Pierson et al., ADM and Fairness, in: Matwin/Yu/Farooq (Hrsg.), Proceedings of KDD, 17, 2017, S. 797 (799 ff.); siehe auch die Argumente oben S.  382 ff. 295  Vgl. (trotz ihrer methodischen Schwierigkeiten und dem besonderen Interpre­ tationsbedarf) nur die Kriminalstatistiken der letzten Jahre, etwa in der Version Bundesministerium des Innern, für Bau und Heimat/Innenministerkonferenz 2019, Poli­ zeiliche Kriminalstatistik 2018 – Ausgewählte Zahlen im Überblick, 2019, S. 11. 296  So kann es z. B. bei Suchalgorithmen sinnvoll sein, jeweils verschiedene Lö­ sungsalternativen bei unterschiedlicher Gewichtung einzelner Kriterien aufzuzeigen, vgl. Bünau, Legal Revolution 2018, 98 (105).



IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme439

Rechtssicherheit zielenden Rechtssystem letztlich insbesondere das, was zum einen dem Gesetz entspricht und zum anderen verständlich begründet ist. Bevor die Justiz algorithmenbasierte Assistenzsysteme einsetzt, kommt es darauf an, die Ziele eines solchen Einsatzes vorab zu definieren – bspw. dass weniger Menschen vor dem Beginn der Hauptverhandlung ihres Strafprozes­ ses erneut straffällig werden, eine Kostenreduktion, dass Rationalitätsschwä­ chen minimiert werden, oder die Entlastung der Gerichte. Auch die Frage, was genau ein Assistenzsystem mit lernenden Komponenten lernen soll, ist ex ante zu bestimmen. Diese Ziele müssen zwingend Menschen definieren.297 Werte, Ziele und Fairnessmaßstäbe sind nicht Algorithmen bzw. den in der Regel dahinter stehenden kommerziell ausgerichteten Unternehmen zu überantwor­ ten. Sie sind vielmehr gesellschaftlich auszuhandeln und durch die demokra­ tisch legitimierten Gesetzgeber in Bund und Ländern festzuschreiben.298 Auch die Frage, ob dem Betroffenen gesonderte Rechtsschutzmöglichkei­ ten gegen eine algorithmische Prognose bzw. einen Entscheidungsvorschlag zustehen sollen, müsste der Gesetzgeber explizit und klarstellend regeln: Ein „intern“ verbleibender, unverbindlicher Vorschlag wäre de lege lata nicht ei­ genständig, sondern nur mit der Gesamtentscheidung angreifbar (vgl. für die Revision etwa § 344 Abs. 1, § 352 Abs. 1, § 354 Abs. 1a S. 1 StPO).299 5. Zwischenergebnis Entscheidungen über die Höhe einer verhängten Strafe vollständig Maschi­ nen zu übertragen, ist rechtlich wie auch technisch nicht möglich: Das scharfe Schwert strafrechtlicher Entscheidungen darf nur ein menschlicher Richter oben S. 382 f.; Neufeld, In Defense of Risk-Assessment Tools, 22.10.2017. Vorgaben erfordert auch der Trainingsprozess lernender Unterstüt­ zungssysteme: Wer trainiert die Systeme (etwa der Deutsche Richterbund als „Sprach­ rohr“ des Berufsstands gemeinsam mit externen Informatikern) und welcher Kontrolle unterliegen die Entwickler bzw. die Expertenkommission? Passgenaue Rechtsgrund­ lagen müssen den Einsatz der Unterstützungssysteme einschließlich der Ziele be­ schreiben. 299  Überdies hätte der Verurteilte – in Ermangelung eines absoluten Revisions­ grundes nach § 338 StPO – kaum Möglichkeiten, den Nachweis des „Beruhens“ (§ 337 Abs. 1 StPO) zu führen. Soweit es nicht um einen Algorithmeneinsatz in der Strafzumessung, sondern einen solchen im Bereich der Untersuchungshaft geht, und gegen den Haftbefehl die Beschwerde (vgl. § 114b Abs. 2 S. 1 Nr. 8 lit. a, § 117 Abs. 2 S. 1 StPO) und der Antrag auf Haftprüfung (§ 117 Abs. 1 StPO) möglich sind, kommt auch hier eine eigenständige, gesonderte Überprüfung der maschinell ermittel­ ten Prognose de lege lata nicht in Betracht. Siehe zur inhaltlich entfernt verwandten Frage, ob und inwieweit sich bereits eine technische Dokumentation der Hauptver­ handlung auf das Rechtsmittelsystem des Strafverfahrens auswirkte, die Analyse bei Wehowsky, NStZ 2018, 177 (177 ff.). 297  Vgl.

298  Normative

440

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

führen. In der Strafzumessung verhindert vor allem das Schuldprinzip eine überbordende Algorithmisierung: Entitäten wie die strafrechtliche Schuld sind nicht rein quantitativ beschreibbar und metrisch erfassbar.300 Zur Konzeption und Programmierung eines Entscheidungsunterstützungssystems bedürfte es zudem eines Mindestmaßes an normativen Vorgaben, jedenfalls aber eines Konsenses innerhalb der Strafzumessungslehre; offen lässt das Gesetz bspw. die strafzumessungsrelevante Frage, wie die verschiedenen Strafzwecke zu gewichten sind. Technisch sind indes durchaus Möglichkeiten denkbar, Straf­ gerichte in der Strafzumessung zu unterstützen – etwa durch einen Zumes­ sungsvorschlag, den ein Algorithmus anhand eines Vergleichs mit rechtskräf­ tigen Entscheidungen in ähnlichen Fällen auswirft.301 Soweit strafrechtliche Prognoseentscheidungen – insbesondere die Flucht­ gefahr als Haftgrund für die Untersuchungshaft oder die Sozialprognose bei der Strafaussetzung zur Bewährung – auf einer Zusammenschau, Bewertung und Gewichtung objektiver Kriterien basieren, sind einzelne Entscheidungs­ teile bzw. -abschnitte im Ansatz auch algorithmisch abbildbar. Inhaltlich können algorithmenbasierte Systeme dabei jeweils nicht die gerichtliche Entscheidung insgesamt vorschlagen (z. B. „Strafaussetzung verweigert“), sondern sie beschränken sich auf eine Teilfrage, die der Richter als Kriterium heranziehen kann – etwa einen Prognosewert. Für das Beispiel der Fluchtge­ fahrenprognose für die Entscheidung über die Untersuchungshaft bedeutet das, dass ein Algorithmus faktenbasiert anhand objektiver Kriterien eine Prognose über die Fluchtgefahr zu erstellen in der Lage ist, er aber insbeson­ dere nicht zur Prüfung der Verhältnismäßigkeit sowie des dringenden Tatver­ dachts berufen sein kann. Algorithmisch ermittelte Vorschläge und Prognosen fein austarierter Sys­ teme verheißen idealiter konsistentere und genauere Entscheidungen.302 Wenn bspw. weniger Menschen inhaftiert werden, ohne dass die Kriminali­ tätsbelastung ansteigt, oder aber die Kriminalität sinkt, ohne dass mehr Men­ schen hinter Gittern leben, kommt das einer Gesellschaft insgesamt zugute.303 300  Vgl. bereits Martini/Nink, Strafjustiz ex machina?, in: Bertelsmann Stiftung (Hrsg.), Automatisch erlaubt?, 2020, S. 44 (61). 301  Insbesondere Systeme maschinellen Lernens verstehen sich darin, „faktische Situationen in den rechtlichen Kontext bisheriger Entscheidungssituationen ein[zu] betten“, vgl. Herold, Algorithmisierung durch ML, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S. 453 (463). 302  Eindrücklich Kleinberg/Lakkaraju et al., The Quarterly Journal of Economics 133 (2018), 237 (238 ff.). Optimistisch auch bereits Philipps, MschrKrim 1998, 263 (271): „Eines nicht allzu fernen Tages werden Decision-Support-Systeme da sein – dessen bin ich mir sicher“. Siehe auch Budras, Sind Algorithmen die besseren Rich­ ter?, FAZ Einspruch Magazin (Online) vom 30.3.2019. 303  Derartige positive Auswirkungen, bspw. in den USA, sind freilich nicht mono­ kausal auf die algorithmische Assistenz in den Strafgerichten zurückzuführen. Vgl.



V. Weitere Vorschläge zur Entscheidungsunterstützung441

Eine rechtskonforme Ausgestaltung und Nutzung algorithmenbasierter Unterstützungssysteme im Strafverfahren steht unter der obersten Vorausset­ zung, dass die richterliche Unabhängigkeit unangetastet bleibt. So darf es insbesondere keine Bindungswirkung und keine automatische Übernahme der algorithmischen Vorschläge geben; einer rein faktischen Prädeterminie­ rung der richterlichen Entscheidung und dem Automation Bias ist mit Gegen­ maßnahmen und Trainings vorzubeugen. Weicht der Richter vom Vorschlag der Maschine ab, darf dies keinen gesonderten, zusätzlichen Begründungs­ aufwand erzeugen. Algorithmische Prognosen und Vorschläge können stets nur Hilfe, nur ein Baustein von mehreren sein – und insbesondere nicht die juristischen Wertungen des Richters ersetzen. Sie können nur zulässig sein, soweit die zwingend erforderliche Einzelfallbetrachtung nicht einer (kompa­ rativen,) vermeintlich rationalen Schematisierung weicht. Es darf nicht das Ergebnis rechtspolitischer Bestrebungen zu mehr Rationalität und Konsistenz sein, das Individuum auf Einsen und Nullen bzw. auf algorithmisch ermit­ telte Werte zu reduzieren. Der flächendeckende Einsatz algorithmenbasierter Entscheidungsunterstüt­ zungssysteme in der Justiz ist (noch) nicht in Sichtweite, bedarf er doch Antworten auf zahlreiche normative, auch organisatorische Fragen, sowie ausgiebiger, wissenschaftlich begleiteter Testphasen. Ein One-fits-all-System für alle Rechtsgebiete und Entscheidungsformen bleibt Science-Fiction.

V. Weitere Vorschläge zur Entscheidungsunterstützung – Anwendungsszenarien (Ausblick) Die denkbaren Möglichkeiten algorithmenbasierter Entscheidungsunter­ stützung beschränken sich selbstverständlich nicht auf Entscheidungen über die Untersuchungshaft, die Strafzumessung oder die Strafaussetzung zur Bewährung. Ihr Einsatz ist in vielen weiteren justiziellen Legal-Tech-Anwen­ dungsfällen denkbar.304

aber etwa für den Bundesstaat New Jersey, der die Zahl der Inhaftierten (auch) durch algorithmische Unterstützung innerhalb von weniger als zwei Jahren um 43 % senken konnte, Budras, Sind Algorithmen die besseren Richter?, FAZ Einspruch Magazin (Online) vom 30.3.2019. Für Richter stellt sich indes auch die Frage, ob die womög­ lich zeitaufwendige Dateneingabe der konkreten Fallinformationen in das Assistenz­ system den entscheidungsunterstützenden Mehrwert – auch mit Blick auf den straf­ verfahrensrechtlichen Beschleunigungsgrundsatz – wieder konterkariert. 304  Die Möglichkeiten folgen hier lediglich knapp skizziert. Vgl. zu aktuellen Entwicklungen bereits oben S. 161 ff.; siehe auch den Überblick bei Buchholtz, JuS 2017, 955 (955 ff.).

442

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

1. Umfassende Datenbanken als Entscheidungshilfe (ex ante) Die juristischen Datenbanken haben längst Einzug in den Justizalltag ge­ funden. Als gewichtige Entscheidungshilfen für die Richter lässt sich deren Funktionsumfang aber i. S. eines juristischen Wissensmanagements bzw. ei­ ner Wissensverwaltung erweitern.305 Ein praktisch-technisches Problem je­ denfalls datenbasierter Unterstützungssysteme ist, dass sie eine in Qualität und Quantität ausreichende digitale Datenbasis (formalisierter Urteile) benö­ tigen. Sind relevante Textdokumente – insbesondere Gerichtsentscheidun­ gen – nicht in ausreichender Anzahl (digital) verfügbar, kann dies die Daten­ basis verzerren.306 Die bislang (viel zu) geringe Trainingsdatenmenge wäre also eine große Hürde für den gewinnbringenden Einsatz datenbasierter, in­ duktiver Systeme.307 Besonders die untergeordneten bzw. erstinstanzlichen Gerichte publizieren ihre Entscheidungen grundsätzlich nicht, allenfalls in besonderen Fällen. Die bislang tatsächlich veröffentlichten Entscheidungen sind also nicht repräsen­ tativ für die Gesamtheit der gerichtlichen Entscheidungen. In Deutschland besteht insgesamt eine unvollständige Datenlage: Selbst die führenden kom­ merziellen Datenbanken (juris und beck-online) erfassen nur einen Bruchteil der gerichtlichen Entscheidungen.308 Deutsche Gerichte unterliegen grundsätzlich weder einer generellen Veröf­ fentlichungspflicht noch einem entsprechenden Verbot. Der Grundsatz der Öffentlichkeit (vgl. § 169 Abs. 1 S. 1 GVG) umfasst lediglich die räumlichzeitliche Präsenz im Gerichtssaal, nicht aber die (digitale) Verbreitung. Das Bundesverwaltungsgericht formuliert eine „öffentliche Aufgabe“ als „verfas­ sungsunmittelbare Aufgabe der rechtsprechenden Gewalt und damit eines jeden Gerichts“ – also eine Pflicht der Veröffentlichung – jedoch für solche Entscheidungen, an deren Veröffentlichung die Öffentlichkeit ein Interesse hat oder haben kann.309 Diese – nicht auf Obergerichte und letztinstanzliche Entscheidungen beschränkte – Veröffentlichungspflicht folgt nach dem BVerwG aus dem Rechtsstaatsgebot, einschließlich der Justizgewährungs­ pflicht, sowie den grundgesetzlichen Verbürgungen zu Demokratie und Ge­ waltenteilung. Wichtige und grundsätzliche Entscheidungen zu publizieren, auch Fries, RW 2018, 414 (421). Coupette/Fleckner, JZ 2018, 379 (381). 307  Dreyer/Schmees, CR 2019, 758 (759 f., 764). 308  Für eine umfassende Veröffentlichung gerade auch untergerichtlicher Ent­ scheidungen plädiert auch Bernhardt, NJW 2015, 2775 (2779 f.). 309  BVerwGE 104, 105 (105 ff., insbesondere Ls. 1). Vgl. zur Herausgabe einzelner Urteile an Journalisten oder interessierte Dritte aber BGH, NJW 2018, 3123 (3123 f.); anders noch BVerfG, NJW 2015, 3708 (3708 ff.), sowie (für das Zivilrecht) BGH, NJW 2017, 1819 (1819 f.). 305  Vgl. 306  Vgl.



V. Weitere Vorschläge zur Entscheidungsunterstützung443

dient aber auch der Funktionsfähigkeit der Rechtspflege insgesamt, beson­ ders der Fortentwicklung des Rechts, wenn gerade die Veröffentlichung eine fachwissenschaftliche Diskussion ermöglicht.310 Datenschutzrechtliche Bedenken kann die Justizverwaltung damit eindäm­ men, dass sie die Gerichtsentscheidungen automatisch anonymisiert und so­ dann veröffentlicht. Dazu sind mindestens die Namen der Verfahrensbeteilig­ ten unkenntlich zu machen und Merkmale zu neutralisieren, mit deren Hilfe Dritte einen Verfahrensbeteiligten ohne besonderen Aufwand individualisie­ ren könnten.311 Anonymisierte Entscheidungen in eine justizinterne Daten­ bank einzuspeisen, welche als (Trainings-)Grundlage eines lernenden Unter­ stützungssystems dient, begegnet insgesamt weniger Bedenken als die Veröf­ fentlichung oder Herausgabe (auch anonymisierter) strafrechtlicher Entschei­ dungen an Dritte. Eine vollständige oder zumindest vollständigere, umfassende Datensamm­ lung ermöglicht zum einen, juristische Annahmen intersubjektiv überprüfbar zu machen.312 Zum anderen könnten sie als Grundlage für entscheidungsun­ terstützende Systeme dienen, welche dann auf möglichst vollständige und im Idealfall unmittelbar maschinell verwertbare Daten – Gesetze, Gesetzes­ begründungen, Gerichtsentscheidungen – zurückgreifen können.313 Um den größtmöglichen Nutzen zu erzielen, sollten die Informationen hierbei in maschinell lesbarer und verarbeitbarer Form vorliegen – eingescannte Doku­ 310  BVerwGE 104, 105 (109): Das Gericht sieht „eine der Verkündung von Rechtsnormen vergleichbare Bedeutung“, eine ausreichende Publizität der Rechtspre­ chung herzustellen, um „im demokratischen Rechtsstaat und zumal in einer Informa­ tionsgesellschaft“ auch öffentliche Kritik zu ermöglichen (ibid.). Dabei könne es auch darum gehen, dass in der Öffentlichkeit eine bestimmte Entwicklung der Rechtspre­ chung als Fehlentwicklung in Frage gestellt werden kann. Mit Blick auf die Auswir­ kungen menschlicher Rationalitätsschwächen und fachfremder Einflüsse, etwa regio­ naler Strafzumessungstraditionen, scheint ein entsprechendes Interesse der Öffentlich­ keit an umfassenden Datenbanken und einer ausgedehnten Veröffentlichungspraxis – u. a. als Lernbasis für entscheidungsunterstützende Systeme, welche die gerichtlichen Entscheidungen (noch) rationaler ausformen könnten – durchaus begründbar. 311  Vgl. bereits BVerwGE 104, 105 (105, Ls. 1): „Veröffentlichungswürdige Ent­ scheidungen sind durch Anonymisierung bzw. Neutralisierung für die Herausgabe an die Öffentlichkeit vorzubereiten“. Eine zügige Ausweitung der elektronischen Akten­ führung ist auch deshalb zu befürworten, um Statistiken und Auswertungen, letztlich ein (internes) Qualitätssicherungssystem der Justiz zu ermöglichen. 312  So auch der Appell von Coupette/Fleckner, JZ 2018, 379 (384 ff.); siehe auch Schuhr, Rechtsprechungsdatenbanken als Format rechtlicher Information – Hilfsmit­ tel oder Ersatz für Kommentare?, in: Funke/Lachmayer (Hrsg.), Formate der Rechts­ wissenschaft, 2017, S. 161 (161 ff.). 313  Eine genügend große Datenbasis wäre hinreichende Bedingung für den ge­ winnbringenden Einsatz datenbasierter Systeme in der richterlichen Entscheidungsun­ terstützung. Die derzeitige Veröffentlichungsquote kann dem nicht gerecht werden.

444

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

mente sind bspw. nicht in idealer Weise geeignet.314 Geeignet, aber wiede­ rum mit großem Aufwand verbunden, scheinen dagegen bspw. digitale Da­ tenbanken mit einer umfassenden Verschlagwortung und entsprechenden Metadaten. Auch jenseits der Überlegungen zur Teil-Automatisierung und dem Ein­ satz entscheidungsunterstützender Systemen hat der Wunsch nach umfassen­ den juristischen Datenbanken seine Berechtigung. Denn eine umfassende Datenbasis ermöglicht auch den Zugang zur juristischen Semantik:315 Das Bedürfnis, Fälle zu ordnen, zu kategorisieren sowie entsprechend zu bewer­ ten und zu beurteilen, besteht unabhängig hiervon.316 2. Unterstützung in der Sachverhaltsaufklärung und Beweiswürdigung Immer öfter stehen Rechtsuchende und Justizdiener gleichermaßen vor dem Problem der langen Dauer vieler Gerichtsverfahren;317 die teilweise Internationalisierung des Rechts, eine gestiegene Komplexität und personelle Entwicklungen stellen die Rechtsprechung vor Herausforderungen. Um den Aufgaben einer modernen und effizienten Justiz – schnellere Verfahren kom­ men sowohl den Bürgern als auch dem Recht insgesamt zu Gute – ideal ge­ wachsen zu sein, kann die algorithmische Assistenz rechtsprechender Tätig­ keit einen Beitrag leisten. a) Termine und Fristen Die Möglichkeiten sind vielgestaltig: So könnte bspw. ein Algorithmus zwecks Anberaumung eines Verhandlungstermins selbstständig die jeweili­ gen prozessualen Fristen mit dem Terminkalender des bzw. der Richter ab­ gleichen, sich evtl. zusätzlich mit den Kalendern der Verfahrensbeteiligten – 314  Coupette/Fleckner,

JZ 2018, 379 (382 f.). Schuhr, Datenbanken gerichtlicher Entscheidungen als Zugang zu juristi­ scher Semantik?, in: Vogel (Hrsg.), Zugänge zur Rechtssemantik, 2015, S. 93 (93 ff.). 316  Je gleichförmiger die konkret zu beurteilenden Fallsituationen ausfallen, desto wahrscheinlicher besteht bei der Rechtsanwendung ein regelrechter Zwang, routini­ sierte Verfahren zu entwickeln – so ausdrücklich schon Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S. 17, der wohl aber hauptsäch­ lich Massenverfahren der Verwaltung im Blick hatte; man denke etwa an die Ausar­ beitung behördlicher Formulare. Obgleich im Strafprozess immer der konkrete Täter und die konkrete Tat im Fokus stehen, muss sich der Richter bereits wegen Art. 3 Abs. 1 GG zumindest auch an vergleichbaren anderen Fällen orientieren. 317  Vgl. etwa Wagner, Ende der Wahrheitssuche, 2017, S. 101 ff., 117 ff. Die An­ zahl der Zivilprozesse nimmt allerdings seit Jahren ab. 315  Vgl.



V. Weitere Vorschläge zur Entscheidungsunterstützung445

im Strafprozess insbesondere des Verteidigers – in Verbindung setzen (vgl. etwa § 213 Abs. 2 StPO) und daraufhin eine entsprechende Terminsverfügung treffen oder vorbereiten.318 Auch Push-Mitteilungen über Termine, Warnun­ gen für Fristenden, Neuigkeiten oder (nicht sensibles) neues Verfahrensge­ schehen, welche die Justizsoftware auf die Mobilgeräte der Verfahrensbetei­ ligten sendet, sind möglich. b) Visualisierung und Dokumentenmanagement Besonders in Verfahren mit einem großen Aktenumfang nimmt die richter­ liche Lektüre des Prozessstoffs viel Zeit in Anspruch. Softwarelösungen können die (elektronische) Akte aufbereiten und die Sachverhaltserfassung graphisch unterstützen. Denkbar ist etwa, dass ein Tool automatisch einen Zeitstrahl des Sachverhalts erstellt und mit Zusatzinformationen versieht, die erscheinen, wenn der Anwender bspw. den Cursor über ein Datum bewegt.319 Eine Software könnte auch die jeweiligen Argumente bündeln und sie mit digitalen Klebezetteln in der Akte markieren sowie textliche Wiederholungen erspähen, um die Sachverhaltserfassung zu erleichtern.320 c) Glaubhaftigkeit von Aussagen bzw. Glaubwürdigkeit von Zeugen oder Angeklagten Die Glaubhaftigkeit einer Aussage bzw. die Glaubwürdigkeit eines Zeugen oder Angeklagten zu beurteilen, stellt Juristen bereits methodisch vor einige Herausforderungen.321 Das gilt auch deshalb, weil die Prozessordnungen die Beweiswürdigung jeweils als Domäne des Richters ausgestalten und sie des­ 318  Vgl. bereits den Bericht des Panels „Digitalisierung an deutschen Gerichten“ der „Legal Evolution“-Konferenz am 4./5.12.2018 in Darmstadt bei Lorenz, Wenn Legal-Tech-Start-Up auf Gerichtswirklichkeit trifft, Legal Tribune Online vom 5.12.2018. Innerhalb der gerichtlichen Spruchkörper könnten zudem gemeinsame Kalender verknüpft und Einträge geteilt werden. In Ansätzen findet das bereits statt. 319  Vgl. Biallaß, Der Einsatz von „Cognitive Computing“ in der Justiz – Teil 2: Potenzielle Anwendungsfälle, in: Viefhues (Hrsg.), Elektronischer Rechtsverkehr 2/2019, Rn. 47 (48 f.). Auch die automatische Klassifizierung nach Dokumententypen erscheint sinnvoll und möglich – in der Strafakte z. B. Strafanzeige, Beschuldigten­ vernehmung oder Zeugenaussage. 320  Vgl. auch das Modell einer graphischen Aufbereitung inner-justizieller Bezug­ nahmen und Verweise in der niederländischen Kasuistik zur Arbeitgeberhaftung, mit dessen Hilfe Anwender auch juristische Fragen klären können, bei van Kuppevelt/van Dijck, Answering Legal Research Questions About Dutch Case Law with Network Analysis and Visualization, in: Wyner/Casini (Hrsg.), Legal Knowledge and Informa­ tion Systems, 2017, S. 95 (95 ff.). 321  Vgl. zu den Problemen und Schwierigkeiten bereits oben S. 80 ff. 

446

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

sen freier Ausübung überantworten, ohne detaillierte normative Vorgaben zu machen – etwa inwieweit der Richter Gestik und Mimik seines Gegenübers bewerten darf bzw. soll oder seine Würdigung ausschließlich auf den Inhalt der Aussagen stützen muss. Auch in diese Sparte richterlicher Tätigkeit kann technische Unterstützung vordringen: So können moderne Softwaresysteme in Bildern und Videos nicht mehr „lediglich“ einzelne Details erkennen – etwa ein „weißes Haus mit blauer Tür“ oder eine „männliche Person mit Brille und blonden Haa­ ren“. Neue Software ist vielmehr in der Lage, auch solche komplexen Merk­ male einzuordnen, die das menschliche Gehirn nicht nur erkennt, sondern auch interpretiert – etwa, ob eine Person aggressiv oder friedlich schaut: Nach einem Training mit ausgewählten Lerndaten sollen künstliche neuro­ nale Netze sogar die Vertrauenswürdigkeit einer Person einschätzen kön­ nen.322 In gerichtlichen Verfahren könnten datenbasierte Systeme Künstlicher In­ telligenz auch Widersprüche und Täuschungen in Videoaufzeichnungen von Aussagen der Zeugen und Angeklagten finden.323 Die Rechtsprechung zum Einsatz sensorgestützter Polygraphen („Lügendetektoren“) im Strafverfahren zeigt, dass auch die Domäne der Beweiswürdigung wandelbar ist und sich neuen Technologien öffnen kann.324 322  McCurrie/Beletti et al., Predicting First Impressions, in: The Institute of Elec­ trical and Electronics Engineers (Hrsg.), IEEE’s FG 2017 Proceedings, 2017, S. 518 (519 ff.); siehe auch Behrens, Algorithmus bewertet Vertrauenswürdigkeit von Men­ schen, Süddeutsche Zeitung (Online) vom 10.11.2016. 323  Wu/Singh et al., Deception Detection in Videos, 2017; Karimi, Deception De­ tection in Videos, in: D’Mello/Georgiou/Scherer (Hrsg.), ICMI, 18, 2018, S. 511 (511 ff.); eine beeindruckende Genauigkeit liefert auch das Modell von Krishnamurthy/Majumder et al., A Deep Learning Approach for Multimodal Deception De­ tection, 2018. Indem derartige Software lediglich mit Videoaufzeichnungen operiert, ist ihr Einsatz mit einer vergleichsweise geringen Eingriffstiefe verbunden. Andere Systeme können anhand einer Analyse von Hirndaten aus funktionellen Magnetreso­ nanztomographie-Scannern erkennen, ob eine Person lügt – für den Einsatz in ge­ richtlichen Verfahren erscheint dies jedoch weniger praktikabel. 324  Vgl. dazu oben S. 360, Fn. 6. Jedenfalls als belastendes Momentum bleibt ein Einsatz auch weiterhin unzulässig, ein entlastender Einsatz kommt durchaus in Be­ tracht. Siehe zur (teilweise vergleichbaren) datenschutzrechtlichen Problematik bei Aufzeichnungen sog. Dashcams als Beweismittel im Zivilprozess noch BGH, NJW 2018, 2883 ff. Technisch denkbar ist es auch, Standortdaten aus Smartwatches und Fitnessarmbändern (sog. Wearables) in Straf- oder Zivilverfahren zu nutzen – etwa um einen vermuteten Tathergang zu stützen, einem Angeklagten ein Alibi zu ver­ schaffen oder um Indizien für die Beteiligung an einem Verkehrsunfall zu finden; siehe zu den datenschutzrechtlichen Problemen hierbei etwa Dietrich/Krüger et al., Wearables und Strafjustiz, in: Schweighofer/Kummer/Hötzendorfer et al. (Hrsg.), IRIS 2017 Tagungsband, 2017, S. 559 (560 ff.).



V. Weitere Vorschläge zur Entscheidungsunterstützung447

3. Kontrollsysteme (ex post) Um menschliche Rationalitätsschwächen und fachfremde Einflüsse in ge­ richtlichen Entscheidungen zu detektieren, könnten algorithmenbasierte Kon­ trollsysteme (ex post) einen effektiven Beitrag leisten. So könnte bspw. ein Algorithmus nachträglich die bereits gefundene richterliche Entscheidung mit – etwa in Bezug auf Tathergang, Schaden, Verhalten des Angeklagten usw. – vergleichbaren, ähnlich gelagerten Fällen in der einer bundesweiten Datenbank abgleichen und auf diese Weise etwa regionale Unterschiede in der Strafzumessungspraxis sichtbar machen. Der Richter kann dann seine Entscheidung ex post noch einmal überdenken. Er müsste sich für eine sol­ che Kontrolle nicht auf ein „schlechtes Gefühl“ verlassen, sondern könnte auf einen rationalen Zuarbeiter rekurrieren. Die Methode eines typisierenden Fallvergleichs bzw. der Typendifferenzierung könnte rechtserhebliche Merk­ malskomplexe (Falltypen) sammeln, sichten und differenzieren.325 Der kon­ kret zu entscheidende, individuelle Fall lässt sich dann leicht einordnen.326 Als reines Vergleichswerkzeug eingesetzt, das den Fall in einen Kontext vorheriger Entscheidungen setzt, muss der Richter die juristischen Wertun­ gen im konkreten Fall nach wie vor selbst treffen. Zusätzlich können aber Algorithmen, welche die juristische Argumentation mit denen der Vergleichs­ fälle abgleichen, den Richter evtl. auf die „Idee“ weiterer Argumente bringen. Ein solches System könnte retrospektiv das Entscheidungsverhalten des Richters analysieren und eventuelle Fehler, kognitive Verzerrungen und fach­ fremde Einflüsse aufdecken. Wie der konkrete Fall im Vergleich mit anderen Fällen liegt, könnte graphisch-visuell aufbereitet werden. In der Sache han­ delte es dabei um ein deskriptives Entscheidungsunterstützungssystem,327 das die bisherige Rechtsprechung wertungsneutral registriert und katalogi­ siert – sie also bspw. in Strafzumessungsfaktoren und Gewichtungen aufteilt und maßgebliche Entscheidungsfaktoren darstellt.328 So, wie ein Gespräch mit Kollegen in der Gerichtskantine den Richter in einer konkreten Entschei­ Zippelius, Methodenlehre, 2012, S. 90. bereits Streng, NStZ 1989, 393 (395, dort Fn. 57): „[E]in computerge­ stütztes Informationssystem, welches das Abfragen anhand spezifischer Leitmerkmale des Falles ermöglichen würde, wäre von großem Nutzen“, jedenfalls in den häufiger vorkommenden Deliktstypen. 327  Vgl. dazu Giannoulis, Studien zur Strafzumessung, 2014, S. 311, der begriff­ lich den deskriptiven Ansätzen normative gegenüberstellt, die insbesondere auch der Wissenschaft zugänglich sind und anhand einer „breiteren normativen Auseinander­ setzung“ konzipiert sind. 328  Ein solches System könnte freilich eine gewisse Perpetuierung und Reproduk­ tion der Rechtsprechungspraxis fördern, was bspw. für die Case-law-Jurisdiktionen in angelsächsischen Ländern geradezu prädestiniert scheint. 325  Ebenso 326  Vgl.

448

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

dung bestätigen kann oder ihn stattdessen anregt, noch einmal zu zweifeln und zu überdenken, kann auch ein algorithmenbasiertes Kontrollsystem den Ex-post-Blick des Richters schärfen.329 4. Möglichkeiten speziell im Zivilprozess (Ausblick) Dass die vorangehenden Ausführungen primär dem Strafprozess gewidmet waren, soll nicht zu dem Schluss verleiten, in anderen Rechtsgebieten komme keine algorithmenbasierte Entscheidungsunterstützung in Betracht. Insbeson­ dere der Zivilprozess zeigt sich an einigen Stellen offen für einen Einsatz neuer Technologien. Im Familienrecht bspw. kommen längst unterstützende Programme zum Einsatz, insbesondere das Berechnungsprogramm „Famili­ enrechtliche Berechnungen“ von Gutdeutsch zur Berechnung von Unterhalts­ ansprüchen und Versorgungs- sowie Zugewinnausgleich.330 Aus Betroffe­ nensicht könnten bspw. Justiz-Chatbots mit Spracherkennung den Zugang der Bürger zu Informationen und Rechtsquellen verbessern,331 während aus Sicht der Justizverwaltung ein System den Aufwand einer Fallbearbeitung – Zeit, Ressourcen etc. – vorhersagen könnte, um Verfahren effizienter planen zu können.332

329  Vgl. zu den Vorgaben des Art. 97 Abs. 1 GG (richterliche Unabhängigkeit) die Ausführungen oben S. 422 ff. Um das Risiko einer ungewollten Beeinflussung und inhaltlichen Rückwirkung zu minimieren, könnte der Kontrollalgorithmus auch nur dann eingreifen, wenn er einen Fehler in Form eines fachfremden Kriteriums (etwa regionale Strafzumessungstraditionen) detektiert hat. 330  Nach Fries, RW 2018, 414 (422), ist es „unter Familienrechtlern […] ein of­ fenes Geheimnis, dass Richter die Resultate dieser Automaten teilweise ungeprüft übernehmen“. Vgl. auch Justizministerkonferenz 2019, Legal Tech: Herausforderun­ gen für die Justiz, 1.7.2019, S. 6. 331  Vgl. Biallaß, Der Einsatz von „Cognitive Computing“ in der Justiz – Teil 2: Potenzielle Anwendungsfälle, in: Viefhues (Hrsg.), Elektronischer Rechtsverkehr 2/2019, Rn. 47 (53 ff.). 332  Vgl. Europarat/Europäische Kommission für die Effizienz der Justiz (CEPEJ), Ethical Charter on the Use of AI, 2018, S. 16 f., 64. Auch in großen Handelsstreitig­ keiten kann sich algorithmische Unterstützung auszahlen: Der Rechtsstandort Deutschland steht im Wettbewerb des internationalen Wirtschaftsverkehrs, vgl. etwa Wagner, Rechtsstandort Deutschland im Wettbewerb, 2017 (passim). Trotz vergleichs­ weise hoher Erledigungszahlen und befriedigenden Verfahrenslaufzeiten bestehen Schwierigkeiten, hochkomplexe und wirtschaftlich außergewöhnlich bedeutsame Ver­ fahren angemessen und nach gleichmäßigen Standards zu erledigen, vgl. Poseck, Die Zivilgerichte besser aufstellen, Legal Tribune Online vom 12.2.2018.



V. Weitere Vorschläge zur Entscheidungsunterstützung449

a) Automatisierte gerichtliche Prüfung von Verträgen des täglichen Bedarfs Eine automatisierte, maschinelle Überprüfung von Verträgen des täglichen Bedarfs, z. B. Strom-, Gas- oder Mobilfunkverträge, bietet das Potenzial, Gerichte verbraucherfreundlich zu entlasten: Viele Verbraucher scheuen den Weg der gerichtlichen Überprüfung solcher Verträge wegen mäßiger Erfolgs­ aussichten und kleiner Streitbeträge, bei denen auch Rechtsanwälte in der Regel nicht kostendeckend arbeiten können. Eine kostengünstige und schnelle, automatisierte (gerichtliche) Überprüfung kann daher zur Rechtssi­ cherheit beitragen und den Zugang zum Recht verbessern;333 die bisherigen Erfahrungen um Anbieter wie flightright oder weniger-miete.de, die Entschä­ digungen bei Flugverspätungen oder die Durchsetzung der Mieterrechte zum Ziel haben, sind jedenfalls aus verbraucherrechtlicher Sicht erfreulich. Als Praxisbeispiel kann etwa das „Usable Privacy Policy Project“334 die­ nen: Eine Software liest und analysiert Datenschutzerklärungen (sog. privacy policies), die der durchschnittliche Verbraucher allein wegen ihrer Länge re­ gelmäßig nicht liest, sondern einfach anklickt. In vielen Fällen unterliegen diese Erklärungen und Texte trotz ihrer rechtlichen Wirkungen keiner juristi­ schen Prüfung, auch nicht durch Behörden. Die Kontrollsoftware durchfors­ tet daher das Internet nach solchen Datenschutzerklärungen und zeigt die rechtlich problematischen an; sie findet u. a. beim Generalstaatsanwalt in Kalifornien Anwendung.335 b) Automatisch generierte „Vor-Urteile“ In Estland arbeiten Wissenschaftler und Staatsdiener an einer Software, die bei kleineren zivilrechtlichen Streitigkeiten mit einer Schadenssumme von bis zu 7.000 Euro vollautomatisch juristische Entscheidungen generiert.336 Ein entsprechendes Pilotprojekt zur Schlichtung von Vertragsstreitigkeiten ist angelaufen. Dabei sollen die beiden sich gegenüberstehenden Verfahrensbe­ teiligten relevante Dokumente in eine Dokumentenablage einspeisen, wor­ aufhin ein System mit Komponenten maschinellen Lernens den Streitfall anhand von Präzedenzfällen und richterlichen Erfahrungswerten auswertet und entscheidet. Jedes auf diese Weise vollständig automatisiert generierte 333  Adrian,

Rechtstheorie 48 (2017), 77 (114 f.). https://www.usableprivacy.org/. 335  Vgl. Adrian, Rechtstheorie 48 (2017), 77 (116). 336  Vgl. Niiler, Can AI Be a Fair Judge in Court? Estonia Thinks So, wired.com vom 25.3.2019; siehe auch das Interview mit dem Digitalisierungsbeauftragten der estni­ schen Regierung, Velsberg, Estland: Roboter als Richter, MDR Aktuell vom 26.4.2019. 334  Siehe

450

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

Urteil soll vor einem menschlichen Richter anfechtbar sein. Es handelt sich augenscheinlich nicht mehr um eine reine Entscheidungsunterstützung, wie sie bspw. das COMPAS-System im US-amerikanischen Strafprozess darstellt, sondern um die wohl weltweit erstmalige juristisch-justizielle Entscheidungs­ gewalt eines algorithmischen Datenverarbeitungssystems – wenngleich Pla­ nung und Testphase keine Erfolgsgarantie verheißen. Spezielle Strukturierungs-Tools für die Sachverhaltsaufbereitung kommen auch im deutschen Zivilprozess in Betracht. Eine obligatorische Nutzung – bspw. ab dem Landgericht oder nur für anwaltlich vertretene Beteiligte – könnte dazu führen, dass die Parteien den Prozessstoff so geordnet vortragen, dass er direkt automatisch eingeordnet und aufbereitet werden kann – etwa in Kategorien wie „Anspruch aus § …“, „Einwendung“ oder „Einrede“. Für den Richter verheißt eine solche automatische Strukturierung und Aufarbei­ tung einen enormen Zeitgewinn. Auch die automatisierte Zulässigkeitsprü­ fung einer zivilprozessualen Klage ist grundsätzlich denkbar: Die Strukturie­ rung des Parteivortrages und die Schlüssigkeitsprüfung lassen sich ver­ gleichsweise problemlos algorithmisch abbilden.337 Eine verpflichtende Schriftsatzstruktur, welche den tatsächlichen und den rechtlichen Vortrag klar trennt, ist in der Diskussion;338 die prozessrechtliche Abteilung des 70. Deutschen Juristentages hat bereits 2014 den Beschluss gefasst, über „verbindliche Regelungen“ sei „sicherzustellen, dass die Parteien ihren Vortrag zum tatsächlichen und rechtlichen Vorbringen strukturieren“.339 Auf dieser Grundlage ließe sich eine digitale Dokumentenverwaltung erstel­ len, die gemäß der Relationstechnik korrespondierende bzw. aufeinander be­ zogene Ausführungen einander gegenüberstellt und dabei das Streitige klar aus dem Unstreitigen heraushebt.340 Eine digitale Relationstechnik könnte transparent und schnell abbilden, was genau die Parteien zu den Tatbestands­ voraussetzungen des geltend gemachten Anspruchs vorbringen, wann sie es vorbringen und was sie auf den Vortrag des Gegenübers erwidern.341 Der 337  Engel,

JZ 2014, 1096 (1100). bereits bei Calliess, Der Richter im Zivilprozess – Sind ZPO und GVG noch zeitgemäß?, 2014, S. A 98 ff.; ebenso Gaier, NJW 2013, 2871 (2874); konkretisierend Gaier, ZRP 2015, 101 (101 ff.). Zu den Chancen einer Schriftsatz­ strukturierung und einer anschließenden automatischen Erstellung von Aktenauszü­ gen jüngst Effer-Uhe, MDR 2019, 69 (70 ff.). 339  Vgl. Deutscher Juristentag e. V., Beschlüsse zum 70. Deutschen Juristentag, 2014, S. 5; der Beschluss wurde mit knapper Mehrheit gefasst (41:38:5 Stimmen). 340  Dazu und zum Folgenden Fries, NJW 2016, 2860 (2864). 341  Vgl. Fries, Zeit für einen Robo-Judge?, Legal Tribune Online vom 9.3.2018. Gegen eine umfassende Strukturierungspflicht lässt sich allerdings anführen, dass das strenge Erfordernis eines gänzlich präzisen, strukturierten Vortrags zumindest für die Anwaltschaft einen Mehraufwand bedeutete; dies jedoch verneinend mit dem Argu­ 338  Vorschlag



V. Weitere Vorschläge zur Entscheidungsunterstützung451

Richter muss dann nicht mehr zeitaufwendig die relevanten Aspekte aus sei­ tenlangen Ausführungen heraussuchen und -filtern. Ein Machine-Learning-System könnte sodann aus dem strukturierten und aufbereiteten Parteivorbringen auf Basis ergangener Entscheidungen in ver­ gleichbaren Fällen „Vor-Urteile“ generieren und damit die jeweiligen ­Er­folgs­aussichten umfassend auswerten.342 Insbesondere im Schadensersatz­ recht – bspw. in Fällen um Mietwagenersatzkosten bei einem Verkehrsunfäl­ len – könnte ein Algorithmus die Sachverhaltsinformationen aus den Schrift­ sätzen der Parteien und Sachverständigengutachten mit Daten von vergleich­ baren Fällen in Sekundenschnelle aus einer Rechtsprechungsdatenbank ab­ gleichen und eine Vor-Entscheidung generieren. Er könnte insbesondere den Parteienvortrag strukturieren und Textbausteine für einzelne Teile des Urteils erstellen. Ein auf diese Weise automatisiert erstellter Aktenauszug ist indes nicht identisch mit der richterlichen Aufgabe der Sachverhaltsaufklärung und der Rechtsfindung im engeren Sinne, sondern bereitet diese jeweils lediglich vor; das Parteivorbringen auf Schlüssigkeit, Erheblichkeit und erforderliche Beweisangebote zu kontrollieren, bleibt Domäne des menschlichen Richters, wenngleich diese Kontrolle dann wesentlich erleichtert ist.343 Gewährte man zudem den Parteien eines zivilrechtlichen Rechtsstreits Zugang zu bzw. Einsicht in diese „Vor-Urteile“, könnte dies die Arbeit der Justiz effizienter gestalten344 und Richter entlasten, weil z. B. aussichtslose Klagen oder Klageerwiderungen gar nicht erst eingereicht oder aber zurück­ genommen würden.345 Im Übrigen könnten solche „Vor-Urteile“ auch zu ei­ ner einheitlicheren untergerichtlichen Rechtsprechung führen.346 ment, Anwälte seien ohnehin bereits aus ihrer Pflicht zur Berufsausübung lege artis verpflichtet, strukturiert vorzutragen, Gaier, ZRP 2015, 101 (104). 342  Aus technischer Perspektive ist es jedenfalls möglich, dass eine Maschine z. B. Gesetzestexte, Literatur und obergerichtliche Rechtsprechung zu einem bestimmten Sachverhalt bereitstellen kann (Output), wenn sie Zugriff auf entsprechende Datenban­ ken und hinreichende Informationen zur Einordnung des konkreten Sachverhalts (Input) hat. Vorstellbar sind auch teilautomatisierte Schriftsatzcomposer als „Textbausteinliefe­ ranten“. Denkbar ist zudem, dass lernfähige Systeme zum Einsatz kommen, die Anträge sowie (rechtlich) relevante Informationen in Schriftsätzen erkennen und markieren. 343  Gaier, ZRP 2015, 101 (104). 344  Vgl. Fries, NJW 2016, 2860 (2864): „Problem ineffizient genutzter richterli­ cher Arbeitszeit“. 345  Damit geht freilich die Gefahr einher, dass sich Rechtsuchende wegen einer algorithmisch prognostizierten geringen Erfolgswahrscheinlichkeit gegen eine Klage oder einen Rechtsbehelf entscheiden. Diese abschreckende Wirkung könnte Resigna­ tion erzeugen und für viele Menschen den „faktischen Zugang zum Recht“ reduzie­ ren. Zum Rechtsstaat gehört es, dass der Bürger grundsätzlich gerade auch Fälle vermeintlicher Aussichtslosigkeit gerichtlich klären lassen kann. 346  Fries, NJW 2016, 2860 (2864). Ein solches Vorgehen begegnet indes auch rechtlichen Bedenken – jedenfalls dann, wenn Klagen oder Anträge bspw. wegen

452

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

VI. Fazit des dritten Teils 1. Algorithmen versus Denkfehler? – Technische Unterstützung als Chance für rationalere Entscheidungen Wenn Rechtsfindung und -anwendung in Teilen immer komplexer werden und zugleich ein Bedürfnis nach schnellen Entscheidungen und kürzeren Prozessen ohne Qualitätseinbußen besteht, verspricht der Gedanke einer technikgestützten Entscheidungsassistenz erhebliche Effizienzgewinne. So­ fern algorithmisch formalisierte Prozesse darüber hinaus die Aussicht auf objektiv abgesicherte Einzelfallgerechtigkeit verbessern, entpuppt es sich als besonders attraktiv, auf sie auch in der Justiz zurückzugreifen.347 Verfahren algorithmischer Entscheidungsunterstützung sind insbesondere dann in der Lage, der juristischen Entscheidungsfindung den Anstrich gestei­ gerter Rationalität zu verpassen, wenn hybride Systeme mit sowohl händisch programmierten Regeln als auch daten- bzw. fallbasierten, lernenden Kom­ ponenten zum Einsatz kommen. So ist etwa denkbar, den Confirmation Bias348 einzudämmen: Ein automatisch generierter Entscheidungskorridor oder -vorschlag könnte den Richter dazu verleiten, die vor seinem „inneren Auge“ getroffene Entscheidung noch einmal kritisch zu prüfen. Ein Anreiz dazu, das eigene Handeln und Denken stärker zu reflektieren, kann als Kon­ trollinstanz wirken. In der Strafzumessung könnte zudem ein Unterstützungs­ system dazu beitragen, den Ankereffekt349 zu reduzieren. Auch hinsichtlich weiterer Denkfehler, die menschlichen Entscheidungen zugrunde liegen können, scheint ein positiver Einfluss der Technik möglich: Algorithmenba­ sierte Hilfe könnte die richterliche Entscheidungsfindung kontrollierbarer und gleichmäßiger machen – und dadurch sowohl die formelle Gleichbe­ formaler Fehler und daraus resultierenden, durch den Algorithmus bestätigten, gerin­ gen Erfolgsaussichten abgewiesen bzw. abgelehnt werden: So ist es bisweilen gerade der Sinn des Justizgewährungsanspruchs (vgl. dazu bereits oben S. 310 f.), auch bei (vermeintlich) geringen Erfolgsaussichten eine gerichtliche, also richterliche Sachver­ haltsklärung erreichen zu können. 347  Kamarinou/Millard et al., Machine Learning with Personal Data, 2016, S. 15, kokettieren gar mit einer Art „Recht auf Beschwerde bei einer Maschine“ bzw. auf maschinelle Überprüfung einer menschlichen Entscheidung: Wenngleich die Idee prima facie seltsam anmutet, weil Maschinen die Vorurteile, Werte und Subjektivi­ tät ihrer Designer in sich tragen, kann Systemen maschinellen Lernens dennoch das Potenzial innewohnen, ein höheres Level an Objektivität und Neutralität gerade dadurch zu erreichen, dass sie besonders geschützte Merkmale aktiv ausblenden können. 348  Dazu oben S. 63 ff. 349  Dazu oben S. 53 ff.



VI. Fazit des dritten Teils453

handlung als auch die Rechtssicherheit erhöhen.350 Valide Aussagen über die Chancen von Entscheidungsunterstützungssystemen lassen sich indes erst dann treffen, wenn Wissenschaft und Praxis Testreihen durchgeführt und empirisch belegte Zusammenhänge hergestellt haben. Als evidentes Problem stellt es sich allerdings dar, dass auf Mustererken­ nung ausgerichtete datenbasierte Systeme die Rationalitätsschwächen, wel­ che sich in den bisherigen Entscheidungen ausgewirkt haben – bspw. „höhere Strafen am Montag nach der frühjährlichen Zeitumstellung“351 – implizit als Regel erkennen, ihren eigenen Entscheidungen unterlegen und die Verzerrun­ gen auf diese Weise übernehmen und perpetuieren könnten. Die Systeme sind daher ihrerseits einer fortlaufenden Fehlerkontrolle zu unterziehen. Entscheidungsunterstützende Systeme sind kein Allheilmittel. Ihr Einsatz wird nicht zu „perfekten“ Gerichtsentscheidungen führen, in denen keinerlei Symptome einer Rationalitätsschwäche oder fachfremder Einflüsse mehr zu Tage treten. Sie können aber ein nützlicher Vitamincocktail sein, mit dessen Hilfe die Justiz rationalisierende Selbstheilungskräfte dadurch aktivieren kann, dass sich der einzelne Richter manche Fehlerquelle bewusst(er) macht. Neue Modelle der sog. Predictive Judicial Analytics – auf maschinellem Lernen beruhende Modelle der Entscheidungsanalyse und -vorhersage – schicken sich zudem an, außerrechtliche Faktoren, die juristische Entschei­ dungen beeinflussen, treffsicher identifizieren und damit Rationalitätsschwä­ chen verringern zu können.352 Dabei lockt besonders die Aussicht darauf, dass die Rechtsprechungspraxis künftig konsistenter, gleichmäßiger, effizien­ ter und fairer sein könnte.353 Vor allem die Untersuchungen zu den Entscheidungen im Vorverfahren (Untersuchungshaft, Sicherheitsleistung) in den USA zeigen, dass algorith­ menbasierte Systeme in Strafverfahren durchaus „passendere“, präzisere Er­ 350  So auch Krimphove, Rechtstheorie 30 (1999), 540 (567 f., 576); Giannoulis, Studien zur Strafzumessung, 2014, S. 400; optimistisch auch Philipps, MschrKrim 1998, 263 (271), sowie Munte, Rechtstheorie 32 (2001), 533 (557). Grundsätzlich kann Künstliche Intelligenz die menschliche vor allem dort unterstützen, wo es zu trivialen Fehlern kommt – und bspw. Konzentrationsschwächen ausgleichen und Re­ chen- oder Tippfehler detektieren. 351  Vgl. oben S. 73. 352  Vgl. Chen, Artificial Intelligence and Law 27 (2019), 15 (16 ff.), der sein Mo­ dell aber nicht einzelne Gerichtsentscheidungen vorschlagen sieht, sondern – auf ei­ ner grundsätzlicheren Ebene – dessen Ergebnisse jeweils als Input für die Justiz nut­ zen will – zwecks Steigerung der Effizienz und Fairness in nachfolgenden Fällen. 353  Chen, Artificial Intelligence and Law 27 (2019), 15 (16 ff.). Auch die Gefahr einer „Erstarrung“ des Rechts besteht nicht, solange die datenbasierten Systeme nur unterstützend eingesetzt werden; neue Aspekte und gesellschaftliche Entwicklungen können die Richter ohnehin immer in ihre Entscheidungen einspeisen und damit das Recht weiterentwickeln.

454

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

gebnisse als Richter erreichen können.354 Die konkrete Vorhersageaufgabe (Risikoklassifizierung) und die große verfügbare Datenmenge gestalten die­ ses Szenario als geradezu „klassischen“, gut geeigneten Anwendungsfall maschinellen Lernens aus. 2. Ergänzungen der juristischen Ausbildung Neben den Vorschlägen, die juristische Ausbildung mit Elementen aus Psychologie und Verhaltensökonomik anzureichern,355 kann ein sinnvoller Baustein zukunftsgerichteter Juristenaus- und -weiterbildung auch darin be­ stehen, „E-Justice-Kompetenz“ zu vermitteln.356 Darunter könnte bspw. die Kompetenz zur effektiven Nutzung der juristischen Datenbanken fallen, da­ mit Rechtsanwender in der sich aufwiegenden Informationsflut den Blick für das Wesentliche und Relevante behalten. Gedenkt der Staat, algorithmenbasierte Entscheidungsunterstützungssys­ teme in der Rechtsprechung einzusetzen, sollten Referendariat und richterli­ che Fortbildungen unbedingt den Automation Bias357 zum Gegenstand haben und das Bewusstsein der (angehenden) Richter dafür schärfen, dass algrotih­ misch ermittelte Vorschläge nicht verbindlich, sondern stets nur Assistenz sein können. 3. Ausblick Auch in Zukunft bleibt der „Faktor Mensch“ in gerichtlichen Verfahren unersetzlich. Alle Bestrebungen, die darauf zielen, den menschlichen Richter vollständig zu ersetzen, weisen deshalb schon von vornherein ins Leere. 354  Vgl. Kleinberg/Lakkaraju et al., The Quarterly Journal of Economics 133 (2018), 237 (237 ff.). Über 40 % weniger Personen in Untersuchungshaft ohne nume­ rischen Anstieg derjenigen Personen, die sich dem Strafprozess entziehen oder wei­ tere Straftaten begehen – die Ergebnisse deuten auf eine Win-win-Situation hin. Vgl. auch Neufeld, In Defense of Risk-Assessment Tools, 22.10.2017. 355  Vgl. oben S. 133 f. 356  Vgl. Heckmann, E-Justice-Kompetenz: ein Muss in der künftigen Juristenaus­ bildung, in: Boorberg Verlag (Hrsg.), Jurist 4.0 – Die neue Welt des Rechts, 2016/2017, S. 14 (14 f.); kritisch zum Begriff Herberger, Digitalisierung und Juristen­ ausbildung – einige programmatische Bemerkungen, in: Boorberg Verlag (Hrsg.), Soft Skills im Trend – Kompetenz, Kommunikation und Recht, 2017, S. 28 (29), der stattdessen von „Rechtsinformatik-Kompetenz“ spricht und vorschlägt, diese als Schlüsselqualifikation in § 5a Abs. 3 DRiG aufzunehmen. Im Rahmen der „E-JusticeKompetenz“ könnten den angehenden Juristen auch technische Grundlagen und Be­ griffe – etwa zu Algorithmen und Künstlicher Intelligenz – vermittelt werden; als Rahmen ist hierfür auch ein eigenes universitäres Schwerpunktstudium denkbar. 357  Vgl. oben S. 295 ff. sowie 424 ff.



VI. Fazit des dritten Teils455

Vielmehr wird es künftig allein darum gehen können, den Menschen im Ein­ klang mit verfassungsrechtlichen Grundsätzen mit technischen Mitteln zu unterstützen.358 Dafür spricht auch die Komplexität der gerichtlichen Praxis: In allen Rechtsgebieten sind es zumeist nicht die eindeutigen oder durch­ schnittlichen Musterfälle, die sich problemlos in Konditionalsätzen abbilden und entscheiden lassen, welche letztlich vor Gericht landen. Vielmehr sind es diejenigen Fälle, in denen die Parteien bzw. Beteiligten über den noch aufzu­ klärenden Sachverhalt, die Subsumtion und die juristisch-ethische Wertung streiten und deshalb gerade auf das Urteil eines (menschlichen) Richters po­ chen. Besonders im Strafrecht steht das Erfordernis der Einzelfallbewertung einer „Automatisierung“ bereits begrifflich entgegen: Ausgangs- und End­ punkt der strafgerichtlichen Entscheidungsfindung muss stets der Einzelfall sein; Strafen müssen dem Schuldprinzip entspringen. Mit den Grundwerten der deutschen Rechtsordnung wäre es nicht vereinbar, wenn eine Maschine darüber „entscheidet“, ob ein Mensch seine persönliche Freiheit verliert. Im Gegenzug auch jeglichen Möglichkeiten einer Entscheidungsvorbereitung und Entscheidungsunterstützung grundsätzlich „eine klare Absage zu erteilen“359, scheint jedoch zu strikt. Ein solch restriktiver Schluss basiert zwar unter anderem auf dem einleuchtenden Gedanken, dass es bislang kei­ nen anderen Weg gibt, auf dem eine unabhängige Instanz Rechtsfrieden herstellen kann, als über den „analogen Richter“. Nach David Humes SeinSollen-Dichotomie360 – „There is no way from the Is to the Ought.“ – ist aber der Schluss von einem (deskriptiven) Sein auf ein (normatives) Sollen nicht sinnvoll. Ergeben bspw. Testphasen, dass algorithmenbasierte Systeme die richterliche Entscheidungsfindung im Einklang mit normativen Grundsät­ zen – vergleichbar mit Hilfsarbeitern – sinnvoll unterstützen können, sollte 358  In der englischsprachigen Fachliteratur klingt dies teilweise weniger verhal­ ten, vgl. etwa Chen, Artificial Intelligence and Law 27 (2019), 15 (16): „[I]f we want to replace judges we should do […] Since many think that highly accurate predic­ tions relative to a large body of historic cases would provide a good indication that judges could be replaced […]“ (Hervorhebungen nicht im Original). Vgl. auch Benning, Digitalisierung und Jurisprudenz, in: van Oostrom/Weth (Hrsg.), FS Herberger, 2016, S. 61 (67): Wenn die Entwicklung der Computertechnologie so weitergehe, werde es „sicherlich bald auch ‚Subsumtionsautomaten‘ geben, die eigenständig Rechtsfälle lösen […] Die Aufgabe der Rechtsprechung bestünde dann darin, komple­ xere Zusammenhänge zu erkennen und in einfache Teile zu zerlegen, um dann zu einem – hoffentlich gerechten – Urteil zu gelangen“. 359  So etwa Altemaier, „Justiz 4.0“ – auch die Justiz wird (noch) digitaler, in: Boorberg Verlag (Hrsg.), Jurist 4.0 – Die neue Welt des Rechts, 2016/2017, S. 6 (8). 360  Vgl. Hume, A Treatise of Human Nature, Vol. II, 1740, Buch 3, Teil 1, Ab­ schnitt 1, in der Ausgabe von Green/Grose, The Philosophical Works of David Hume, 1875, Vol. II, S. 245 ff. Siehe auch Elqayam/Evans, Behavioral and Brain Sciences 34 (2011), 251 (251 f.), sowie Pidgen, Hume on Is and Ought, https://philosophynow. org/issues/83/Hume_on_Is_and_Ought (10.6.2020).

456

Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung

die Diskussion über einen Einsatz in praxi kein Tabu sein.361 In den Worten Lü Buweis: „Die Welt ändert sich, die Zeit wechselt, darum ist es gehörig, dass auch die gesetzlichen Ordnungen verändert werden.“ Zum jetzigen Zeitpunkt ist der Einsatz algorithmenbasierter Entschei­ dungsunterstützungssysteme zur Rekuktion menschlicher Entscheidungs­ schwächen im Justizalltag noch nicht in Sichtweite. Zahlreiche offene Fragen verlangen zuvor nach klaren Antworten:362 Wer bzw. welche Stelle genau soll dafür zuständig und verantwortlich sein, die Systeme zu programmieren, zu pflegen und zu aktualisieren? Wem ist die IT-Sicherheit anvertraut – je­ dem Gericht selbst, der Justizverwaltung, dem Bund?363 Sollte die Einfüh­ rung auf Landes- oder Bundesebene erfolgen? Insoweit kann es sich als sinnvoll erweisen, „klein anzufangen“ und die Möglichkeiten in einem be­ grenzten Teilbereich zu testen. Wenngleich der Gesetzgeber das einfache Recht, insbesondere die StPO anpassen müsste, verbieten es weder das Verfassungs- noch das Unionsrecht kategorisch, technische Systeme im Strafprozess entscheidungsunterstützend einzusetzen. Es muss allerdings ausgeschlossen sein, dass eine Software dis­ kriminierende Ergebnisse erzeugt. Damit das überprüfbar ist, muss ihre Funk­ tionsweise im Grundsatz nachvollziehbar sein und im Einklang mit Gesetz und Recht stehen. Den Fairnessmaßstab und die Ziele eines solchen Systems dürfen die zuständigen staatlichen Instanzen nicht privatwirtschaftlichen Un­ ternehmen überlassen, sondern sie müssen diese vorab normativ festschreiben. Im Idealfall könnten algorithmenbasierte Systeme der Entscheidungsunter­ stützung künftig typisch menschliche Fehler in der richterlichen Entschei­ dungsfindung auffangen – und vice versa der Richter die typischerweise mit einem Algorithmeneinsatz verbundenen Risiken ausgleichen. So entstünde ein System wechselseitiger Kontrolle, das im Ergebnis zu einer rationaleren Entscheidungsfindung führen kann. Teilautomatisierte Verfahren im Bereich der Rechtsfindung stellen also nicht in erster Linie eine Gefahr dar, die es zu vermeiden gilt – sondern ihnen wohnt das Potenzial inne, ein „höchst origi­ nelles Hilfsmittel“364 zu sein. 361  Immerhin muss die Justiz auch „wehrhaft“ bleiben: Wenn insbesondere große Kanzleien „aufrüsten“ und Anwendungen Künstlicher Intelligenz nutzen, um Prozes­ staktiken zu optimieren und (über)lange Schriftsätze zu erstellen, kann technische Assis­ tenz auch Richter darin unterstützen, die Aktenberge zu bewältigen und zu durchdringen. 362  Siehe auch den Katalog offener Fragen bei Enders, JA 2018, 721 (725 f.). 363  Die Frage stellt sich auch im E-Government: Grundsätzlich ist jeder Verwal­ tungsträger – Gemeinde, Kreis, Land, Bund – für seine Verwaltungsinfrastruktur und damit auch die eigene IT-Sicherheit verantwortlich, wie Art. 30, Art. 28 Abs. 2 GG suggerieren. Vgl. zu diesem Praxisproblem Schliesky, NVwZ 2019, 693 (695). 364  Vgl. bereits Simitis, Automation in der Rechtsordnung – Möglichkeiten und Grenzen, 1967, S. 24.

Gesamtfazit I. Schluss und Ausblick Im demokratischen Rechtsstaat kommt einer unabhängigen und funktions­ tüchtigen Justiz eine hohe Bedeutung zu. Der Stellenwert der Judikative in einem Gemeinwesen misst sich auch daran, wie stark ihre Urteile in der Bevölkerung auf Akzeptanz stoßen. Über bestimmte Lebenssachverhalte und ihre rechtliche Einordnung zu entscheiden, bildet das Herzstück richterlicher Tätigkeit. Menschliches Entscheidungsverhalten wiederum lässt sich model­ lieren und empirisch untersuchen. Im Möglichkeitenraum aus vereinzelten, medial mit Aufmerksamkeit bedachten „Fehlurteilen“ und „Justizskandalen“ einerseits und dem Idealtypus der blinden Justitia andererseits, die rein ratio­ nal und ausschließlich nach dem Gesetz entscheidet, liegt die Realität der richterlichen Entscheidungsfindung in einer Graustufe dazwischen. Richter sind keine Subsumtionsautomaten, sondern müssen oftmals auch subjektive Eindrücke und auslegungsbedürftige Wertungen in ihre Entscheidung einflie­ ßen lassen. Wertungsentscheidungen sind allerdings fehleranfällig, wenn und soweit sie nicht auf (objektiven) Tatsachen beruhen. Der Blick auf die Judikative ist (lediglich) eine Momentaufnahme: Die Gesellschaft und gleichsam das Recht wandeln sich. Um neuen Herausforde­ rungen und Aufgaben pro futuro gewachsen zu sein, müssen sich auch die staatlichen Institutionen verändern, jedenfalls aber regelmäßig modernisie­ ren. Gerade die Chancen und Risiken, die mit den neuen technischen Mög­ lichkeiten einhergehen, welche unter dem Stichwort „Digitalisierung“ firmie­ ren, zeitigen Auswirkungen darauf, wie die drei Staatsgewalten ihren Aufga­ ben nachkommen. Mit Blick auf die Rechtsprechung sind vielgestaltige Möglichkeiten vorstellbar. Richter durch algorithmenbasierte Systeme in ih­ rer Entscheidungsfindung zu unterstützen, kann ein Weg sein, effektiv Rechtsschutz zu gewähren und zu rationaleren Entscheidungen zu kommen. Zugleich sollten digitalisierte oder automatisierte Prozesse stets einem kon­ kreten (höheren) Zweck dienen und nicht um ihrer selbst willen erfolgen. Denn ebenso wie die menschliche ist auch die maschinelle Erkenntnisfähig­ keit endlich. Beide unterliegen Beschränkungen. Gefahren und Probleme re­ sultieren nicht zuletzt aus den Risiken hinsichtlich der Datensicherheit. Infor­ mationstechnische Systeme in der Justiz bieten Angriffsflächen für Manipu­ lation und damit für eine illegitime Einflussnahme auf den richterlichen Entscheidungsprozess.

458 Gesamtfazit

Ein pragmatischer Blick auf die Justizpraxis, etwa ihre Aktenwagen und händisch gesetzten Eingangsstempel, lässt algorithmenbasierte Systeme, die den Richter tatsächlich in seiner Entscheidungsfindung und nicht lediglich organisatorisch unterstützen, noch als Zukunftsmusik erklingen. Betrachtet man den langen Prozess des Umstiegs von der Papier- auf die elektronische Akte – vom gesetzgeberischen Entschluss über die Konzeption bis hin zur tatsächlichen Umsetzung – aus der Vogelperspektive, wirkt die Justiz wie eine träge Masse, die sich (technischen) Neuerungen zwar nicht vollständig verschließt, ihnen aber auch keinen fruchtbaren Nährboden bietet. Der Gedanke eines Smart Judging verdient zumindest einen Platz in den Diskussionen um die Digitalisierung und Modernisierung der Justiz. Ein differenzierter Blick legt dabei nahe, dass zwischen dem Streben nach mehr Rationalität und einer „humanen Judikative“ kein Widerspruch bestehen muss. Gerade der Einsatz neuer Technologien könnte die Suche nach der materiellen Wahrheit im Einzelfall unterstützen, idealiter zu einer größeren Akzeptanz gerichtlicher Entscheidungen beitragen und dadurch auch dem Rechtsfrieden dienen. Wie viel Macht das Gemeinwesen informationstechnischen Systemen und ihren Entwicklern im staatlichen Einsatz zugestehen will, bleibt in großen Teilen eine gesamtgesellschaftliche, eine rechtspolitische Entscheidung. Ei­ nige Leitplanken gibt jedoch die Verfassung vor. Gerade weil der technische Fortschritt nicht sicher voraussehbar ist, bietet sich jedenfalls ein klares ge­ setzgeberisches Bekenntnis zur „menschlichen Letztentscheidung“ in gericht­ lichen Verfahren an. Denn die Justiz entscheidet nicht über Akten, simulier­ bare Abläufe oder rein theoretische Rechtsfragen, sondern sie nimmt Einfluss auf konkrete menschliche Einzelschicksale. Wollen wir bspw. eine strafge­ richtliche Entscheidung darüber, ob und wie lange ein Mensch im Gefängnis verbringen muss, wirklich in Teilen Maschinen überantworten, deren Funkti­ onsweise nur Fachleute verstehen? Wollen wir Algorithmen einen Einfluss auf die Entscheidung darüber einräumen, ob eine Person eine Gefahr für die Allgemeinheit darstellt und deshalb hinter Gitter gesperrt wird? Solche Fra­ gen verlassen den Bereich der juristischen Dogmatik und reichen weit hinein in die Ethik: Kein einzelner Mensch kann sie klar für alle anderen beantwor­ ten, vielmehr sind sie gesellschaftlich und politisch auszuhandeln. Zu dieser Diskussion will das vorliegende Werk einen Beitrag leisten.1

1  Unbeantwortet und als Anknüpfungspunkt für nachfolgende Untersuchungen verbleiben zahlreiche Folgefragen, z. B. wer oder welche Stelle genau dafür zuständig und verantwortlich sein sollte, die Systeme zu programmieren und zu pflegen, wem die IT-Sicherheit anvertraut wäre (jedem Gericht selbst, den Justizverwaltungen, dem Bund), und ob die Einführung auf Landes- oder Bundesebene erfolgen sollte.



II. „Entscheidungs-Automatisierungs-Dilemma“459

II. „Entscheidungs-Automatisierungs-Dilemma“ Je mehr und je komplexere Aufgaben eine Maschine wahrnehmen soll, desto leistungsfähiger muss sie sein. Mit der Leistungsfähigkeit steigt grund­ sätzlich auch ihre eigene Komplexität. Für den Einsatz neuer Technologien in der Justiz wächst sich das zum Problem aus: Je komplexer ein System ist, desto weniger nachvollziehbar ist grundsätzlich dessen Struktur und Arbeits­ weise. Gerichtliche Entscheidungen müssen – als Handlungsform des Staa­ tes – aber verstehbar und transparent sein, bedürfen einer juristischen (und nicht lediglich technischen) Begründung. Zugleich kann bei höherer Leis­ tungsfähigkeit und Komplexität auch die Gefahr steigen, dass sich der An­ wender auf den maschinellen Vorschlag „verlässt“, was die Hemmschwelle erhöht, „auf eigenes Risiko“ davon abzuweichen. Das Problem der schwieri­ gen bis unmöglichen Nachvollziehbarkeit stellt sich strukturell insbesondere bei lernenden Systemen, in tatsächlicher Hinsicht aber auch bei rein regelba­ sierten Systemen, die etwa durch einen hohen Detailgrad eine komplexe und kaum überschaubare Struktur aufweisen können.

Abbildung: Das „Automatisierungs-Dilemma“ bei gerichtlichen Entscheidungen (eigene Darstellung)

460 Gesamtfazit

(1.) Elektronische Akte „ohne Zusatzfunktionen“ (2.) Elektronische Akte „mit Zusatzfunktionen“ (Suchen, Markieren, Noti­ zen anheften); Kalender- und Fristenapplikationen (3.) Juristische (Online-)Datenbanken und Wissensmanagementsysteme (4.) Daten- und Dokumentenanalyse mit ersten Einordnungen/Empfehlun­ gen (5.) Daten- und Dokumentenanalyse mit ersten Einordnungen/Empfehlun­ gen nach eigenständiger Entscheidungsfindung (6.) Automatisierte Erstellung von Textbausteinen nach richterlicher Ent­ scheidung und Vorgabe (7.) Automatisierte Erstellung von Textbausteinen/Texten/Dokumenten nach eigenständiger Entscheidungsfindung Für den Technikeinsatz in der Rechtsprechung bedeutet das: Entlang eines aufsteigenden Automatisierungsgrades – also mit zunehmenden tatsächlichpraktischen Möglichkeiten – sinkt die Nachvollziehbarkeit der Arbeitsweise. Die Pole größere Leistungsfähigkeit bzw. damit einhergehend höhere Komplexität auf der einen und Nachvollziehbarkeit auf der anderen Seite offenba­ ren daher einen Zielkonflikt, ein „juristisches Automatisierungsdilemma“2 bzw. -paradox, das der Automatisierung gerichtlicher Entscheidungen auch strukturelle Grenzen setzt.

III. Zusammenfassung der Ergebnisse Menschen treffen Entscheidungen nicht rein rational. Kognitive Verzerrun­ gen, Denkfehler und andere Rationalitätsschwächen können das Entschei­ dungsverhalten beeinflussen. Der Ankereffekt etwa beschreibt die Tendenz, dass Menschen bei bewusst gewählten Zahlenwerten – numerischen Urtei­ len – von momentan vorhandenen Umgebungsinformationen bzw. zufällig oder gar willkürlich vorgegebenen Zahlenwerten beeinflusst werden, ohne dass sie sich dieses Einflusses bewusst sind; der Confirmation Bias bzw. (Selbst-)Bestätigungsfehler bezeichnet das Phänomen, dass Menschen Infor­ mationen umso eher wahrnehmen und als wichtig bewerten, je besser sie zur eigenen Erwartungshaltung passen und so den eigenen Standpunkt stützen. 2  Der Begriff „Automatisierungsdilemma“ fand bereits in den 1980er Jahren insbesondere in der Diskussion um die Automatisierung von Pilotenaufgaben im Flugzeugcockpit Verwendung; vgl. dazu und zu den damit verbundenen „Ironien“ der Automatisierung Lüdtke, Wege aus der Ironie in Richtung ernsthafter Automatisie­ rung, in: Botthof/Hartmann (Hrsg.), Zukunft der Arbeit in Industrie 4.0, 2015, S. 125 (126 f.).



III. Zusammenfassung der Ergebnisse461

Kognitionspsychologie und Verhaltensökonomik kennen viele weitere dieser Biases. Auch Emotionen, Vorurteile oder Schlafmangel können die mensch­ liche Entscheidungsfindung verzerren. Trotz ihrer fundierten Ausbildung und ihres Expertenstatus sind auch Richter grundsätzlich anfällig für Rationali­ tätsschwächen. In der Rechtsprechung können sich solche Unschärfen beson­ ders gravierend auswirken: Gerichtliche Entscheidungen haben einen direk­ ten und unmittelbaren Einfluss auf das Leben des jeweils Betroffenen bzw. am Gerichtsverfahren Beteiligten.3 In gerichtliche Entscheidungen fließen demnach Aspekte ein, die aus rechtlicher Sicht keine Rolle spielen sollten. Die empirische Forschung zur richterlichen Entscheidungsfindung in Deutschland steckt derweil noch gleichsam in den Kinderschuhen.4 Gut belegt sind insbesondere die regio­ nalen Unterschiede in der Strafzumessungspraxis. Die regionale Strafzumes­ sungstradition ist indes kein rechtlich vorgesehenes Unterscheidungsmerk­ mal: Im Hinblick auf Art. 3 Abs. 1 GG müssten Gerichte unabhängig davon, ob ein Prozess in München, Köln oder Bremen stattfindet, in vergleichbaren Fällen zu vergleichbaren Ergebnissen kommen.5 Viele der Studien, die sich mit dem Phänomen der richterlichen Entscheidungspraxis beschäftigen, stammen daneben aus dem englischsprachigen Ausland. Einige psychologi­ sche oder verhaltensökonomische Erkenntnisse basieren deshalb auf einem Untersuchungsgegenstand, der nicht exakt deckungsgleich mit den Verhält­ nissen in Deutschland ist. Sie bieten jedoch Anhaltspunkte dafür, allgemeine Aussagen über Fehlerquellen zu treffen, die sich in menschliche, insbeson­ dere richterliche Entscheidungsprozesse einschleichen können. Der empirischen Momentaufnahme der tatsächlichen Entscheidungspraxis sind normative Weichenstellungen vorgelagert: Die Rechtsordnung gewährt dem Richter weitreichende Freiheiten und sachliche wie auch persönliche Unabhängigkeit. Willkürlich darf er deshalb aber nicht entscheiden. Vielmehr unterliegt er einer Pflicht zur „inneren Unabhängigkeit“, er muss unpartei­ isch sein: Der Richter muss neutral entscheiden und sich von sachfremden Einflüssen lösen. Seine Entscheidungen unterliegen der Bindung an Gesetz und Recht, müssen insbesondere diskriminierungsfrei sein und „ohne Anse­ hen der Person“ (vgl. § 38 Abs. 1 DRiG) erfolgen. Der Richter muss sie mit einer nachvollziehbaren Begründung versehen: Diese dient dem Verständnis der Entscheidung und ihres Zustandekommens sowie als Ausgangspunkt für Rechtsmittel.6 3  Vgl.

oben oben 5  Vgl. oben 6  Vgl. oben 4  Vgl.

S. 29 ff., insbesondere 45 ff. S. 91 ff. S. 84 ff. S. 94 ff.

462 Gesamtfazit

Mit Blick auf die gravierenden Auswirkungen, die Rationalitätsschwächen in richterlichen Entscheidungen auf menschliche Einzelschicksale haben können, lohnt es sich, darüber nachzudenken, wie sich gerichtliche Entschei­ dungen noch rationaler treffen und wie sich die Auswirkungen fachfremder Einflüsse reduzieren lassen. Eine Möglichkeit wäre, in der Juristenaus- und -fortbildung anzusetzen und insbesondere die psychologischen Grundlagen der Entscheidungsfindung sowie Rationalitätsschwächen und DebiasingTechniken in den Fokus zu rücken – oder jedenfalls ein Bewusstsein dafür zu schaffen.7 Im Bereich des Strafrechts kann es sich als sinnvoll erweisen, nicht nur die Subsumtion von Straftatbeständen und Rechtfertigungsgründen zu lernen und zu lehren, sondern auch die wesentlichen Aspekte der Strafzu­ messung in den obligatorischen Studien- oder Referendarstoff aufzunehmen. Auch dem Einsatz neuer Technologien der algorithmenbasierten Entschei­ dungsfindung sowie ‑unterstützung wohnt jedenfalls theoretisch und grund­ sätzlich das Potenzial inne, menschliche Entscheidungen rationaler zu ma­ chen.8 Dabei scheidet allerdings eine vollständige Automatisierung gerichtlicher Verfahren – einschließlich der Verhandlungsleitung und der Sachverhaltser­ mittlung – von vornherein aus.9 Die gerichtliche End-Entscheidung lässt sich nicht vollständig durch automatische Datenverarbeitungssysteme treffen. Einzelfallgerechtigkeit hinreichend sicher zu gewährleisten, ist in vollauto­ matisierten Verfahren technisch (derzeit) nicht möglich: Ausnahmefälle und unvorhergesehene Sachverhaltskonstellationen können das binäre Prüfraster überfordern. Die Hürde zwischen der stets kontextabhängigen natürlichen (Rechts-)Sprache und kontextinvarianten formalen (Maschinen-)Sprachen ist – auf absehbare Zeit, wenn nicht gar per se – unüberwindbar. Technische Systeme folgen zudem einer quantitativen Logik, der qualitative Einzelfall­ wertungen fremd sind. Zwischen Korrelationen und Kausalitäten können sie nicht trennscharf differenzieren. Ihnen fehlt letztlich das Judiz, das einen menschlichen Richter, der über Kontextwissen und ein Grundverständnis der menschlichen Lebenswelt verfügt, auszeichnet.10 Gerichtliche Entscheidungen vollständig zu automatisieren, scheitert nicht nur an technischen, sondern auch an rechtlichen Hürden. Das unionsrechtlich überformte Datenschutzrecht etwa verbietet es öffentlichen Stellen, die per­ sonenbezogene Daten verarbeiten, Einzelentscheidungen mit rechtlicher oder 7  Vgl.

oben S. 130 ff. oben S. 138 f., 360 f. sowie 452 f. 9  Vgl. oben S. 177 ff. 10  Vgl. oben S. 180 ff. sowie das Zwischenfazit zu den technischen Hürden auf S. 239 ff. 8  Vgl.



III. Zusammenfassung der Ergebnisse463

vergleichbarer Wirkung vollständig automatisiert zu erlassen (Art. 22 Abs. 1 DSGVO, Art. 11 Abs. 1 JI-RL); das grundsätzliche Verbot gilt auch in ge­ richtlichen Verfahren. Das Unionsrecht belässt aber Raum für gesonderte Normen, die eine vollautomatisierte Entscheidungsfindung zulassen. Weder das europäische noch das deutsche Datenschutzrecht kennen hingegen ein generelles Profiling-Verbot.11 Ansonsten ist es zuvorderst das Grundgesetz, das die normativen Leitplan­ ken für den Einsatz algorithmenbasierter Entscheidungs- oder Entscheidungs­ unterstützungssysteme in Gerichtsverfahren vorgibt. Eine zentrale verfas­ sungsrechtliche Weichenstellung lautet: Eine Maschine kann nicht Richter i. S. d. Art. 92 Hs. 1 GG sein; der Richter des Grundgesetzes ist notwendiger­ weise eine natürliche Person. Denn die Verfassung legt die letztverbindliche (gerichtliche) Entscheidung juristischer Sachverhalte ausdrücklich und exklu­ siv in die Hände bestimmter natürlicher Personen. Die Justiz kann auf dieses personale Element nicht verzichten; eine „entmenschlichende oder ent­ menschlichte“ Rechtsprechung ist unzulässig. Der Richter muss die Fähigkeit zu qualitativen Wertungen und Interpretationen, zur Ermessensausübung, zur Herstellung von Einzelfallgerechtigkeit sowie zu Empathie und der Abschät­ zung sozialer Folgen einer Entscheidung besitzen. Einfachgesetzlich ausge­ kleidet, bedeutet das: Richter kann nur sein, wer die „erforderliche soziale Kompetenz“ aufweist (§ 9 Nr. 4 DRiG). Diese geht über die rein juristischfachliche Eignung hinaus. Nur ein Mensch kann zudem gesetzlicher Richter i. S. d. Art. 101 Abs. 1 S. 2 GG sein, nur ein Mensch kann dem Anspruch des Rechtsunterworfenen auf rechtliches Gehör (Art. 103 Abs. 1 GG) zur Bedeu­ tung verhelfen. Eine vollständig automatisierte Rechtsprechung, die den Einzelnen nur mehr als Input und Output einer formalisierten Zahlenlogik und damit als Objekt, aber nicht mehr als autonomes Individuum behandelt, ist auch mit Art. 1 Abs. 1 GG nicht in Einklang zu bringen. So vielverspre­ chend die neuen technischen Möglichkeiten und die Verheißungen „Künst­ licher Intelligenz“ auch sein mögen: Das „letzte Wort“ einer gerichtlichen Entscheidung hat in Deutschland stets ein Richter aus Fleisch und Blut.12 Mit steigenden technischen Möglichkeiten ist es auch nicht ausgeschlos­ sen, dass die Rechtsprechung aus einer Gesamtschau der Art. 92 Hs. 1, Art. 97 Abs. 1, Art. 1 Abs. 1, Art. 2 Abs. 1 GG eine Art „Recht auf den menschlichen Richter“ ableiten könnte13 – ähnlich wie z. B. auch das Grund­ recht auf Gewährleistung der Vertraulichkeit und Integrität informa­ tionstechnischer Systeme nicht ausdrücklich im Text des Grundgesetzes ver­ 11  Vgl.

oben S. 245 ff. oben S. 260 ff. sowie das Zwischenfazit zu den verfassungsrechtlichen Direktiven auf S. 354 f. 13  Vgl. oben S. 351. 12  Vgl.

464 Gesamtfazit

ankert ist. Auch eine gesetzgeberische Klarstellung dazu kann sich als sinn­ voll erweisen.14 Ein Verbot algorithmenbasierter Entscheidungsunterstützungssysteme ist dem Grundgesetz demgegenüber nicht zu entnehmen. Deren Einsatzmöglich­ keiten und -grenzen sind abhängig von Art und Umfang der Entscheidung sowie dem Rechtsgebiet.15 Eine Software kann bspw. Informationen ordnen und (in der elektronischen Akte) aufbereiten oder den Richter organisatorisch unterstützen sowie Ab­ läufe beschleunigen, etwa durch ein effizientes Dokumentenmanagement. Auch Fristenrechner und -applikationen, die sich mit den Terminkalendern der Verfahrensbeteiligten abstimmen und passende Termine vorschlagen oder sogar verfügen können, sind denkbar. Innerhalb der Akte kann eine Software die verschiedenen Dokumententypen selbstständig klassifizieren – in der Strafakte etwa die Beschuldigtenvernehmung, die Strafanzeige sowie Zeu­ genvernehmungen – und dem Anwender so helfen, sich schnell einen Über­ blick zu verschaffen und relevante Stellen aufzufinden, ohne lange zu blät­ tern. Umfassende Datenbanken und Kontrollsysteme können die richterliche Tätigkeit zudem unterstützen und absichern, ohne in seine Befugnis zur Letztentscheidung einzugreifen.16 Grundsätzlich denkbar ist aber auch der Einsatz algorithmenbasierter Sys­ teme, welche die Richter in ihrer Entscheidungsfindung im engeren Sinne unterstützen. Ein solcher Technikeinsatz steht unter der Voraussetzung, dass er die richterliche Unabhängigkeit (Art. 97 Abs. 1 GG) nicht beeinträchtigt:17 So darf es insbesondere keine Bindungswirkung und keine automatische Übernahme der algorithmischen Vorschläge geben. Deshalb wäre etwa eine Verpflichtung, den algorithmisch ermittelten Vorschlägen eines Assistenzsys­ tems Folge zu leisten, unzulässig. Um eine rein faktische Bindungswirkung zu vermeiden, müssen die Systeme so ausgestaltet und benutzbar sein, dass sie nicht den Eindruck einer definitiven Aussage vermitteln. Konkrete Ge­ genmaßnahmen müssen verhindern, dass ein Automatismus entsteht, dem Entscheidungsvorschlag zu folgen; dem Automation Bias ist mit Gegenmaß­ 14  Vgl. oben S. 370 ff. Umgekehrt könnte man allerdings eingedenk der stetigen technischen Entwicklung und der theoretischen Möglichkeit, dass Systeme Künstli­ cher Intelligenz nachweislich – wie auch immer dies im Einzelnen zu „messen“ wäre – bessere, gerechtere, konsistentere Entscheidungen als menschliche Richter treffen (Stichworte: menschliche Rationalitätsschwächen und „Blackbox Gehirn“), auch über ein „Recht auf den KI-Richter“ nachdenken. Auch dies wäre letztlich mehr eine politisch-ethische denn eine juristische Frage. 15  Vgl. oben S. 363 ff. 16  Vgl. oben S. 441 ff. 17  Vgl. oben S. 288 ff.



III. Zusammenfassung der Ergebnisse465

nahmen und Trainings vorzubeugen.18 Weicht der Richter vom Vorschlag der Maschine ab, darf dies keinen gesonderten, zusätzlichen Begründungsauf­ wand erzeugen. Algorithmische Prognosen und Vorschläge können nur Hilfe, nur ein Entscheidungsbaustein von mehreren sein – und insbesondere nicht die juristischen Wertungen des Richters ersetzen. Sie können nur zulässig sein, soweit die gebotene Einzelfallbetrachtung nicht einer vermeintlich rati­ onaleren Schematisierung weicht. In der Strafrechtspflege sind als Elemente einer Entscheidungsunterstüt­ zung grundsätzlich insbesondere Risikoprognosewerkzeuge für Entscheidun­ gen im Zusammenhang mit der Untersuchungshaft und der Strafaussetzung zur Bewährung denkbar. Ein weiteres Instrument könnten Strafzumessungs­ hilfen sein; für sie bedürfte es aber zunächst eines Grundkonsenses hinsicht­ lich der normativen Vorgaben, etwa zu den Strafzwecken.19 Für jeden Technikeinsatz in sensiblen hoheitlichen Bereichen gilt jedoch: Staatliches Handeln muss demokratisch legitimiert und transparent sein. In der Judikative als Dritter Gewalt offenbart sich das Erfordernis nach demo­ kratischer Zurechnung, mithin nach einer potenziellen Inhaltskontrolle des Volkes über die Ausübung hoheitlicher Gewalt, besonders plakativ: Urteile ergehen „im Namen des Volkes“. Sollen Richter künftig algorithmenbasierte Entscheidungsunterstützungssysteme nutzen dürfen, dann müssen jedenfalls die grundsätzliche Funktionsweise sowie die Entscheidungskriterien und de­ ren Gewichtung nachvollziehbar sein. Der Richter muss die algorithmische Entscheidungsfindung in Grundzügen – also die Funktionsweise des Systems, die Entscheidungskriterien und ihre Gewichtung – verstehen und erklären (können). Eine strukturierte und verständliche Begründung muss sicherstel­ len, dass die gerichtliche (Gesamt-)Entscheidung zu jeder Zeit und für die Betroffenen nachvollziehbar ist: Lässt der Richter eine algorithmisch ermit­ telte Prognose in seine Entscheidung einfließen, umfasst das Kriterium der Nachvollziehbarkeit auch die grundsätzliche systemische Arbeitsweise. In anderen Worten: Die Begründung muss anhand einer detaillierten rechtlichen und einer jedenfalls überblicksartigen technischen Erörterung nachvollziehen lassen, warum das Gericht zu genau dieser Entscheidung gekommen ist.20 Aus Sicht des von der Entscheidung Betroffenen, der ein Recht auf ein faires Verfahren hat, ist das auch deshalb erforderlich, um eine informatorische Waffengleichheit sicherzustellen: Ohne Kenntnis ihres Zustandekommens hat er keine Chance, sich gegen die Entscheidung zu wehren bzw. seine Rechte wahrzunehmen. 18  Vgl.

oben S. 424 ff. oben S. 388 ff. 20  Vgl. oben S. 331 ff. 19  Vgl.

466 Gesamtfazit

Systeme wie das in einigen US-Bundesstaaten eingesetzte COMPAS sind vor diesem Hintergrund keine nach deutschem Recht zulässigen Hilfsmit­ tel.21 Es mangelt ihnen solange an Transparenz, als sich ihre Hersteller hinsichtlich der Funktionsweise und Entscheidungskriterien des Systems auf Betriebs- und Geschäftsgeheimnisse berufen. Auch ihr Nutzen steht in Frage. Zudem verwertet der Prognosealgorithmus Informationen, die nach deut­ schem Strafrecht keinen Einfluss auf eine strafrechtliche Entscheidung haben dürfen – etwa die Vorstrafen der Eltern eines Angeklagten. Bevor algorithmenbasierte Entscheidungsunterstützungssysteme zum Ein­ satz kommen, sind weitere Verfahrensschritte notwendig. Um ihnen zur Pra­ xisreife zu verhelfen, bedarf es zunächst wissenschaftlich begleiteter, diszip­ linübergreifender Testphasen. Nur wenn diese valide Erkenntnisse über die Wirksamkeit und die Auswirkungen der eingesetzten Systeme hervorbringen, kann es vertretbar sein, sie im Justizalltag einzusetzen. Eine interdisziplinär, u. a. mit Richtern und (Rechts-)Informatikern besetzte Expertenkommission sollte dafür zuständig und verantwortlich sein, das System zu erstellen sowie fortwährend zu pflegen und zu aktualisieren. Dabei steht zu erwarten, dass die Phase der Konzeption und Entwicklung einen hohen Aufwand ohne un­ mittelbare Effizienzgewinne verlangt.22 Auf dem Weg zu entscheidungsunterstützenden Softwareanwendungen ist eine Erkenntnis von zentraler Bedeutung: Die Funktionalität datenbasierter Systeme steht und fällt mit den zur Verfügung stehenden (Trainings- und Validierungs-)Daten. Vor diesem Hintergrund wäre es wünschenswert, dass die deutschen Gerichte deutlich mehr Gerichtsentscheidungen veröffentlich­ ten oder aber „justizintern“ für die Entwicklung und das Training eines Ent­ scheidungsunterstützungssystems zur Verfügung stellten. Berechtigten daten­ schutzrechtlichen Bedenken lässt sich dabei durch (automatisierte) Anonymi­ sierung der Entscheidungen begegnen.23 Eine weitere Herausforderung ist es, zu vermeiden, dass Softwareanwen­ dungen diskriminierende Ergebnisse produzieren. Unter anderem durch die im Vergleich zu menschlichen Entscheidungen relativ höhere Breitenwirkung ist einer algorithmenbasierten Entscheidungsfindung die Gefahr immanent, dass sich diskriminierende Tendenzen auf Dauer automatisch verfestigen. Denn die Systeme tragen die Werteinstellungen und damit auch die Vor­urteile und Denkfehler ihrer Entwickler in sich.24 Dadurch geraten sie aber teilweise in Konflikt mit der Vorgabe, dass ihr rechtsstaatlicher Einsatz der Bindung 21  Vgl.

oben oben 23  Vgl. oben 24  Vgl. oben 22  Vgl.

S. 375 ff. S. 365 ff. sowie 390 ff. S. 442 f. S. 167 ff.



III. Zusammenfassung der Ergebnisse467

an Gesetz und Recht, insbesondere Art. 3 Abs. 3 GG, unterliegt. Agieren und entscheiden lernende Systeme nicht anhand der juristisch-methodischen Re­ geln, sondern implizit anhand von Beispielsfällen, muss der Anwender prü­ fen, ob ihre Ergebnisse den Anforderungen des Art. 20 Abs. 3 GG gerecht werden.25 Das Problem, dass sich kognitive Verzerrungen ebenso wie tat­ sächliche soziale Ungleichgewichte übertragen und perpetuieren, ist gewich­ tig, es lässt sich aber ein Stück weit abfedern: Zum einen steht zu erwarten, dass sich Verzerrungen und Ausreißer in einer Masse an Trainingsfällen wechselseitig aufheben, der Durchschnitt also dennoch guten Empfehlungs­ charakter aufweisen wird. Zum anderen könnten neben echten Fällen auch Musterfälle, die eine Expertenkommission entwirft und aburteilt, kraft ihrer Typizität dazu beitragen, die Datenbasis und das nachfolgende systemische Entscheidungsverhalten zu rationalisieren. Für den Einsatz algorithmenbasierter Systeme, insbesondere lernender Ri­ sikoprognose- bzw. Klassifikationssysteme, sind aus technischer Sicht ver­ schiedene Fairnessmaßstäbe denkbar: Binäre Klassifikationen bspw. lassen sich etwa nach ihrer Sensitivität oder nach ihrer Spezifität hin optimieren. Im skizzierten Anwendungsbeispiel der Strafaussetzung zur Bewährung transfe­ riert sich dies in die Frage: Sollte man zuvorderst so wenige Häftlinge wie möglich auf Bewährung entlassen, die dann wieder straffällig werden – oder aber so viele resozialisierte Häftlinge wie irgend möglich (und sicherheits­ rechtlich erträglich) ihren Weg zurück in die Gesellschaft finden lassen? Fairness ist abhängig von Kontext, Definition und Zielgröße. Klar ist aber: Die Entscheidung darüber, welcher Fairnessbegriff und -maßstab für den Technikeinsatz in gerichtlichen Verfahren konkret gelten soll, darf der demo­ kratisch legitimierte Gesetzgeber nicht privatwirtschaftlichen Unternehmen überlassen.26 Rechtsstaatskonform ausgestaltet, bieten algorithmenbasierte Entschei­ dungsunterstützungssysteme in der Justiz die Chance, gerichtliche Entschei­ dungen gleichmäßiger zu machen, bspw. regionale Unterschiede in der Strafzumessungspraxis zu glätten und den Einfluss menschlicher Rationali­ tätsschwächen zu reduzieren.27 Dadurch können sie dazu beitragen, die formelle Gleichbehandlung sowie die Rechtssicherheit zu erhöhen. Sie kön­ nen dem Richter ein Hilfsmittel sein und ihn bspw. von „unjuristischer Ar­ beit“ entlasten, ohne in den Kernbereich der richterlichen Tätigkeit vorzu­ dringen: Rechtsfragen zu entscheiden oder juristisch-qualitative Wertungen vorzunehmen, wird auch auf absehbare Zeit weiterhin eine urmenschliche Aufgabe bleiben. Verfahren maschineller Entscheidungsunterstützung können 25  Vgl.

oben S. 429 ff. oben S. 382 ff. sowie 437 f. 27  Vgl. oben S. 452 ff. 26  Vgl.

468 Gesamtfazit

idealiter dazu beitragen, dass Entscheidern mehr Ressourcen für die „kniffli­ gen Fragen“ zur Verfügung stehen und die menschlichen Kernkompetenzen – etwa soziales Verständnis (vgl. § 9 Nr. 4 DRiG) – an Bedeutung gewinnen. Soweit es gelingt, Algorithmen und lernenden Systemen eine rechtsstaatliche Funktionsweise einzuhauchen, kann sich die Kombination aus Mensch und Technik zum Königsweg für eine rationale, gerechte und moderne Rechtspre­ chung gerieren. „Wege entstehen dadurch, dass wir sie gehen.“28

28  Der Aphorismus entstammt in ähnlicher Form Antonio Machados Gedichts­ band „Campos de Castilla“ von 1917 (Gedicht XXIX), wird aber auch Franz Kafka zugeschrieben.

Literaturverzeichnis Abrams, David/Bertrand, Marianne/Mullainathan, Sendhil: Do Judges Vary in Their Treatment of Race, The Journal of Legal Studies 41 (2012), S. 347–384. Adam, Jürgen/Schmidt, Karsten/Schumacher, Jörg: Nulla poena sine culpa – Was be­ sagt das verfassungsrechtliche Schuldprinzip?, NStZ 2017, S. 7–13. Adler, Philip/Falk, Casey/Friedler, Sorelle/Nix, Tionney/Rybeck, Gabriel/Scheideg­ ger, Carlos/Smith, Brandon/Venkatasubramanian, Suresh: Auditing Black-box Models for Indirect Influence, Knowledge and Information Systems 54 (2018), S. 95–122. Adrian, Axel: Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Metho­ denlehre, Die begrifflichen und („fuzzy“-)logischen Grenzen der Befugnisnormen zur Rechtsprechung des Europäischen Gerichtshofes und die Maastricht-Entschei­ dung des Bundesverfassungsgerichtes, Berlin, 2009. Adrian, Axel: Grundzüge einer allgemeinen Wissenschaftstheorie auch für Juristen, Konsequenzen aus Zweifeln postmoderner/zeitgenössischer Philosophie für eine allgemeine Wissenschaftstheorie sowie für jede juristische Methodenlehre, Berlin, 2014. Adrian, Axel: Der Richterautomat ist möglich – Semantik ist nur eine Illusion, Rechtstheorie 2017, S. 77–121. Ahlberg, Hartwig/Götting, Horst-Peter (Hrsg.): Beck’scher Online-Kommentar Ur­ heberrecht, 24. Ed., 2019. Ahrendt, Christian: Alte Zöpfe neu geflochten – Das materielle Recht in der Hand von Programmierern, NJW 2017, S. 537–540. Ahrens, Hans-Jürgen: Wissenschaft – Justiz – Anwaltschaft: Wes Brot ich ess, des Lied ich sing?, DVBl 2014, S. 1096–1101. Albert, Andreas/Böhm, Markus/Gröhn, Anna/Gruber, Angela/Kremp, Matthias: Künstliche Intelligenz – endlich verständlich, Turing-Test, Chatbots, neuronale Netzwerke, Spiegel Online vom 4.1.2017. Albonetti, Celesta: An Integration of Theories to Explain Judicial Discretion, Social Problems 38 (1991), S. 247–266. Albrecht, Hans-Jörg: Strafzumessung bei schwerer Kriminalität im Vergleich, Theore­ tische Konzeptionen und empirische Befunde, Zeitschrift für die gesamte Straf­ rechtswissenschaft 102 (1990), S. 596–626. Albrecht, Jan Philipp: Das neue EU-Datenschutzrecht – von der Richtlinie zur Ver­ ordnung, Überblick und Hintergründe zum finalen Text für die DatenschutzGrundverordnung der EU nach der Einigung im Trilog, CR 2016, S. 88–98.

470 Literaturverzeichnis Albrecht, Matthias: Die Methode der preußischen Richter in der Anwendung des Preußischen Allgemeinen Landrechts von 1794, Eine Studie zum Gesetzesbegriff und zur Rechtsanwendung im späten Naturrecht, Frankfurt am Main, 2005 – zi­ tiert als „Die Methode der preußischen Richter“. Alemanno, Alberto/Sibony, Anne-Lise (Hrsg.): Nudge and the Law, A European Per­ spective, London, 2015. Alemanno, Alberto/Sibony, Anne-Lise: The Legitimacy and Practicability of EU Be­ havioural Policy-Making, in: Alemanno, Alberto/Sibony, Anne-Lise (Hrsg.), Nudge and the Law, A European Perspective, London, 2015, S. 325–347. Aletras, Nikolaos/Tsarapatsanis, Dimitrios/Preoţiuc-Pietro, Daniel/Lampos, Vaileios: Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, PeerJ Computer Science 2 (2016), S. 1–19. Alexy, Robert: Theorie der Grundrechte, Berlin, 1986. Alexy, Robert: Mauerschützen, Zum Verhältnis von Recht, Moral und Strafbarkeit, Göttingen, 1993. Alexy, Robert: Recht, Vernunft, Diskurs, Berlin, 1995. Alexy, Robert: Ideales Sollen, in: Clérico, Laura/Sieckmann, Jan-Reinard (Hrsg.), Grundrechte, Prinzipien und Argumentation, Studien zur Rechtstheorie Robert Alexys, Baden-Baden, 2009, S. 21–38. Alexy, Robert: Theorie der juristischen Argumentation, Die Theorie des rationalen Diskurses als Theorie der juristischen Begründung, 8. Aufl., Berlin, 2012. Alhola, Paula/Polo-Kantola, Päivi: Sleep deprivation: Impact on cognitive perfor­ mance, Neuropsychiatric Disease and Treatment 3 (2007), S. 553–567. Altemaier, Jens: „Justiz 4.0“ – auch die Justiz wird (noch) digitaler, in: Boorberg Verlag (Hrsg.), Jurist 4.0 – Die neue Welt des Rechts, Der Wirtschaftsführer für junge Juristen 2016/2017, 2016/2017, Stuttgart, S. 6–8. American Civil Liberties Union: Smart Reform is Possible, States Reducing Incarce­ ration Rates and Costs While Protecting Communities, New York, August 2011. Ananny, Mike: Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness, Science, Technology, & Human Values 41 (2016), S. 93–117. Angwin, Julia/Larson, Jeff: ProPublica Responds to Company’s Critique of Machine Bias Story, ProPublica vom 29.7.2016, https://www.propublica.org/article/propub lica-responds-to-companys-critique-of-machine-bias-story (10.6.2020). Angwin, Julia/Larson, Jeff/Mattu, Surya/Kirchner, Lauren: Machine Bias, ProPublica vom 23.5.2016, https://www.propublica.org/article/machine-bias-risk-assessmentsin-criminal-sentencing (10.6.2020). Ankenbrand, Hendrik: China plant die totale Überwachung, FAZ Online vom 22.11.2017. Anonymus: Strafmaß: „Die Richter würfeln“, Der Spiegel vom 23.2.1981, S. 94 ff. Arbeitsgemeinschaft Rechtsinformatik (Hrsg.): Gesetzesplanung – Beiträge zur Rechtsinformatik, München, Regensburg, Berlin, 1972.

Literaturverzeichnis471 Ariely, Dan: The End of Rational Economics, Harvard Business Review July-August 2009: S. 78. Arnauld, Andreas von (Hrsg.): Recht und Spielregeln, Tübingen, 2003. Arnauld, Andreas von: Zufall in Recht und Spiel, in: Arnauld, Andreas von (Hrsg.), Recht und Spielregeln, Tübingen, 2003, S. 171–189. Arnauld, Andreas von: Rechtssicherheit, Perspektivische Annäherungen an eine „idée directrice“ des Rechts, Tübingen, 2006. Artikel-29-Datenschutzgruppe: Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP 251, Brüssel, 3.10.2017. Asaithambi, Sudharsan: Why, How and When to apply Feature Selection, Towards Data Science (medium.com) vom 31.1.2018. Ashley, Kevin: Artificial Intelligence and Legal Analytics, New Tools for Law Prac­ tice in the Digital Age, Cambridge, 2017. Ashley, Kevin/van Engers, Tom (Hrsg.): Proceedings of the 13th International Confe­ rence on Artificial Intelligence and Law, Pittsburgh, 2011 – zitiert als „ICAIL ’11“. Auer, Benjamin: Stichwort: Regression, lineare, in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, Wiesbaden, 2018. Auernhammer, Herbert (Hrsg.): DSGVO/BDSG, Datenschutz-Grundverordnung, Bundesdatenschutzgesetz und Nebengesetze: Kommentar, 6. Aufl., Köln, 2018. Aweh, Lothar: Das Spannungsverhältnis von richterlicher Unabhänigkeit (Art. 97 GG) und Justizökonomie, in: Institut für Wirtschaftsrecht der Universität Kassel (Hrsg.), 60 Jahre Grundgesetz, Vortragsreihe, Bd. 7, Kassel, S. 211–236 – zitiert als „Richterliche Unabhängigkeit und Justizökonomie“. Ayan, Steve: Lockerlassen – Warum weniger Denken mehr bringt, Stuttgart, 2016. Ayres, Ian: Outcome Tests of Racial Disparities in Police Practices, Justice and Re­ search Policy 4 (2002), S. 131–142. Bacher, Klaus: Der elektronische Rechtsverkehr im Zivilprozess, NJW 2015, S. 2753–2759. Bäcker, Matthias/Hornung, Gerrit: EU-Richtlinie für die Datenverarbeitung bei Poli­ zei und Justiz in Europa, Einfluss des Kommissionsentwurfs auf das nationale Strafprozess- und Polizeirecht, ZD 2012, S. 147–152. Bader, Johann/Ronellenfitsch, Michael (Hrsg.): Beck’scher Online-Kommentar ­VwVfG, 43. Ed., München, 2019. Bahner, Jennifer/Hüper, Anke-Dorothea/Manzey, Dietrich: Misuse of automated deci­ sion aids, Complacency, automation bias and the impact of training experience, International Journal of Human-Computer Studies 66 (2008), S. 688–699. Ballhausen, Miriam: IT-Einsatz in der Justiz, Technik, Recht, Realisierung, Stuttgart, 2012. Bandes, Susan/Salerno, Jessica: Emotion, Proof and Prejudice: The Cognitive Sci­ ence of Gruesome Photos and Victim Impact Statements, Arizona State Law Jour­ nal 46 (2014), S. 1003–1056.

472 Literaturverzeichnis Bandilla, Wolfgang/Hassemer, Raimund: Zur Abhängigkeit strafrichterlicher Beweis­ würdigung vom Zeitpunkt der Zeugenvernehmung im Hauptverfahren, StV 1989, S. 551–554. Barnes, Christopher/Wagner, David: Changing to Daylight Saving Time Cuts Into Sleep and Increases Workplace Injuries, Journal of Applied Psychology 94 (2009), S. 1305–1317. Barocas, Solon/Selbst, Andrew: Big Data’s Disparate Impact, California Law Review 104 (2016), S. 671–732. Baron, Jonathan: Heuristics and Biases, in: Zamir, Eyal/Teichman, Doron (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, Oxford, 2014, S. 3–27. Baron-Cohen, Simon: Testosterone on My Mind and in My Brain, in: Brockman, John (Hrsg.), Thinking, The New Science of Decision-Making, Problem-Solving, and Prediction, Best of Edge Series, New York, NY, 2013, S. 156–192. Barr, Nathaniel/Pennycook, Gordon/Stolz, Jennifer/Fugelsang, Jonathan: The brain in your pocket: Evidence that Smartphones are used to supplant thinking, Computers in Human Behavior 48 (2015), S. 473–480. Barry-Jester, Anna Maria/Casselman, Ben/Goldstein, Dana: The New Science of Sentencing, ProPublica vom 8.4.2015, https://www.themarshallproject.org/2015/ 08/04/the-new-science-of-sentencing#.QdtVLuLD5 (10.6.2020). Barth, Armin: Algorithmik für Einsteiger, Für Studierende, Lehrer und Schüler in den Fächern Mathematik und Informatik, 2. Aufl., Wiesbaden, 2013. Bartneck, Christoph/Nagai, Yukie/Paiva, Ana/Sabanovic, Selma (Hrsg.): HRI 2016: The Eleventh ACM/IEEE International Conference on Human Robot Interaction, Piscataway, NJ, 2016 – zitiert als „HRI 2016 Tagungsband“. Barton, Stephan/Eschelbach, Ralf/Hettinger, Michael/Kempf, Eberhard/Krehl, Chris­ toph/Salditt, Franz (Hrsg.): Festschrift für Thomas Fischer, München, 2018 – zi­ tiert als „FS Fischer“. Bäumerich, Maik: Güterichter und Verfahrensrecht – Zum Begriff der Rechtspre­ chung nach Art. 92 GG, SchiedsVZ 2015, S. 237–242. Baumgartner, Alois/Bedford-Strohm, Heinrich/Fetzer, Joachim/Härle, Wilfried, et al.: Im Zentrum: Menschenwürde, Politisches Handeln aus christlicher Verantwor­ tung – Christliche Ethik als Orientierungshilfe, 2. Aufl., September 2006. Bechara, Antoine/Damásio, Hanna/Damásio, Antonio: Emotion, Decision Making and the Orbitofrontal Cortex, Cerebral Cortex 10 (2000), S. 295–307. Beck, Björn: Einsatz kognitiver Systeme („Legal Tech“) in der Justiz, Berlin, 16.3.2018. Beck, Hanno: Der menschliche Makel, FAS vom 9.10.2016, S. 24. Beck, Susanne (Hrsg.): Jenseits von Mensch und Maschine, Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, BadenBaden, 2012.

Literaturverzeichnis473 Beck, Susanne: Die Suggestion einzig richtiger Entscheidungen im Recht – notwen­ dig oder vermeidbar?, in: Schuhr, Jan (Hrsg.), Rechtssicherheit durch Rechtswis­ senschaft, Bd. 9, Tübingen, 2014, S. 11–31. Behrens, Christoph: Algorithmus bewertet Vertrauenswürdigkeit von Menschen, Süd­ deutsche Zeitung (Online) vom 10.11.2016. Beirat Verwaltungsverfahrensrecht beim Bundesministerium des Innern: Automati­ siert erlassene Verwaltungsakte und Bekanntgabe über Internetplattformen – Fort­ entwicklung des Verfahrensrechts im Zeichen der Digitalisierung: Wie können rechtsstaatliche Standards gewahrt werden?, Stellungnahme des Beirats Verwal­ tungsverfahrensrecht beim Bundesministerium des Innern zur Frage der Zulassung vollständig automatisiert erlassener Verwaltungsakte und zur Bekanntgabe von Verwaltungsakten über Internetplattformen, NVwZ 2015, S. 1114–1118. Beljin, Saša: Die Zusammenhänge zwischen dem Vorrang, den Instituten der inner­ staatlichen Beachtlichkeit und der Durchführung des Gemeinschaftsrechts, EuR 2002, S. 351–376. Bender, Rolf: Der Irrtum ist der größte Feind der Wahrheitsfindung vor Gericht, StV 1982, S. 484–486. Bengsch, Danielle: Hungrige Richter fällen härtere Urteile, Die Welt Online vom 12.4.2011. Benning, Axel: Digitalisierung in der Jurisprudenz, in: van Oostrom, Samuel/Weth, Stephan (Hrsg.), Festschrift für Maximilian Herberger, Saarbrücken, 2016, S. 61– 74 – zitiert als „Digitalisierung und Jurisprudenz“. Berger, Ariane: Der automatisierte Verwaltungsakt, Zu den Anforderungen an eine automatisierte Verwaltungsentscheidung am Beispiel des § 35 a VwVfG, NVwZ 2018, S. 1260–1264. Bergius, Rudolf: Stichwort: Inertia-Effekt, in: Wirtz, Markus Antonius (Hrsg.), Dorsch – Lexikon der Psychologie, 18. Aufl., Bern, 2017. Berk, Richard: Algorithmic criminology, Security Informatics 2 (2013), S. 1–14. Berk, Richard/Heidari, Hoda/Jabbari, Shahin/Kearns, Michael/Roth, Aaron: Fairness in Criminal Justice Risk Assessments: The State of the Art, Sociological Methods & Research 104 (2018), S. 1–42. Berkemann, Jörg: Die richterliche Entscheidung in psychologischer Sicht, JZ 1971, S. 537–540. Berlit, Uwe: Richterliche Unabhängigkeit und elektronische Akte, JurPC Web-Dok. 77/2012, Berlit, Uwe: eJustice, eAkte und Richterschaft, Betrifft Justiz 2015, S. 15–26. Berlit, Uwe: Der Richter als Sicherheitsrisiko? Richterliche Unabhängigkeit und ITSicherheit, jM 2016, S. 334–339. Bernhardt, Wilfried: Die deutsche Justiz im digitalen Zeitalter, Entwicklung und Ent­ wicklungsperspektiven von E-Justice, NJW 2015, S. 2775–2780. Bernhart, Christof: Regeln der Jurisprudenz, Die Grundsätze und Methoden der Rechtswissenschaft als professionelle Standards, Berlin, 2008.

474 Literaturverzeichnis Bertelsmann Stiftung (Hrsg.): Automatisch erlaubt?, Fünf Anwendungsfälle algorith­ mischer Systeme auf dem juristischen Prüfstand, Berlin, 2020. Bettermann, Karl: Der gesetzliche Richter in der Rechtsprechung des Bundesverfas­ sungsgerichts, AöR 94 (1969), S. 263–312. Biallaß, Isabelle: Der Einsatz von „Cognitive Computing“ in der Justiz – Teil 2: Potenzielle Anwendungsfälle, in: Viefhues, Wolfram (Hrsg.), Elektronischer ­ Rechtsverkehr 2/2019, Das beA räumt auf!, Bonn, 2019, Rn. 47–65. Bickel, Peter/Hammel, Eugene/O’Connell, John: Sex Bias in Graduate Admissions: Data from Berkeley, Science 187 (1975), S. 398–404. Bieresborn, Dirk: Die Auswirkungen der DSGVO auf das gerichtliche Verfahren, DRiZ 2019, S. 18–23. Bilsdorfer, Peter: Klarere Strafzumessungsregeln bei Steuerhinterziehung, NJW 2009, S. 476–478. Birk, Axel: Der kritische Rationalismus und die Rechtswissenschaft, Bernd Rüthers und Karl-Heinz Fezer – ein Ausgangspunkt, unterschiedliche Folgerungen, Rechtstheorie 48 (2017), S. 43–75. BITKOM: Leitfaden Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte, Ber­ lin, 2012. Blair, Irene/Judd, Charles/Chapleau, Kristine: The Influence of Afrocentric Facial Features in Criminal Sentencing, Psychological Science 15 (2004), S. 674–679. Bläser, Brigitte/Lehmann, Hein: Ansätze für ein natürlichsprachliches juristisches Konsultationssystem, in: Haft, Fritjof/Lehmann, Hein (Hrsg.), Das LEX-Projekt, Entwicklung eines juristischen Expertensystems, Bd. 6, Tübingen, 1989, S. 43–67. Bleich, Susanne: Die literarische und die juristische Hermeneutik – Ein Vergleich, NJW 1989, S. 3197–3202. Blum, Barbara: Suggestive Prozesse bei der Zeugenbetreuung und -befragung, in: Deckers, Rüdiger/Köhnken, Günter (Hrsg.), Die Erhebung und Bewertung von Zeugenaussagen im Strafprozess, Juristische, aussagepsychologische und psychia­ trische Aspekte, 2. Aufl., Berlin, 2014, S. 353–378. Blüm, Norbert: Berufsbedingt überheblich, ZEIT Online vom 27.6.2013. Blüm, Norbert: Einspruch!, Wider die Willkür an deutschen Gerichten, Frankfurt/ Main, 2014. Blümel, Willi/Pitschas, Rainer (Hrsg.): Verwaltungsverfahren und Verwaltungsprozeß im Wandel der Staatsfunktionen, Vorträge und Diskussionsbeiträge der Verwal­ tungswissenschaftlichen Arbeitstagung 1994 des Forschungsinstituts für öffentli­ che Verwaltung bei der Hochschule für Verwaltungswissenschaften Speyer, Berlin, 1997. Bochmann, Günter: Die verfassungsrechtlichen Grundlagen der Reförderalisierung des öffentlichen Dienstrechts und der Entwurf eines Gesetzes zur Regelung des Statusrechts der Beamtinnen und Beamten in den Ländern (Beamtenstatusgesetz – BeamtStG), ZBR 2007, S. 1–18.

Literaturverzeichnis475 Boden, Margaret: AI, It’s nature and future, Oxford, 2016. Boehme-Neßler, Volker: Unscharfes Recht, Überlegungen zur Relativierung des Rechts in der digitalisierten Welt, Berlin, 2008. Boehme-Neßler, Volker (Hrsg.): Die Öffentlichkeit als Richter?, Litigation-PR als neue Methode der Rechtsfindung, Baden-Baden, 2010 – zitiert als „Öffentlichkeit als Richter?“. Boehme-Neßler, Volker: Die Öffentlichkeit als Richter? Chancen und Risiken von Litigation-PR aus verfassungsrechtlicher und rechtssoziologischer Sicht, in: Boeh­ me-Neßler, Volker (Hrsg.), Die Öffentlichkeit als Richter?, Litigation-PR als neue Methode der Rechtsfindung, Baden-Baden, 2010, S. 20–51 – zitiert als „Chancen und Risiken von Litigation-PR“. Boehme-Neßler, Volker: Wie die Medien die Gerichte beeinflussen – und was man dagegen tun kann, Die Öffentlichkeit als Richter?, Legal Tribune Online vom 9.7.2010. Boehme-Neßler, Volker: Die Macht der Algorithmen und die Ohnmacht des Rechts, Wie die Digitalisierung das Recht relativiert, NJW 2017, S. 3031–3037. Boetticher, Axel/Kröber, Hans-Ludwig/Müller-Isberner, Rüdiger/Böhm, Klaus/Müller-Metz, Reinhard/Wolf, Thomas: Mindestanforderungen für Prognosegutachten, NStZ 2006, S. 537–544. Böhret, Carl: Entscheidungshilfen für die Regierung, Modelle, Instrumente, Probleme, Wiesbaden, 1970. Bojanowski, Axel: Müde Richter entscheiden gegen Angeklagte, Spiegel Online vom 12.4.2011. Boorberg Verlag (Hrsg.): Jurist 4.0 – Die neue Welt des Rechts, Der Wirtschaftsfüh­ rer für junge Juristen 2016/2017, 2016/2017, Stuttgart. Boorberg Verlag (Hrsg.): Soft Skills im Trend – Kompetenz, Kommunikation und Recht, Der Wirtschaftsführer für junge Juristen 2017, Stuttgart, 2017. Borges, Georg: Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018, S. 977–982. Borges, Georg/Grabmair, Matthias/Krupka, Daniel/Schäfer, Burkhard/Schweighofer, Erich/Sorge, Christoph/Waltl, Bernhard: Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren, Gutachten der Fachgruppe Rechtsinfor­ matik der Gesellschaft für Informatik e. V. im Auftrag des Sachverständigenrats für Verbraucherfragen, Berlin, 2018 – zitiert als „Algorithmische Entscheidungs­ verfahren“. Bornstein, Brian/Wiener, Richard (Hrsg.): Emotion and the Law, Psychological Per­ spectives, New York, NY, 2010. Botthof, Alfons/Hartmann, Ernst (Hrsg.): Zukunft der Arbeit in Industrie 4.0, Berlin, Heidelberg, 2015. Bozdag, Engin: Bias in algorithmic filtering and personalization, Ethics and Informa­ tion Technology 15 (2013), S. 209–227.

476 Literaturverzeichnis Braswell, Sean: All rise for Chief Justice Robot, http://www.ozy.com/immodest-pro­ posal/all-rise-for-chief-justice-robot/41131 (10.6.2020). Braun Binder, Nadja: Elektronische Bekanntgabe von Verwaltungsakten über Behör­ denportale, NVwZ 2016, S. 342–347. Braun Binder, Nadja: Vollautomatisierte Verwaltungsverfahren im allgemeinen Ver­ waltungsverfahrensrecht?, Der Gesetzesentwurf zur Modernisierung des Besteue­ rungsverfahrens als Vorbild für vollautomatisierte Verwaltungsverfahren nach dem VwVfG, NVwZ 2016, S. 960–965. Braun Binder, Nadja: Vollständig automatisierter Erlass eines Verwaltungsaktes und Bekanntgabe über Behördenportale, DÖV 2016, S. 891–898. Breidenbach, Stephan/Glatz, Florian (Hrsg.): Rechtshandbuch Legal Tech, München, 2018. Brennan, Tim/Dieterich, William/Ehret, Beate: Evaluating the predictive validity of the COMPAS Risk and Needs Assessment System, Criminal Justice and Behavior 36 (2009), S. 21–40. Bright, David/Goodman-Delahunty, Jane: The Influence of Gruesome Verbal Evi­ dence on Mock Juror Verdicts, Psychiatry, Psychology and Law 11 (2004), S. 154–166. Bright, David/Goodman-Delahunty, Jane: Gruesome Evidence and Emotion: Anger, Blame, and Jury Decision-Making, Law and Human Behavior 2010, S. 183–202. Britz, Gabriele, Einzelfallgerechtigkeit versus Generalisierung, Verfassungsrechtliche Grenzen statistischer Diskriminierung, Tübingen, 2008. Britz, Gabriele, Der allgemeine Gleichheitssatz in der Rechtsprechung des BVerfG, Anforderungen an die Rechtfertigung von Ungleichbehandlungen durch Gesetz, NJW 2014, S. 346–351. Brockman, John (Hrsg.), Thinking, The New Science of Decision-Making, ProblemSolving, and Prediction, New York, NY, 2013. Brownlee, Jason, Why Initialize a Neural Network with Random Weights?, https:// machinelearningmastery.com/why-initialize-a-neural-network-with-randomweights/ (10.6.2020). Bruns, Lina: Autonome Verwaltungsverfahren, ÖFIT-Trendschau: Öffentliche Infor­ mationstechnologie in der digitalisierten Gesellschaft, Berlin, 2017. Brüntrup, Godehard: Philosophie des Geistes, Eine Einführung in das Leib-SeeleProblem, Stuttgart, 2018. Brynjolfsson, Erik/McAfee, Andrew: The Second Machine Age, Wie die nächste digi­ tale Revolution unser aller Leben verändern wird, Kulmbach, 2016. Buchholtz, Gabriele: Legal Tech – Herausforderungen und Chancen der digitalen Rechtsanwendung, JuS 2017, S. 955–960. Budras, Corinna: Sind Algorithmen die besseren Richter?, FAZ Einspruch Magazin (Online) vom 30.3.2019. Bues, Micha-Manuel: Trends in Deutschland 2017, Legal Tribune Online vom 20.1.2017.

Literaturverzeichnis477 Bues, Micha-Manuel: Kapitel 7.3: Artificial Intelligence im Recht, in: Hartung, ­Markus/Bues, Micha-Manuel/Halbleib, Gernot (Hrsg.): Legal Tech, Die Digitali­ sierung des Rechtsmarkts, München, 2018, S. 275–286. Bühler, Axel: Einführung in die Logik, Argumentation und Folgerung, 3. Aufl., Frei­ burg (Breisgau), 2000. Bull, Hans Peter: Der „vollständig automatisiert erlassene“ Verwaltungsakt – Zur Be­ griffsbildung „E-Government“, DVBl 2017, S. 409–417. Bull, Hans Peter: Über die rechtliche Einbindung der Technik, Juristische Antwor­ ten auf Fragen der Technikentwicklung, Der Staat 2019, S. 57–100. Bünau, Paul von: Abschn. 3: Künstliche Intelligenz im Recht, in: Breidenbach, Stephan/Glatz, Florian (Hrsg.), Rechtshandbuch Legal Tech, München, 2018, ­ S. 47–58. Bünau, Paul von: Algorithmen und Transparenz, Unsere Sehnsucht nach Begründung, Legal Revolution 2018, S. 98–107. Bünau, Paul von: Künstliche Intelligenz im Recht, Was geht, was nicht und wo geht die Reise hin?, Legal Revolution 2018, S. 80–83. Bundesministerium der Justiz und für Verbraucherschutz: Bericht über die Rechtspre­ chung des Europäischen Gerichtshofs für Menschenrechte und die Umsetzung seiner Urteile in Verfahren gegen die Bundesrepublik Deutschland im Jahr 2016, Berlin, 2017. Bundesministerium des Innern, für Bau und Heimat: Bericht zur Polizeilichen Krimi­ nalstatistik 2017, Berlin, 2018. Bundesministerium des Innern, für Bau und Heimat/Innenministerkonferenz 2019: Polizeiliche Kriminalstatistik 2018 – Ausgewählte Zahlen im Überblick, Berlin, 2019. Bundesrechtsanwaltskammer: Entwurf eines Gesetzes zur Verbesserung der Wahr­ heitsfindung im Strafverfahren durch verstärkten Einsatz von Bild-Ton-Technik, BRAK-Stellungnahme Nr. 1/2010, Berlin, 2010. Bushway, Shawn/Smith, Jeffrey: Sentencing Using Statistical Treatment Rules: What We Don’t Know Can Hurt Us, Journal of Quantitative Criminology 23 (2007), S. 377–387. Calliess, Christian/Ruffert, Matthias (Hrsg.): EUV/AEUV, Das Verfassungsrecht der Europäischen Union mit Europäischer Grundrechtecharta, 5. Aufl., München, 2016. Calliess, Gralf-Peter: Der Richter im Zivilprozess – Sind ZPO und GVG noch zeit­ gemäß?, Gutachten A zum 70. Deutschen Juristentag, München, 2014. Card, David/Dahl, Gordon: Family Violence and Football: The Effect of Unexpected Emotional Cues on Violent Behavior, The Quarterly Journal of Economics 126 (2011), S. 103–143. Carli, Linda: Cognitive Reconstruction, Hindsight, and Reactions to Victims and Per­ petrators, Personality and Social Psychology Bulletin 25 (1999), S. 966–979.

478 Literaturverzeichnis Carstensen, Kai-Uwe/Ebert, Christian/Ebert, Cornelia/Jekat, Susanne/Langer, Hagen/ Klabunde, Ralf (Hrsg.): Computerlinguistik und Sprachtechnologie, Eine Einfüh­ rung, 3. Aufl., Heidelberg, 2010. Casillas, Christopher/Enns, Peter/Wohlfarth, Patrick: How Public Opinion Constrains the U.S. Supreme Court, American Journal of Political Science 55 (2011), S. 74– 88. Caspar, Johannes: Herrschaft der Maschinen oder Herrschaft des Rechts?, Grenzen und Leitlinien für algorithmische und selbstlernende Verfahren in der Verwal­ tung – Thesen, PinG 2019, S. 1–4. Castelvecchi, Davide: The Black Box of AI, Nature 538 (2016), S. 20–23. Cate, Fred/Kuner, Christopher/Svantesson, Dan Jerker/Lynskey, Orla/Millard, Chris­ topher: Machine Learning with Personal Data, Is Data Protection Law Smart Enough to Meet the Challenge?, Editorial, International Data Privacy Law 7 (2017), S. 1–2. Chan, Janet/Bennett Moses, Lyria: Is Big Data challenging criminology?, Theoretical Criminology 20 (2016), S. 21–39. Chaplin, Chloe/Shaw, Julia: Confidently Wrong: Police Endorsement of Psycho-Legal Misconceptions, Journal of Police and Criminal Psychology 31 (2016), S. 208– 216. Chatziathanasiou, Konstantin: Der hungrige, ein härterer Richter? Zur heilklen Re­ zeption einer vielzitierten Studie, JZ 2019, S. 455–458. Chen, Daniel: Judicial Analytics and the Great Transformation of American Law, Artificial Intelligence and Law 27 (2019), S. 15–42. Chen, Daniel/Philippe, Arnaud: Clash of Norms – Judicial Leniency on Defendant Birthdays, Toulouse School of Economics Working Paper 18–934 (2018), S. 1–29. Cheng, Fei-Fei/Wu, Chin-Shan: Debiasing the framing effect: The effect of warning and involvement, Decision Support Systems 49 (2010), S. 328–334. Chessman, Christian: A „Source“ of Error: Computer Code, Criminal Defendants, and the Constitution, California Law Review 105 (2017), S. 179–228. Cho, Kyoungmin/Barnes, Christopher/Guanara, Cristiano: Sleepy Punishers Are Harsh Punishers, Daylight Saving Time and Legal Sentences, Psychological Sci­ ence 28 (2017), S. 242–247. Chouldechova, Alexandra: Fair prediction with disparate impact: A study of bias in recidivism prediction instruments, FAT/ML Paper, 2016. Chudoba, Ulrich: Richterliche Unabhängigkeit und Medieninteresse am Beispiel des Pascal-Prozesses, in: Holzwarth, Stephanie/Lambrecht, Ulrich/Schalk, Sebastian u. a. (Hrsg.), Die Unabhängigkeit des Richters, Richterliche Entscheidungsfindung in den Blick genommen, Tübingen, 2009, S. 53–63. Citron, Danielle: (Un)Fairness of Risk Scores in Criminal Sentencing, Forbes (On­ line) vom 13.7.2016. Clark, A.: Whatever next? Predictive brains, situated agents, and the future of cogni­ tive science, Behavioral and Brain Sciences 36 (2013), S. 181–204.

Literaturverzeichnis479 Clérico, Laura/Sieckmann, Jan-Reinard (Hrsg.): Grundrechte, Prinzipien und Argu­ mentation, Studien zur Rechtstheorie Robert Alexys, Baden-Baden, 2009. Columbia University – Columbia Business School, How Extraneous Factors Impact Judicial Decisionmaking, Pressemitteilung v. 12.4.2011, New York. Committee on Science, Technology, and Law/Federal Judicial Center/National Research Council: Reference Manual on Scientific Evidence, 3. Aufl., Washington, D.C., 2011. Corbett-Davies, Sam/Pierson, Emma/Feller, Avi/Goel, Sharad/Huq, Aziz: Algorith­ mic Decision Making and the Cost of Fairness, in: Matwin, Stan/Yu, Shipeng/ Farooq, Faisal (Hrsg.), Proceedings of the 23rd ACM SIGKDD International Con­ ference on Knowledge Discovery and Data Mining, August 13–17, 2017, Halifax, NS, Canada, New York, NY, 2017, S. 797–806 – zitiert als „ADM and Fairness“. Coupette, Corinna/Fleckner, Andreas: Quantitative Rechtswissenschaft, Sammlung, Analyse und Kommunikation juristischer Daten, JZ 2018, S. 379–389. Cserne, Péter: Making Sense of Nudge-Scepticism: Three Challenges to EU Law’s Learning from Behavioural Sciences, in: Alemanno, Alberto/Sibony, Anne-Lise (Hrsg.), Nudge and the Law, A European Perspective, London, 2015, S. 279–299. Czernik, Agnieszka: Was ist ein Algorithmus – Definition und Beispiele, Fachbeitrag im Blog datenschutzbeauftragter-info.de, datenschutzbeauftragter-info.de vom 14.10.2016. Czybulka, Detlef: Akzeptanz als staatsrechtliche Kategorie?, Die Verwaltung 1993, S. 27–37. Daljord, Øystein/Urminsky, Oleg/Ureta, Jose-Manuel: The Status Quo Theory of De­ pletion Does not Explain the Israeli Parole Decisions, im Erscheinen (2019). Damas, Jens-Peter: Ist die Rechtswissenschaft eine „Wissenschaft“?, Fallibilismus als Erkenntnistheorie der Rechtswissenschaft, ARSP 89 (2003), S. 186–199. Damásio, Antonio: Descartes’ Irrtum, Fühlen, Denken und das menschliche Gehirn, München, 1997. Damkowski, Wulf/Precht, Jan: Controlling in der Justiz, NVwZ 2005, S. 292–293. Damkowski, Wulf/Precht, Jan: Modernisierung der Rechtspflege durch Justizcontrol­ ling, VerwArch 2005, S. 525–556. Danziger, Shai/Levav, Jonathan/Avnaim-Pesso, Liora: Extraneous factors in judicial decisions, PNAS 108 (2011), S. 6889–6892. Danziger, Shai/Levav, Jonathan/Avnaim-Pesso, Liora: Reply to Weinshall-Margel and Shapard: Extraneous factors in judicial decisions persist, PNAS 2011, E834. Däubler-Gmelin, Herta/Mohr, Irina (Hrsg.): Recht schafft Zukunft, Perspektiven der Rechtspolitik in einer globalisierten Welt, Bonn, 2003. Davis, Ernest: Winograd Schemas and Machine Translation, New York, NY, 4.10.2016. Davis, Ernest/Morgenstern, Leora/Ortiz, Charles: The Winograd Schema Challenge, https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html (10.6.2020).

480 Literaturverzeichnis Dawes, Robyn/Mulford, Matthew: The False Consensus Effect and Overconfidence: Flaws in Judgment or Flaws in How We Study Judgment?, Organizational Beha­ vior and Human Decision Processes 65 (1996), S. 201–211. Deahl, Dani: China launches cyber-court to handle internet-related disputes, In Hangzhou, the ‚capital of Chinese e-commerce‘, The Verge vom 18.8.2017. Deckers, Rüdiger/Köhnken, Günter (Hrsg.): Die Erhebung und Bewertung von Zeu­ genaussagen im Strafprozess, Juristische, aussagepsychologische und psychiatri­ sche Aspekte, 2. Aufl., Berlin, 2014 – zitiert als „Erhebung und Bewertung von Zeugenaussagen“. Demuth, Stephen/Steffensmeier, Darrell: The Impact of Gender and Race-Ethnicity in the Pretrial Release Process, Social Problems 51 (2004), S. 222–242. Denninger, Erhard/Hoffmann-Riem, Wolfgang/Schneider, Hans-Peter/Stein, Ekkehart (Hrsg.): Kommentar zum Grundgesetz für die Bundesrepublik Deutschland, Lose­ bl. (Stand: 3. Aufl.), Neuwied, 2001. Dettenborn, Harry: Grundlagen der Glaubhaftigkeitsbegutachtung, NZFam (2016), S. 593–597. Detter, Klaus: Zum Strafzumessungs- und Maßregelrecht, NStZ 1992, S. 169–174. Deutscher Juristentag e. V.: Beschlüsse zum 70. Deutschen Juristentag, Hannover, 2014. Deutscher Juristentag e. V.: Beschlüsse zum 72. Deutschen Juristentag, Leipzig, 2018. Deutscher Juristentag e. V.: Thesen der Gutachter und Referenten zum 72. Deutschen Juristentag, Leipzig, 2018. Deutscher Richterbund: Richterethik in Deutschland, Thesen zur Diskussion richter­ licher und staatsanwaltlicher Berufsethik im Deutschen Richterbund, Berlin, 21.1.2012. Deutscher Richterbund: Zehn-Punkte-Papier zur Stärkung des Rechtsstaats, Rechts­ politische Eckpunkte für die 18. Wahlperiode, Berlin, Mai 2013. Deutscher Richterbund: Kernthesen zum Elektronischen Rechtsverkehr und zu E-Akten, Berlin, Dezember 2015. Devine, Patricia/Plant, E. Ashby/Amodio, David/Harmon-Jones, Eddie/Vance, ­Stephanie: The Regulation of Explicit and Implicit Race Bias: The Role of Moti­ vations to Respond Without Prejudice, Journal of Personality and Social Psycho­ logy 82 (2002), S. 835–848. Di Fabio, Udo: Vom Recht, Recht zu sprechen: Die Legitimation des Bundesverfas­ sungsgerichts, Essay, APuZ 35–36 (2011), S. 3–7. Dieterich, William/Mendoza, Christina/Brennan, Tim: COMPAS Risk Scales: De­ monstrating Accuracy Equity and Predictive Parity, 8.7.2016. Dietrich, Aljoscha/Krüger, Jochen/Potel, Karin: Wearables im Zugriff der Strafjustiz, in: Schweighofer, Erich/Kummer, Franz/Hötzendorfer, Walter u. a. (Hrsg.), Trends und Communities der Rechtsinformatik, Tagungsband des 20. Internationalen Rechtsinformatik Symposiums IRIS 2017, Bd. 326, Wien, 2017, S. 559–566 – zi­ tiert als „Wearables und Strafjustiz“.

Literaturverzeichnis481 Dijksterhuis, Ap/Aarts, Henk: On Wildebeests and Humans, The Preferential Detec­ tion of Negative Stimuli, Psychological Science 14 (2003), S. 14–18. Dijkstra, Jaap: Legal Knowledge-based Systems: The Blind Leading the Sheep?, In­ ternational Review of Law, Computers & Technology 15 (2001), S. 119–128. Dinner, Isaac/Johnson, Eric/Goldstein, Daniel/Liu, Kaiya: Partitioning Default Ef­ fects: Why People Choose Not to Choose, Journal of Experimental Psychology 17 (2011), S. 332–341. Dippel, Christian/Poyker, Michael: Do Private Prisons Affect Criminal Sentencing?, NBER Working Paper No. 25715, 2019. Dix, Alexander/Franßen, Gregor/Kloepfer, Michael/Schaar, Peter/Schoch, Friedrich/ Voßhoff, Andrea/Deutsche Gesellschaft für Informationsfreiheit (Hrsg.): Informa­ tionsfreiheit und Informationsrecht, Jahrbuch 2015, Berlin, 2016. Djeffal, Christian: Das Internet der Dinge und die öffentliche Verwaltung – Auf dem Weg zum automatisierten Smart Government?, DVBl 2017, S. 808–816. D’Mello, Sidney/Georgiou, Panayiotis/Scherer, Stefan (Hrsg.): Proceedings of the 20th ACM International Conference on Multimodal Interaction: October 16–20, 2018, Boulder, CO, USA, New York, NY, 2018 – zitiert als „ICMI ’18“. Dobelli, Rolf: Die Kunst des klaren Denkens, 52 Denkfehler, die Sie besser anderen überlassen, München, 2011. Doleac, Jennifer/Stevenson, Megan: Are criminal risk assessment scores racist?, ­h ttps://www.brookings.edu/blog/up-front/2016/08/22/are-criminal-risk-assess ment-scores-racist/ (10.6.2020). Donath, Philipp/Bretthauer, Sebastian (Hrsg.): Verfassungen – ihre Rolle im Wandel der Zeit, 59. Assistententagung Öffentliches Recht, Baden-Baden, 2019 (im Er­ scheinen). Dreier, Horst (Hrsg.): Grundgesetz, Kommentar, 3. Aufl. Bd. 3, Tübingen, 2018. Dressel, Julia/Farid, Hany: The accuracy, fairness, and limits of predicting recidi­ vism, Science Advances 4 (2018), S. 1–5. Dreyer, Stephan/Schmees, Johannes: Künstliche Intelligenz als Richter?, Wo keine Trainingsdaten, da kein Richter – Hindernisse, Risiken und Chancen der Automa­ tisierung gerichtlicher Entscheidungen, CR 2019, S. 758–764. Dubber, Markus: Einführung in das US-amerikanische Strafrecht, München, 2005. Duden, Konrad: Online-Wörterbuch, www.duden.de (10.6.2020). Dunkel, Barbara: Fehlentscheidungen in der Justiz, Systematische Analyse von Wie­ deraufnahmeverfahren in Strafverfahren im Hinblick auf Häufigkeit und Risiko­ faktoren, Baden-Baden, 2018. Dunkel, Barbara/Kemme, Stefanie: Fehlurteile in Deutschland: eine Bilanz der empi­ rischen Forschung seit fünf Jahrzehnten, NK 28 (2016), S. 138–154. Dürig, Günter: Der Grundrechtssatz von der Menschenwürde, AöR 81 (1956), S. 117–157. Dworkin, Ronald: Taking Rights Seriously, Cambridge, Massachusetts, 1977.

482 Literaturverzeichnis Dworkin, Ronald: Bürgerrechte ernstgenommen, Frankfurt am Main, 1984. Dworkin, Ronald: Law’s Empire, Cambridge, Massachusetts, 1986. Dymitruk, Maria: Ethical Artificial Intelligence in Judiciary, in: Schweighofer, Erich/ Kummer, Franz/Saarenpää, Ahti (Hrsg.), Internet of Things, Tagungsband des 22. Internationalen Rechtsinformatik Symposiums IRIS 2019, Proceedings of the 22nd International Legal Informatics Symposium, Bern, 2019, S. 451–458. Ebert, Christian/Ebert, Cornelia: Kapitel 3: Methoden, in: Carstensen, Kai-Uwe/ Ebert, Christian/Ebert, Cornelia u. a. (Hrsg.), Computerlinguistik und Sprachtech­ nologie, Eine Einführung, 3. Aufl., Heidelberg, 2010, S. 169–480. Edwards, Lilian/Huntley, John: Creating a civil jurisdiction adviser, Information & Communications Technology Law 1 (1992), S. 5–40. Edwards, Lilian/Veale, Michael: Slave to the algorithm?, Why a ‚right to explanation‘ is probably not the remedy you are looking for, Duke Law & Technology Review 16 (2017), S. 18–84. Effer-Uhe, Daniel: Möglichkeiten des elektronischen Zivilprozesses, MDR 2019, S. 69–76. Ehlers, Dirk: Die öffentliche Verwaltung im technischen Zeitalter, Jura 1991, S. 337– 342. Eidenmüller, Horst: Der homo oeconomicus und das Schuldrecht: Herausforderungen durch Behavioral Law and Economics, JZ 2005, S. 216–224. Eisenberg, Ulrich: Jugendgerichtsgesetz, 20. Aufl., München, 2018 – zitiert als „JGG“. Eisenführ, Franz/Weber, Martin/Langer, Thomas: Rationales Entscheiden, 5. Aufl., Berlin, 2010. Eisenhardt, Ulrich: Deutsche Rechtsgeschichte, 6. Aufl., München, 2013. Elqayam, Shira/Evans, Jonathan: Subtracting „ought“ from „is“: Descriptivism versus normativism in the study of human thinking, Behavioral and Brain Sciences 34 (2011), S. 251–252. Elsner, Jörg: Rückschaufehler (englisch: hindsight bias), ZfS 2017, S. 3. Enders, Christoph: Die Menschenwürde in der Verfassungsordnung, Zur Dogmatik des Art. 1 GG, Tübingen, 1997. Enders, Peter: Einsatz künstlicher Intelligenz bei juristischer Entscheidungsfindung, JA 2018, S. 721–727. Engel, Christoph: Preponderance of the Evidence versus Intime Conviction, A Behav­ ioral Perspective on a Conflict between American and Continental European Law, Vermont Law Review 33 (2009), S. 435–467. Engel, Christoph: Die Bedeutung der Verhaltensökonomie für das Kartellrecht, in: Fleischer, Holger/Zimmer, Daniel (Hrsg.), Beitrag der Verhaltensökonomie (Be­ havioral Economics) zum Handels- und Wirtschaftsrecht, Bd. 75, Frankfurt am Main, 2011, S. 100.

Literaturverzeichnis483 Engel, Christoph: Behavioral Law and Economics: Empirical Methods, in: Zamir, Eyal/Teichman, Doron (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, Oxford, 2014, S. 125–142. Engel, Christoph/Englerth, Markus/Lüdemann, Jörn/Spiecker gen. Döhmann, Indra (Hrsg.): Recht und Verhalten, Beiträge zu Behavioral Law and Economics, Tübin­ gen, 2007. Engel, Martin: Algorithmisierte Rechtsfindung als juristische Arbeitshilfe, Erwide­ rung – Zu Kyriakos N. Kotsoglou JZ 2014, 451–457, JZ 2014, S. 1096–1100. Engeler, Malte: Auswirkungen der Datenschutz-Grundverordnung auf die Arbeit der justiziellen Beteiligungsgremien, NJOZ 2019, S. 593–602. Engisch, Karl: Einführung in das juristische Denken, 12. Aufl., Stuttgart, 2018. Englich, Birte: Blind or Biased?, Justitia’s Susceptibility to Anchoring Effects in the Courtroom Based on Given Numerical Representations, Law & Policy 28 (2006), S. 497–514. Englich, Birte/Bernhardt, Madeleine: Urteil mit Schlagseite, Gehirn & Geist 2012, S. 14–19. Englich, Birte/Mussweiler, Thomas: Sentencing Under Uncertainty: Anchoring Ef­ fects in the Courtroom, Journal of Applied Social Psychology 31 (2001), S. 1535– 1551. Englich, Birte/Mussweiler, Thomas/Strack, Fritz: Playing Dice With Criminal Sen­ tences: The Influence of Irrelevant Anchors on Experts’ Judicial Decision Making, Personality and Social Psychology Bulletin 2006, S. 188–200. Englich, Birte/Soder, Kirsten: Moody experts – How mood and expertise influence judgmental anchoring, Judgment and Decision Making 4 (2009), S. 41–50. Engst, Benjamin/Gschwend, Thomas/Schaks, Nils/Sternberg, Sebastian/Wittig, Caro­ line: Zum Einfluss der Parteinähe auf das Abstimmungsverhalten der Bundesver­ fassungsrichter – eine quantitative Untersuchung, JZ 2017, S. 816–826. Epping, Volker/Hillgruber, Christian (Hrsg.): Beck’scher Online-Kommentar Grund­ gesetz, 41. Ed., München, 2019. Epstein, Robert/Beber, Grace/Roberts, Gary (Hrsg.): Parsing the Turing Test, Philoso­ phical and Methodological Issues in the Quest for the Thinking Computer, Dordrecht, 2009. Erdmann, Ulrich/Fiedler, Herbert/Haft, Fritjof/Traunmüller, Roland (Hrsg.): Compu­ tergestützte juristische Expertensysteme, Tübingen, 1986. Eren, Ozkan/Mocan, Naci: Emotional Judges and Unlucky Juveniles, American Eco­ nomic Journal: Applied Economics 10 (2018), S. 171–205. Ernst, Christian: Die Gefährdung der individuellen Selbstentfaltung durch den priva­ ten Einsatz von Algorithmen, in: Klafki, Anika/Würkert, Felix/Winter, Tina (Hrsg.), Digitalisierung und Recht, Tagung des Vereins Junge Wissenschaft im öffentlichen Recht an der Bucerius Law School am 26. November 2016, Ham­ burg, 2017, S. 63–81 – zitiert als „Selbstentfaltung und Algorithmeneinsatz“

484 Literaturverzeichnis .Ernst, Christian: Algorithmische Entscheidungsfindung und personenbezogene Da­ ten, JZ 2017, S. 1026–1036. Ertel, Wolfgang: Grundkurs Künstliche Intelligenz, Eine praxisorientierte Einführung, 4. Aufl., Wiesbaden, 2016. Esser, Josef: Vorverständnis und Methodenwahl in der Rechtsfindung, Königstein, 1970. Esser, Josef/Thieme, Hans (Hrsg.): Festschrift für Fritz von Hippel, zum 70. Geburts­ tag, Tübingen, 1967 – zitiert als „FS Hippel“. Europäisches Parlament, Understanding algorithmic decision-making: Opportunities and challenges, Study: Panel for the Future of Science and Technology, Straßburg, 2019. Europarat/Committee of Experts on Internet Intermediaries (MSI-NET): Algorithms and Human Rights, Study on the human rights dimensions of automated data pro­ cessing techniques and possible regulatory implications, Straßburg, März 2018. Europarat/Europäische Kommission für die Effizienz der Justiz (CEPEJ): European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, Straßburg, 2018 – zitiert als „Ethical Charter on the Use of AI“. European Group on Ethics in Science and New Technologies: Statement on Artifcial Intelligence, Robotics and ‚Autonomous‘ Systems, Brüssel, 2018. Faber, Angela: Die Zukunft kommunaler Selbstverwaltung und der Gedanke der Sub­ sidiarität in den Europäischen Gemeinschaften, DVBl 1991, S. 1126–1135. Fachforum Autonome Systeme im Hightech-Forum: Autonome Systeme – Chancen und Risiken für Wirtschaft, Wissenschaft und Gesellschaft, Abschlussbericht – Langversion, Berlin, 2017. Fadavian, Benjamin: Rechtswissenschaftliche Aspekte von Smart Government, Wel­ che rechtswissenschaftlichen Fragestellungen eröffnen sich mit einem intelligent vernetzten Regierungs- und Verwaltungshandeln?, in: Lucke, Jörn von (Hrsg.), Smart Government, Intelligent vernetztes Regierungs- und Verwaltungshandeln in Zeiten des Internets der Dinge und des Internets der Dienste, Beiträge vom Smart Government Symposium am The Open Government Institute | TOGI der Zeppelin Universität am 13. November 2015 in Friedrichshafen, Bd. 16, Berlin, 2016, S. 113–133. Falk, Ulrich/Alles, Matthias: Verhaltensökonomik und Anwaltsrhetorik, Ein interdis­ ziplinärer Forschungsbericht zu Wahrnehmungsverzerrungen bei Risikoabwägun­ gen, Prognosen und Richtigkeitswertungen, ZIP 2014, S. 1209–1218. Fatalin, Markus: Haftung autonomer Systeme, Eine dogmatische Untersuchung der zivilrechtlichen Haftung für Schäden durch autonome Systeme, Leipzig, 2016. Feigenson, Neal: Emotional Influences on Judgments of Legal Blame, How They Happen, Whether They Should, and What to Do About It, in: Bornstein, Brian/ Wiener, Richard (Hrsg.), Emotion and the Law, Psychological Perspectives, Bd. 56, New York, NY, 2010, S. 45–96. Feigenson, Neal: Visual evidence, Psychonomic Bulletin & Review 2010, S. 149– 154.

Literaturverzeichnis485 Ferguson, Andrew Guthrie: Big Data and Predictive Reasonable Suspicion, Univer­ sity of Pennsylvania Law Review 163 (2015), S. 327–410. Fetzer, Joachim: Menschenwürde als Leitmotiv der Digitalisierung, Digitale Gesell­ schaft, Berlin, November 2017. Fiedler, Herbert: Rechenautomaten in Recht und Verwaltung, JZ 1966, S. 689–696. Fiedler, Herbert: Computers and Legal Reasoning: Developments in Germany, Com­ puters and the Humanities 1991, S. 141–147. Filip, Florin Gheorghe/Zamfirescu, Bălă-Costantin/Ciurea, Cristian: Computer-Sup­ ported Collaborative Decision-Making, Basel, 2017. Filseck, R. Moser von: Rechtsgefühl und Entscheidungsfindung bei Hermann Isay (1873–1938), GRUR 1976, S. 328–329. Fischer, Paul: Algorithmisches Lernen, Wiesbaden, 1999. Fischer, Thomas: „Vom Recht verstehe ich wenig bis nichts“, ZEIT Online vom 1.11.2014. Fischer, Thomas: Wunder, Wahn und der Paragraf 20, ZEIT Online vom 9.8.2016. Fischer, Thomas: Recht und Richter, ZEIT Online vom 23.8.2016. Fischer, Thomas: Strafgesetzbuch, 66. Aufl., München, 2019 – zitiert als „StGB, 66. Aufl.“. Fleischer, Holger/Zimmer, Daniel (Hrsg.): Beitrag der Verhaltensökonomie (Behavio­ ral Economics) zum Handels- und Wirtschaftsrecht, Frankfurt am Main, 2011. Flint, Thomas: Anforderungen an Richter der Sozialgerichtsbarkeit und Selbstver­ ständnis, Vortrag auf der 47. Richterwoche des Bundessozialgerichts am 03.11.2015, NZS 2016, S. 81–84. Foerste, Ulrich: Verdeckte Rechtsfortbildung in der Zivilgerichtsbarkeit, JZ 2007, S. 122–135. Foerster, Heinz von/Pörksen, Bernhard: Wahrheit ist die Erfindung eines Lügners, Gespräche für Skeptiker, 11. Aufl., Heidelberg, 2016. Ford, Matt: The Missing Statistics of Criminal Justice, The Atlantic (Online) vom 31.5.2015. Fraunhofer-Institut für Offene Kommunikationssysteme (FOKUS): Public IoT – Das Internet der Dinge im öffentlichen Raum, Berlin, 2016. Fredrickson, Barbara/Kahneman, Daniel: Duration Neglect in Retrospective Evalua­ tions of Affective Episodes, Journal of Personality and Social Psychology 65 (1993), S. 45–55. Frey, Carl B./Osborne, Michael A.: The Future of Employment, How susceptible are jobs to computerisation?, Technological Forecasting and Social Change 114 (2017), S. 254–280. Friauf, Karl Heinrich/Höfling, Wolfram (Hrsg.): Berliner Kommentar zum Grund­ gesetz, Losebl. (Stand: 51. Erg.-Lfg.), Berlin, 2019.

486 Literaturverzeichnis Friedman, Batya/Nissenbaum, Helen: Bias in Computer Systems, ACM Transactions on Information Systems 14 (1996), S. 330–347. Friedrichsen, Gisela: Medien und Justiz – Der Blick der Gerichtsreporterin, in: Boehme-Neßler, Volker (Hrsg.), Die Öffentlichkeit als Richter?, Litigation-PR als neue Methode der Rechtsfindung, Baden-Baden, 2010, S. 52–59 – zitiert als „Me­ dien und Justiz“. Fries, Martin: PayPal Law und Legal Tech – Was macht die Digitalisierung mit dem Privatrecht?, NJW 2016, S. 2860–2865. Fries, Martin: Automatische Rechtspflege, RW 2018, S. 414–430. Fries, Martin: Zeit für einen Robo-Judge?, Legal Tech in der Justiz, Legal Tribune Online vom 9.3.2018. Frisch, Wolfgang: Schuldgrundsatz und Verhältnismäßigkeitsgrundsatz, NStZ 2013, S. 249–256. Frisch, Wolfgang: Voraussetzungen und Grenzen staatlichen Strafens, NStZ 2016, S. 16–25. Frochte, Jörg: Maschinelles Lernen, Grundlagen und Algorithmen und Python, Mün­ chen, 2018. Fromm, Ingo: „Standardisierte“ Vorbereitung der Hauptverhandlung durch den Buß­ geldrichter, NJW 2012, S. 2939–2940. Fromm, Ingo: Aktuelles zur Besorgnis der Befangenheit des Richters im Strafprozess, NJOZ 2015, S. 1–5. Fuchs, Peter/Göbel, Andreas (Hrsg.): Der Mensch – das Medium der Gesellschaft?, Frankfurt am Main, 1994. Funke, Andreas/Lachmayer, Konrad (Hrsg.): Formate der Rechtswissenschaft, Wei­ lerswist, 2017. Gabriel, Gottfried/Gröschner, Rolf (Hrsg.): Subsumtion, Tübingen, 2012. Gabriel, Markus: Ich ist nicht Gehirn, Philosophie des Geistes für das 21. Jahrhun­ dert, Berlin, 2015. Gabriel, Markus: Der Sinn des Denkens, Berlin, 2018. Gaier, Reinhard: Der moderne liberale Zivilprozess, NJW 2013, S. 2871–2876. Gaier, Reinhard: Strukturiertes Parteivorbringen im Zivilprozess, ZRP 2015, S. 101– 104. Geipel, Andreas/Nill, Alexander: Erkenntnisse der Wirtschaftswissenschaften als Tak­ tik der Vergleichsverhandlung, ZfS 2007, S. 6–10. Geisler, Claudius/Kraatz, Erik/Kretschmer, Joachim/Schneider, Hartmut/Sowada, Christoph (Hrsg.): Festschrift für Klaus Geppert zum 70. Geburtstag am 10. März 2011, Berlin, New York, 2011 – zitiert als „FS Geppert“. Gerhardt, Rudolf: Im Namen der Medien. Welchen Einfluss haben Rundfunk und Presse auf den Strafprozess?, in: Boehme-Neßler, Volker (Hrsg.), Die Öffentlich­ keit als Richter?, Litigation-PR als neue Methode der Rechtsfindung, BadenBaden, 2010, S. 171–182 – zitiert als „Im Namen der Medien“.

Literaturverzeichnis487 Gern, Alfons: Die Rangfolge der Auslegungsmethoden von Rechtsnormen, VerwArch 80 (1989), S. 415–436. Geyer, Christian (Hrsg.): Hirnforschung und Willensfreiheit, Zur Deutung der neues­ ten Experimente, Frankfurt am Main, 2004. Ghumman, Sonia/Barnes, Christopher: Sleep and prejudice: A resource recovery ­approach, Journal of Applied Social Psychology 43 (2013), S. 166–178. Giannoulis, Georgios: Studien zur Strafzumessung, Ein Beitrag zur Dogmatik, Rechtstheorie und Rechtsinformatik mit Vertiefung in den Eigentums- und Vermö­ gensdelikten, Tübingen, 2014. Gierow, Hauke: IBM will Flüchtlinge von Terroristen unterscheiden können, golem. de vom 23.2.2016. Gigerenzer, Gerd: How to Make Cognitive Illusions Disappear: Beyond „Heuristics and Biases“, in: Stroebe, Wolfgang/Hewstone, Miles (Hrsg.), European Review of Social Psychology, Volume 2, Chichester, 1991, S. 83–115. Gigerenzer, Gerd: On Narrow Norms and Vague Heuristics: A Reply to Kahneman and Tversky (1996), Psychological Review 1996, S. 592–596. Gigerenzer, Gerd: Heuristics, in: Gigerenzer, Gerd/Engel, Christoph (Hrsg.), Heuris­ tics and the Law, Cambridge, Mass., 2006, S. 17–44. Gigerenzer, Gerd: Warum wir uns dem Wissen verweigern, Neue Zürcher Zeitung (Online) vom 5.1.2017. Gigerenzer, Gerd/Engel, Christoph (Hrsg.): Heuristics and the Law, Cambridge, Mass., 2006. Gillenkirch, Robert: Stichwort: Entscheidungstheorie, in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, Wiesbaden, 2018. Gillenkirch, Robert: Stichwort: Fuzzy Logic, in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, Wiesbaden, 2018. Glöckner, Andreas: The irrational hungry judge effect revisited: Simulations reveal that the magnitude of the effect is overestimated, Judgment and Decision Making 11 (2016), S. 601–610. Glöckner, Andreas/Betsch, Tilmann: The empirical content of theories in judgment and decision making: Shortcomings and remedies, Judgment and Decision Ma­ king 6 (2011), S. 711–721. Glöckner, Andreas/Towfigh, Emanuel: Entscheidungen zwischen „Intuition“ und „Ra­ tionalität“, DRiZ 2015, S. 270–273. Goddard, Kate/Roudsari, Abdul/Wyatt, Jeremy: Automation bias: a systematic review of frequency, effect mediators, and mitigators, Journal of the American Medical Informatics Association 19 (2012), S. 121–127. Gola, Peter (Hrsg.): Datenschutz-Grundverordnung, VO (EU) 2016/679, Kommentar, München, 2017. Gola, Peter (Hrsg.): Datenschutz-Grundverordnung, VO (EU) 2016/679, Kommentar, 2. Aufl., München, 2018.

488 Literaturverzeichnis Gold, Christian/Körber, Moritz/Hohenberger, Christoph/Lechner, David/Bengler, Klaus: Trust in Automation – Before and After the Experience of Take-over Scenarios in a Highly Automated Vehicle, Procedia Manufacturing 3 (2015), S. 3025–3032. Golla, Sebastian: Abgenickt von Algorithmik, Aktuelles zum Verbot automatisierter Entscheidungen, PinG 2014, S. 61–65. Golla, Sebastian: In Würde vor Ampel und Algorithmus, Verfassungsrecht im techno­ logischen Wandel, in: Donath, Philipp/Bretthauer, Sebastian/Dickel-Görig, Marie (Hrsg.), Verfassungen – ihre Rolle im Wandel der Zeit, 59. Assistententagung Öffentliches Recht Frankfurt am Main 2019, Baden-Baden, 2019. Görz, Günther/Schneeberger, Josef/Schmid, Ute (Hrsg.): Handbuch der Künstlichen Intelligenz, 5. Aufl., München, 2013. Götz, Uschi: Hoffnungslos überfüllt, Deutschlandfunk (Online) vom 3.1.2019. Grabmair, Matthias/Ashley, Kevin: Towards Modeling Systematic Interpretation of Codified Law, in: Moens, Marie-Francine/Spyns, Peter (Hrsg.), Proceedings of the 2005 conference on Legal Knowledge and Information Systems: JURIX 2005, Legal knowledge and information systems, Bd. 134, Amsterdam, 2005, S. 107– 108. Grabmair, Matthias/Ashley, Kevin: Facilitating Case Comparison Using Value Judg­ ments and Intermediate Legal Concepts, in: Ashley, Kevin/van Engers, Tom (Hrsg.), Proceedings of the 13th International Conference on Artificial Intelligence and Law, Pittsburgh, 2011, S. 161–170 – zitiert als „Facilitating Case Comparison“. Grabmair, Matthias/Ashley, Kevin/Chen, Ran/Sureshkumar, Preethi/Wang, Chen/ Nyberg, Eric/Walker, Vern: Introducing LUIMA: an experiment in legal concep­ tual retrieval of vaccine injury decisions using a UIMA type system and tools, in: Sichelman, Ted/Atkinson, Katie (Hrsg.), Proceedings of the 15th International Conference on Artificial Intelligence and Law, New York, NY, 2015, S. 69–78. Graevenitz, Albrecht von: „Zwei mal Zwei ist Grün“ – Mensch und KI im Vergleich, ZRP 2018, S. 238–241. Graf, Jürgen-Peter (Hrsg.): BeckOK StPO mit RiStBV und MiStra, 33. Ed., Mün­ chen, 2019. Gräwe, Svenja Lena: Die Entstehung der Rechtsinformatik, Wissenschaftsgeschicht­ liche und -theoretische Analyse einer Querschnittsdisziplin, Hamburg, 2011. Green, Thomas Hill/Grose, Thomas Hodge: The Philosophical Works of David Hume, 1875. Griller, Stefan: Der Rechtsbegriff bei Ronald Dworkin, in: Griller, Stefan/Rill, Heinz Peter (Hrsg.), Rechtstheorie: Rechtsbegriff – Dynamik – Auslegung, Bd. 136, Wien, 2011, S. 57–79. Griller, Stefan/Rill, Heinz Peter (Hrsg.): Rechtstheorie: Rechtsbegriff – Dynamik – Auslegung, Wien, 2011 – zitiert als „Rechtstheorie“. Groeben, Norbert/Christmann, Ursula: Argumentationsintegrität als Zielidee im Rechtssystem?, in: Lerch, Kent (Hrsg.), Die Sprache des Rechts, Recht verhan­

Literaturverzeichnis489 deln – Argumentieren, Begründen und Entscheiden im Diskurs des Rechts, Bd. 2, Berlin, 2005, S. 155–202 – zitiert als „Argumentationsintegrität“. Groß, Thomas: Die Informatisierung der Verwaltung, Eine Zwischenbilanz auf dem Weg von der Verwaltungsautomation zum E-Government, VerwArch 95 (2004), S. 400–417. Grundies, Volker: Gleiches Recht für alle? – Eine empirische Analyse lokaler Unter­ schiede in der Sanktionspraxis inder Bundesrepublik Deutschland, in: Neubacher, Frank/Bögelein, Nicole (Hrsg.), Krise – Kriminalität – Kriminologie, Mönchen­ gladbach, 2016, S. 511–525. Grundies, Volker: Regionale Unterschiede in der gerichtlichen Sanktionspraxis in der Bundesrepublik Deutschland, Eine empirische Analyse, in: Hermann, Dieter/Pöge, Andreas (Hrsg.), Kriminalsoziologie, Handbuch für Wissenschaft und Praxis, ­Baden-Baden, 2018, S. 295–315. Grundmann, Stefan: Juristische Expertensysteme – Brücke von (Rechts)informatik zu Rechtstheorie, in: Erdmann, Ulrich/Fiedler, Herbert/Haft, Fritjof u. a. (Hrsg.), Computergestützte juristische Expertensysteme, Tübingen, 1986, S. 97–110. Grupp, Michael: Kapitel 7.1: Wie baut man einen Rechtsautomaten?, in: Hartung, Markus/Bues, Micha-Manuel/Halbleib, Gernot (Hrsg.), Legal Tech, Die Digitali­ sierung des Rechtsmarkts, München, 2018, S. 259–266. Grüter, Thomas: Im „Kopf“ von künstlichen neuronalen Netzen, Spektrum.de vom 3.9.2018. Grzeszick, Bernd: Rationalitätsanforderungen an die parlamentarische Rechtsetzung im demokratischen Rechtsstaat, in: Grzeszick, Bernd/Calliess, Christian/Lien­ bacher, Georg (Hrsg.), Grundsatzfragen der Rechtsetzung und Rechtsfindung, VVDStRL 71, Referate und Diskussionen auf der Tagung der Vereinigung der Deutschen Staatsrechtslehrer in Münster vom 5. bis 8. Oktober 2011, Bd. 71, Ber­ lin, 2012, S. 49–81. Grzeszick, Bernd/Calliess, Christian/Lienbacher, Georg (Hrsg.): Grundsatzfragen der Rechtsetzung und Rechtsfindung, VVDStRL 71, Berlin, 2012. Guckelberger, Annette: Vollständig automatisierte Verwaltungsakte, in: van Oostrom, Samuel/Weth, Stephan (Hrsg.), Festschrift für Maximilian Herberger, Saarbrü­ cken, 2016, S. 397–414 – zitiert als „Automatisierte Verwaltungsakte“. Guise-Rübe, Ralph: Die Veränderung richterlicher Arbeit durch neue Medien, in: Hof, Hagen/Götz von Olenhusen, Peter (Hrsg.), Rechtsgestaltung – Rechtskritik – Kon­ kurrenz von Rechtsordnungen …, Neue Akzente für die Juristenausbildung, ­Baden-Baden, 2012, S. 345–351. Günzl, Clara: Subsumtionsautomaten und -maschinen, Rechtshistorische Anmerkun­ gen zu einem beliebten Vorwurf, JZ 2019, S. 180–188. Gusy, Christoph: Die Weimarer Reichsverfassung, Tübingen, 1997. Guthrie, Chris/Rachlinski, Jeffrey/Wistrich, Andrew: Inside the Judicial Mind, Cor­ nell Law Review 86 (2001), S. 777–830. Guthrie, Chris/Rachlinski, Jeffrey/Wistrich, Andrew: Blinking on the Bench: How Judges Decide Cases, Cornell Law Review 2007, S. 1–43.

490 Literaturverzeichnis Guyon, Isabelle/Luxburg, Ulrike von/Bengio, Samy/Wallach, Hanna, et al. (Hrsg.): Neural Information Processing Systems 30 (2017), Cambridge, Massachusetts. Habermas, Jürgen: Faktizität und Geltung, Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats, Frankfurt am Main, 1997. Hacker, Philipp: Verhaltensökonomik und Normativität, Die Grenzen des Informa­ tionsmodells im Privatrecht und seine Alternativen, Tübingen, 2017. Hacker, Philipp: Teaching Fairness to Artificial Intelligence: Existing and Novel Stra­ tegies Against Algorithmic Discrimination Under EU Law, Common Market Law Review 2018, S. 1143–1186. Hacker, Philipp: Verhaltens- und Wissenszurechnung beim Einsatz von Künstlicher Intelligenz, RW 2018, S. 243–288. Hafenbrädl, Sebastian/Waeger, Daniel/Marewski, Julian/Gigerenzer, Gerd: Applied Decision Making with Fast-and-Frugal Heuristics, Journal of Applied Research in Memory and Cognition 5 (2016), S. 215–231. Haft, Fritjof: Elektronische Datenverarbeitung im Recht, Ein Überblick, Berlin, 1970. Haft, Fritjof/Hassemer, Winfried/Neumann, Ulfrid/Schild, Wolfgang/Schroth, Ulrich (Hrsg.): Strafgerechtigkeit, Festschrift für Arthur Kaufmann zum 70. Geburtstag, Heidelberg, 1993. Haft, Fritjof/Lehmann, Hein (Hrsg.): Das LEX-Projekt, Entwicklung eines juristi­ schen Expertensystems, Tübingen, 1989. Hagemann, Reiner: Die Anwendung der automatischen Datenverarbeitung in der Rechtsfindung, speziell im Subsumtionsprozeß, Speyer, 1978 – zitiert als „Auto­ matische Datenverarbeitung in der Rechtsfindung“. Hall, Guy/Whittle, Marion/Field, Courtney: Themes in Judges’ Sentencing Remarks for Male and Female Domestic Murders, Psychiatry, Psychology and Law 23 (2016), S. 395–412. Haman, Christian: Integration neuronaler Netze in regelbasierte juristische Experten­ systeme, Berlin, 1998. Hänni, Julia: Vom Gefühl am Grund der Rechtsfindung, Rechtsmethodik, Objektivität und Emotionalität in der Rechtsanwendung, Berlin, 2011. Hänni, Julia: Emotion and Law: How Pre-Rational Cognition Influences Judgment, German Law Journal 2012, S. 369–380. Hänni, Julia: Phänomenologie der juristischen Entscheidung, in: Landweer, Hilge/ Koppelberg, Dirk (Hrsg.), Recht und Emotion I, Verkannte Zusammenhänge, Bd. 26, Freiburg, München, 2016, S. 227–248 – zitiert als „Phänomenologie“. Hannich, Rolf (Hrsg.): Karlsruher Kommentar zur Strafprozessordnung, Mit GVG, EGGVG und EMRK, 8. Aufl., München, 2019. Harbou, Frederik von: Empathie als Element einer rekonstruktiven Theorie der Men­ schenrechte, Baden-Baden, 2014. Harrendorf, Stefan: Justizieller Umgang mit kriminellem Verhalten im internationalen Vergleich: Was kann „Comparative Criminal Justice“ leisten?, Rechtswissenschaft 8 (2017), S. 113–152.

Literaturverzeichnis491 Hartung, Markus/Bues, Micha-Manuel/Halbleib, Gernot (Hrsg.): Legal Tech, Die Digitalisierung des Rechtsmarkts, München, 2018. Hassan, Hany/Aue, Anthony/Chen, Chang/Chowdhary, Vishal/Clark, Jonathan/Federmann, Christian/Huang, Xuedong/Junczys-Dowmunt, Marcin/Lewis, William/Li, Mu/Liu, Shujie/Liu, Tie-Yan/Luo, Renqian/Menezes, Arul/Qin, Tao/Seide, Frank/ Tan, Xu/Tian, Fei/Wu, Lijun/Wu, Shuangzhi/Xia, Yingce/Zhang, Dongdong/Zhang, Zhirui/Zhou, Ming: Achieving Human Parity on Automatic Chinese to English News Translation, 2018. Hassemer, Winfried: Automatisierte und rationale Strafzumessung, in: Arbeitsge­ meinschaft Rechtsinformatik (Hrsg.), Gesetzesplanung – Beiträge zur Rechtsinfor­ matik, Bd. 4, München, Regensburg, Berlin, 1972, S. 95–119. Hawkins, Scott/Hastie, Reid: Hindsight: Biased Judgments of Past Events after the Outcomes are Known, Psychological Bulletin 107 (1990), S. 311–327. Heckelmann, Martin: Zulässigkeit und Handhabung von Smart Contracts, NJW 2018, S. 504–510. Heckmann, Dirk: E-Justice-Kompetenz: ein Muss in der künftigen Juristenausbildung, in: Boorberg Verlag (Hrsg.), Jurist 4.0 – Die neue Welt des Rechts, Der Wirt­ schaftsführer für junge Juristen 2016/2017, 2016/2017, Stuttgart, S. 14–15. Heghmanns, Michael: Buchrezension zu Georgios Giannoulis, Studien zur Strafzu­ messung, ZIS 2016, S. 879–882. Heinemeyer, Dennis: Datenverarbeitungs-Crashtests ohne Daten-Dummys, Zur Zuläs­ sigkeit der Nutzung von (echten) personenbezogenen Daten zu Testzwecken nach DSGVO, CR 2019, S. 147–151. Heinold, Alexander: Die Prinzipientheorie bei Ronald Dworkin und Robert Alexy, Berlin, 2011. Heintschel-Heinegg, Bernd (Hrsg.): Beck’scher Onlinekommentar StGB, 42. Ed., München, 2019. Helbich, Julius: Rechtsfragen der „automatisierten“ Ermessensausübung im Steuer­ recht, DStR 2017, S. 574–579. Herberger, Maximilian: Digitalisierung und Juristenausbildung – einige programma­ tische Bemerkungen, in: Boorberg Verlag (Hrsg.), Soft Skills im Trend – Kompe­ tenz, Kommunikation und Recht, Der Wirtschaftsführer für junge Juristen 2017, Stuttgart, 2017, S. 28–29. Herberger, Maximilian: „Künstliche Intelligenz“ und Recht, Ein Orientierungsver­ such, NJW 2018, S. 2825–2829. Herberger, Maximilian: „Hier spricht der Automat.“, Ein Zwischenruf zur Automati­ sierung im Recht. Oder: But who will guard the guardians?, Rethinking Law 2/2019, S. 42–43. Herbst, Tobias: Die These der einzig richtigen Entscheidung, Überlegungen zu ihrer Überzeugungskraft insbesondere in den Theorien von Ronald Dworkin und Jürgen Habermas, JZ 2012, S. 891–900.

492 Literaturverzeichnis Herdegen, Gerhard: Die Überprüfung der tatsächlichen Feststellungen durch das Re­ visionsgericht auf Grund der Sachrüge, StV 1992, S. 527–534. Herder, Janosik: Regieren Algorithmen? Über den sanften Einfluss algorithmischer Modelle, in: Mohabbat Kar, Resa/Thapa, Basanta/Parycek, Peter u. a. (Hrsg.), (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Berlin, 2018, S. 179–203 – zitiert als „Einfluss algorithmischer Modelle“. Hermann, Dieter/Pöge, Andreas (Hrsg.): Kriminalsoziologie, Handbuch für Wissen­ schaft und Praxis, Baden-Baden, 2018. Herold, Viktoria: Algorithmisierung von Ermessensentscheidungen durch Machine Learning, in: Taeger, Jürgen (Hrsg.), Rechtsfragen digitaler Transformationen, Gestaltung digitaler Veränderungsprozesse durch Recht, Tagungsband DSRIHerbstakademie 2018, Edewecht, 2018, S. 453–465 – zitiert als „Algorithmisie­ rung durch ML“. Hestermeyer, Holger: Staatshaftung für den G20-Gipfel?, Der Ersatz von Tumult­ schäden im deutschen Recht, DÖV 2018, S. 260–267. Heussen, Benno: Richterliche Berufsethik aus der Sicht eines Rechtsanwalts, NJW 2015, S. 1927–1933. Hilgendorf, Eric (Hrsg.): Robotik im Kontext von Recht und Moral, Baden-Baden, 2014. Hilgendorf, Eric (Hrsg.): Autonome Systeme und neue Mobilität, Ausgewählte Bei­ träge zur 3. und 4. Würzburger Tagung zum Technikrecht, Baden-Baden, 2017. Hilgendorf, Eric/Seidel, Uwe (Hrsg.): Robotics, Autonomics, and the Law, Legal is­ sues arising from the AUTONOMICS for Industry 4.0 Technology Programme of the German Federal Ministry for Economic Affairs and Energy, Baden-Baden, 2017. Hill, Dan: Emotionomics, Leveraging emotions for business success, London, Phila­ delphia, 2008. Hill, Hermann: Die Veränderung juristischer Arbeit durch neue Medien, DRiZ 2012, S. 165–168. Hill, Hermann: Aus Daten Sinn machen: Analyse- und Deutungskompetenzen in der Datenflut, DÖV 2014, S. 213–222. Hill, Hermann: Die Kunst des Entscheidens, Neue Strategien für veränderte Umwel­ ten, DÖV 2017, S. 433–443. Hill, Hermann: Was bedeutet Künstliche Intelligenz (KI) für die Öffentliche Verwal­ tung?, Verwaltung und Management 2018, S. 287–294. Hill, Hermann/Kugelmann, Dieter/Martini, Mario (Hrsg.): Digitalisierung in Recht, Politik und Verwaltung, Baden-Baden, 2018 – zitiert als „Digitalisierung in Recht, Politik und Verwaltung“. Hillenkamp, Thomas: Strafrecht ohne Willensfreiheit? Eine Antwort auf die Hirnfor­ schung, JZ 2005, S. 313–320. Hirsch, Günter: Die Bedeutung des Richterrechts hat zugenommen – Der Richter darf das Gesetz weiter-denken, aber nicht umdenken, ZRP 2004, S. 29–30.

Literaturverzeichnis493 Hirsch, Günter: Zwischenruf: Der Richter wird’s schon richten, ZRP 2006, S. 161. Hirsch, Günter: „Vom Vorurteil zum Urteil“ – Kein Richter geht „jungfräulich“ an die Entscheidung eines Falls, Gespräch zwischen Rudolf Gerhardt und Günter Hirsch, ZRP 2009, S. 61–62. Hock, Martin: „Unser Hirn kann nicht mit Geld umgehen“, FAZ vom 11.1.2017, S. 25. Hoeren, Thomas: Medienöffentlichkeit im Gericht – die Änderungen des GVG, NJW 2017, S. 3339–3341. Hoeren, Thomas/Niehoff, Maurice: KI und Datenschutz – Begründungserfordernisse automatisierter Entscheidungen, RW 2018, S. 47–66. Hof, Hagen/Götz von Olenhusen, Peter (Hrsg.): Rechtsgestaltung – Rechtskritik – Konkurrenz von Rechtsordnungen …, Neue Akzente für die Juristenausbildung, Baden-Baden, 2012. Hoffmann-Riem, Wolfgang: Justizdienstleistungen im kooperativen Staat, JZ 1999, S. 421–430. Hoffmann-Riem, Wolfgang: Modernisierung von Recht und Justiz, Eine Herausforde­ rung des Gewährleistungsstaates, Frankfurt am Main, 2001. Hoffmann-Riem, Wolfgang: Innovation und Recht – Recht und Innovation, Recht im Ensemble seiner Kontexte, Tübingen, 2016 – zitiert als „Innovation und Recht“. Hoffmann-Riem, Wolfgang: Verhaltenssteuerung durch Algorithmen – Eine Heraus­ forderung für das Recht, AöR 2017, S. 1–42. Hofstetter, Yvonne: Sie wissen alles, Wie intelligente Maschinen in unser Leben ein­ dringen und warum wir für unsere Freiheit kämpfen müssen, München, 2014. Holzwarth, Stephanie/Lambrecht, Ulrich/Schalk, Sebastian/Späth, Annette/Zech, Eva (Hrsg.): Die Unabhängigkeit des Richters, Richterliche Entscheidungsfindung in den Blick genommen, Tübingen, 2009. Hommerich, Christoph/Kilian, Matthias: Mandanten und ihre Anwälte, Ergebnisse einer Bevölkerungsumfrage zur Inanspruchnahme und Bewertung von Rechts­ dienstleistungen, Bonn, 2007. Hönnige, Christoph: The Electoral Connection: How the Pivotal Judge Affects Oppo­ sitional Success at European Constitutional Courts, West European Politics 32 (2009), S. 963–984. Höpfner, Clemens: Gesetzesbindung und verfassungskonforme Auslegung im Ar­ beits- und Verfassungsrecht, RdA 2018, S. 321–337. Horn, Christoph/Scarano, Nico (Hrsg.): Philosophie der Gerechtigkeit, Texte von der Antike bis zur Gegenwart, Frankfurt am Main, 2013. Hörnle, Tatjana: Tatproportionale Strafzumessung, Berlin, 1999. Hörnle, Tatjana: Vorüberlegungen zu Decision-Support-Systemen aus der Sicht des Strafzumessungsechts, in: Schünemann, Bernd/Tinnefeld, Marie-Theres/Wittmann, Roland (Hrsg.), Gerechtigkeitswissenschaft – Kolloquium aus Anlass des 70. Ge­ burtstages von Lothar Philipps, Berlin, 2005, S. 393–410 – zitiert als „Vorüberle­ gungen zu DSS in der Strafzumessung“.

494 Literaturverzeichnis Houy, Constantin/Niesen, Tim/Calvillo, Jesús/Fettke, Peter/Loos, Peter/Krämer, Anni­ ka/Schmidt, Klaas/Herbeger, Maximilian/Speiser, Iris/Gass, Alfred/Schneider, Luc/Philippi, Tim: Konzeption und Implementierung eines Werkzeuges zur auto­ matisierten Identifikation und Analyse von Argumentationsstrukturen anhand der Entscheidungen des Bundesverfassungsgerichts im Digital-Humanities-Projekt ARGUMENTUM, Datenbank-Spektrum 15 (2015), S. 15–23. Hoven, Elisa: Die öffentliche Wahrnehmung von Strafzumessungsentscheidungen – Anlass für Reformen?, KriPoZ 2018, S. 276–290. Hoven, Elisa: Werden Männer strenger bestraft als Frauen? – Ein Experiment zur „Ritterlichkeitsthese“, in: Barton, Stephan/Eschelbach, Ralf/Hettinger, Michael u. a. (Hrsg.), Festschrift für Thomas Fischer, München, 2018, S. 885–900. Human Rights Watch: Nation Behind Bars, A Human Rights Solution, New York, NY, 2014. Hume, David: A Treatise of Human Nature, Vol. II, London, 1740. Huttner, Michael/Teubner, Gunther: Der Gesellschaft fette Beute, Homo juridicus und homo oeconomicus als kommunikationserhaltende Fiktionen, in: Fuchs, P ­ eter/ Göbel, Andreas (Hrsg.), Der Mensch – das Medium der Gesellschaft?, Bd. 1177, Frankfurt am Main, 1994, S. 110–145. Institut für Wirtschaftsrecht der Universität Kassel (Hrsg.): 60 Jahre Grundgesetz, Vortragsreihe, Kassel. – zitiert als „60 Jahre GG“. Isay, Hermann: Rechtsnorm und Entscheidung, Aalen, 1970 (Jahr der Erstveröffent­ lichung: 1929). Isensee, Josef: Vom Stil der Verfassung, Eine typologische Studie zu Sprache, The­ matik und Sinn des Verfassungsgesetzes, Wiesbaden, 1999. Isensee, Josef/Kirchhof, Paul (Hrsg.): Handbuch des Staatsrechts der Bundesrepublik Deutschland, Band V: Rechtsquellen, Organisation, Finanzen, 3. Aufl., Heidel­ berg, 2007 – zitiert als „HStR V“. Isensee, Josef/Lecheler, Helmut (Hrsg.): Freiheit und Eigentum, Festschrift für Walter Leisner zum 70. Geburtstag, Berlin, 1999. Islam, Mohammad/Governatori, Giudo: RuleRS: a rule-based architecture for deci­ sion support systems, Artificial Intelligence and Law 26 (2018), S. 315–344. Jabloner, Clemens: Der Rechtsbegriff bei Hans Kelsen, in: Griller, Stefan/Rill, Heinz Peter (Hrsg.), Rechtstheorie: Rechtsbegriff – Dynamik – Auslegung, Bd. 136, Wien, 2011, S. 21–39. Jachimowicz, Jon/Duncan, Shannon/Weber, Elke/Johnson, Eric: When and why de­ faults influence decisions: a meta-analysis of default effects, Behavioural Public Policy 87 (2019), S. 1–28. James, Nathan: Risk and Needs Assessment in the Criminal Justice System, 13.10.2015. Jandach, Thomas: Juristische Expertensysteme, Methodische Grundlagen ihrer Ent­ wicklung, Berlin, 1993.

Literaturverzeichnis495 Janisch, Wolfgang: Ohne jeden Zweifel, Süddeutsche Zeitung (Online) vom 17.5. 2015. Janson, Gunnar: Ökonomische Theorie im Recht, Anwendbarkeit und Erkenntniswert im allgemeinen und am Beispiel des Arbeitsrechts, Berlin, 2004. Janßen, Paola: Bayessche Netze in der Rechtsprechung, Der Strafprozess gegen Jörg Kachelmann als statistisches Entscheidungsproblem, Wiesbaden, 2017. Jarass, Hans: GRCh, 3. Aufl., München, 2016. Jarass, Hans/Pieroth, Bodo (Hrsg.): Grundgesetz für die Bundesrepublik Deutsch­ land, Kommentar, 15. Aufl., München, 2018. Jaume-Palasí, Lorena: Warum Sie keine Angst vor Künstlicher Intelligenz haben sollten, Neue Technologien erfordern neue Regeln. Wie gehen wir mit Robotern um?, Berlin, 27.4.2018. Jaume-Palasí, Lorena/Spielkamp, Matthias: Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung, AlgorithmWatch Arbeitspapier Nr. 4, Berlin, 2017. Jehle, Jörg-Martin/Albrecht, Hans-Jörg/Hohmann-Fricke, Sabine/Tetal, Carina: Legal­ bewährung nach strafrechtlichen Sanktionen, Eine bundesweite Rückfallunter­ suchung 2010 bis 2013 und 2004 bis 2013, Berlin, 2016. Jestaedt, Matthias: Demokratieprinzip und Kondominialverwaltung, Entscheidungs­ teilhabe Privater an der öffentlichen Verwaltung auf dem Prüfstand des Verfas­ sungsprinzips Demokratie, Berlin, 1993. Joecks, Wolfgang/Miebach, Klaus (Hrsg.): Münchener Kommentar zum Strafgesetz­ buch, 3. Aufl. Bd. 2, München, 2016. Johnson, Eric/Tversky, Amos: Affect, Generalization, and the Perception of Risk, Journal of Personality and Social Psychology 45 (1983), S. 20–31. Jolls, Christine/Sunstein, Cass: Debiasing through Law, The Journal of Legal Studies 35 (2006), S. 199–242. Jonas, Eva/Schulz-Hardt, Stefan/Frey, Dieter/Thelen, Norman: Confirmation Bias in Sequential Information Search After Preliminary Decisions: An Expansion of Dis­ sonance Theoretical Research on Selective Exposure to Information, Journal of Personality and Social Psychology 80 (2001), S. 557–571. Jost, David/Kempe, Johann: E-Justice in Deutschland, Eine Bestandsaufnahme zur Digitalisierung der Justiz, NJW 2017, S. 2705–2708. Jung, Jongbin/Concannon, Connor/Shroff, Ravi/Goel, Sharad/Goldstein, Daniel: Sim­ ple Rules for Complex Decisions, https://arxiv.org/abs/1702.04690, 2017. Jung, Jongbin/Concannon, Connor/Shroff, Ravi/Goel, Sharad/Goldstein, Daniel: Creating Simple Rules for Complex Decisions, Harvard Business Review (Online) vom 19.4.2017. Justizministerkonferenz 2019: Legal Tech: Herausforderungen für die Justiz, Ab­ schlussbericht der Länderarbeitsgruppe, Travemünde, 1.7.2019.

496 Literaturverzeichnis Kahl, Wolfgang/Waldhoff, Christian/Walter, Christian (Hrsg.): Bonner Kommentar zum Grundgesetz, Losebl. (Stand: Mai 2019), Heidelberg, 2019. Kahneman, Daniel: Schnelles Denken, langsames Denken, München, 2012. Kahneman, Daniel/Slovic, Paul/Tversky, Amos (Hrsg.): Judgment under uncertainty: Heuristics and biases, Cambridge, 1982. Kahneman, Daniel/Tversky, Amos: Choices, Values, and Frames, American Psycholo­ gist 39 (1984), S. 341–350. Kallmeyer, Christoph: Ideales Sollen, Eine Analyse der Prinzipienkonstruktion, 2016. Kamarinou, Dimitra/Millard, Christopher/Singh, Jatinder: Machine Learning with Personal Data, Legal Studies Research Paper 247/2016, 2016. Kamin, Kim/Rachlinski, Jeffrey: Ex Post ≠ Ex Ante, Determining Liability in Hind­ sight, Law and Human Behavior 19 (1995), S. 89–104. Kant, Immanuel: Kritik der reinen Vernunft, 3. Aufl., Hamburg, 1990. Kaplan, Jerry: Artificial intelligence, What everyone needs to know, New York, NY, 2016. Kaplan, Jerry: Künstliche Intelligenz, Eine Einführung, Frechen, 2017. Karimi, Hamid: Interpretable Multimodal Deception Detection in Videos, in: D’Mello, Sidney/Georgiou, Panayiotis/Scherer, Stefan (Hrsg.), Proceedings of the 20th ACM International Conference on Multimodal Interaction: October 16–20, 2018, Boulder, CO, USA, New York, NY, 2018, S. 511–515 – zitiert als „Deception Detection in Videos“. Kaspar, Johannes: Sentencing Guidelines versus freies tatrichterliches Ermessen – Brauchen wir ein neues Strafzumessungsrecht?, Gutachten C zum 72. Deutschen Juristentag, München, 2018 – zitiert als „Gutachten C zum 72. Deutschen Juris­ tentag“. Kaspar, Johannes/Arnemann, Carolin: Die Wiederaufnahme des Strafverfahrens zur Korrektur fehlerhafter Urteile – rechtliche Grundlagen, empirische Erkenntnisse und Reformbedarf, Recht und Psychiatrie 34 (2016), S. 58–64. Kaspar, Johannes/Höffler, Katrin/Harrendorf, Stefan: Datenbanken, Online-Votings und künstliche Intelligenz, Perspektiven evidenzbasierter Strafzumessung im Zeit­ alter von „Legal Tech“, NK Neue Kriminalpolitik 32 (2020), S. 35–56. Katz, Daniel/Bommarito, Michael/Blackman, Josh: A General Approach for Predic­ ting the Behavior of the Supreme Court of the United States, PLOS ONE 12 (2017), e0174698. Katzer, Catarina: Cyberpsychologie, Leben im Netz: Wie das Internet uns ver@ndert, München, 2016. Kaufmann, Stefan: Schlüsselqualifikationen für Juristen – Muss das denn sein?, in: Boorberg Verlag (Hrsg.), Soft Skills im Trend – Kompetenz, Kommunikation und Recht, Der Wirtschaftsführer für junge Juristen 2017, Stuttgart, 2017, S. 15–21. Kaulartz, Markus/Heckmann, Jörn: Smart Contracts – Anwendungen der BlockchainTechnologie, CR 2016, S. 618–624.

Literaturverzeichnis497 Keller, Rainer: Verwissenschaftlichung versus Rationalität der strafprozessualen Be­ weiswürdigung?, GA 1999, S. 255–271. Keller, Rolf: Die Automation des Mahnverfahrens, Schwerpunkte einer Projektent­ wicklung, NJW 1981, S. 1184–1188. Kepplinger, Hans: Die Öffentlichkeit als Richter? Empirische Erkenntnisse zu einer brisanten Frage, in: Boehme-Neßler, Volker (Hrsg.), Die Öffentlichkeit als Rich­ ter?, Litigation-PR als neue Methode der Rechtsfindung, Baden-Baden, 2010, S. 154–170 – zitiert als „Die Öffentlichkeit als Richter? Empirische Erkenntnis­ se“. Kepplinger, Hans: Der indirekte Einfluss der Medien auf Richter und Staatsanwälte, in: Rademacher, Lars/Schmitt-Geiger, Alexander (Hrsg.), Litigation-PR: Alles was Recht ist, Zum systematischen Stand der strategischen Rechtskommunikation, Wiesbaden, 2012, S. 219–242. Kepplinger, Hans/Wohlrabe, Martin: Richter sind auch nur Menschen, Der Einfluss von Medien auf Gerichtsverfahren, Berlin, 2018. Kepplinger, Hans/Zerback, Thomas: Der Einfluss der Medien auf Richter und Staats­ anwälte, Art, Ausmaß und Entstehung reziproker Effekte, Publizistik 54 (2009), S. 216–239. Kerkmann, Christof/Steger, Johannes: SAP zieht Grenzen für das virtuelle Gehirn, Handelsblatt Online vom 18.1.2018. Kern, Eduard: Geschichte des Gerichtsverfassungsrechts, München, 1954. Kersten, Jens: Menschen und Maschinen, Rechtliche Konturen instrumenteller, sym­ biotischer und autonomer Konstellationen, JZ 2015, S. 1–8. Keßler, Oliver: Intelligente Roboter – neue Technologien im Einsatz, Voraussetzun­ gen und Rechtsfolgen des Handelns informationstechnischer Systeme, MMR 2017, S. 589–594. Kilbertus, Niki/Rojas-Carulla, Mateo/Parascandolo, Giambattista/Hardt, Moritz/Janzing, Dominik/Schölkopf, Bernhard: Avoiding Discrimination through Causal Re­ asoning, in: Guyon, Isabelle/Luxburg, Ulrike von/Bengio, Samy u. a. (Hrsg.), Neural Information Processing Systems 30 (2017), Bd. 30, Cambridge, Massachu­ setts, S. 656–666. Kilian, Matthias: Die Zukunft der Juristen, Weniger, anders, weiblicher, spezialisier­ ter, alternativer – und entbehrlicher?, NJW 2017, S. 3043–3050. Kilian, Wolfgang: Juristische Entscheidung und elektronische Datenverarbeitung, Me­ thodenorientierte Vorstudie, Frankfurt am Main, 1974. Kilian, Wolfgang: Juristische Expertensysteme mit Entscheidungshilfecharakter und die Evolution des Rechts, in: Nickel, Egbert/Roßnagel, Alexander/Schlink, Bern­ hard (Hrsg.), Die Freiheit und die Macht, Wissenschaft im Ernstfall, Festschrift für Adalbert Podlech, Baden-Baden, 1994, S. 201–211 – zitiert als „Juristische Expertensysteme“. Kindhäuser, Urs/Neumann, Ulfrid/Paeffgen, Hans-Ullrich (Hrsg.): Strafgesetzbuch, 5. Aufl., Baden-Baden, 2017.

498 Literaturverzeichnis Kirchgässner, Gebhard: Homo Oeconomicus, Das ökonomische Modell individuellen Verhaltens und seine Anwendung in den Wirtschafts- und Sozialwissenschaften, 4. Aufl., Tübingen, 2013. Kirchhoff, Guido: Irren ist menschlich, auch als Richter! Kognitive Täuschungen bei der Rechtsfindung – eine kurze Zusammenfassung, Betrifft Justiz 2015, S. 185– 189. Kirchner, Lauren: Wisconsin Court: Warning Labels Are Needed for Scores Rating Defendants’ Risk of Future Crime, 14.7.2016. Kirn, Stefan/Müller-Hengstenberg, Claus: Intelligente (Software-)Agenten: Von der Automatisierung zur Autonomie?, Verselbstständigung technischer Systeme, MMR 2014, S. 225–232. Kirschfeld, Kuno: Wer denkt, der Mensch oder sein Gehirn?, Biologie in unserer Zeit 43 (2013), S. 292–299. Kischel, Uwe: Die Begründung, Zur Erläuterung staatlicher Entscheidungen gegen­ über dem Bürger, Tübingen, 2003. Kissel, Otto: Die Justiz im Dienst des Menschen, Die Ethik des Richters, DRiZ 1991, S. 269–274. Klafki, Anika/Würkert, Felix/Winter, Tina (Hrsg.): Digitalisierung und Recht, Tagung des Vereins Junge Wissenschaft im öffentlichen Recht an der Bucerius Law School am 26. November 2016, Hamburg, 2017 – zitiert als „Digitalisierung und Recht“. Klein, David/Mitchell, Gregory (Hrsg.): The Psychology of Judicial Decision Making, New York, 2010. Kleinberg, Jon/Lakkaraju, Himabindu/Leskovec, Jure/Ludwig, Jens/Mullainathan, Sendhil: Human Decisions and Machine Predictions, NBER Working Paper No. 23180, The Quarterly Journal of Economics 133 (2018), S. 237–293. Kloepfer, Michael: Verfassungsrecht Band II, Grundrechte, München, 2010 – zitiert als „Verfassungsrecht II“. Klöhn, Lars: Der Beitrag der Verhaltensökonomik zum Kapitalmarktrecht, in: Flei­ scher, Holger/Zimmer, Daniel (Hrsg.), Beitrag der Verhaltensökonomie (Behavio­ ral Economics) zum Handels- und Wirtschaftsrecht, Bd. 75, Frankfurt am Main, 2011, S. 83. Klöhn, Lars/Stephan, Ekkehard: Psychologische Aspekte der Urteilsbildung bei juris­ tischen Experten, in: Holzwarth, Stephanie/Lambrecht, Ulrich/Schalk, Sebastian u. a. (Hrsg.), Die Unabhängigkeit des Richters, Richterliche Entscheidungsfindung in den Blick genommen, Tübingen, 2009, S. 65–94. Klug, Ulrich: Juristische Logik, Berlin, Heidelberg, 1982. Kluwer Law and Taxation Publishers (Hrsg.): Amongst Friends in Computers and Law, Deventer, Boston, 1990 – zitiert als „Computers and Law“. Knauer, Christoph (Hrsg.): Münchener Kommentar zur Strafprozessordnung, Band 3/2, München, 2018. Knauer, Florian: Juristische Methodenlehre 2.0?, Rechtstheorie 40 (2009), S. 379– 403.

Literaturverzeichnis499 Köberer, Wolfgang: Iudex non calculat, Über die Unmöglichkeit, Strafzumessung sozialwissenschaftlich-mathematisch zu rationalisieren, Frankfurt am Main, 1996. Köchy, Kristian/Stederoth, Dirk (Hrsg.): Willensfreiheit als interdisziplinäres Prob­ lem, Freiburg, 2006. Koehler, Derek/Harvey, Nigel/Koehler, Derek J. (Hrsg.): Blackwell Handbook of Judgment and Decision Making, Malden, MA, USA, 2004. Köhl, Stefanie/Lenk, Klaus/Löbel, Stephan/Schuppan, Tino/Viehstädt, Anna-Kathari­ na: Stein-Hardenberg 2.0, Architektur einer vernetzten Verwaltung mit E-Govern­ ment, Berlin, 2014. Köhler, Tanja: Straffällige Frauen, Eine Untersuchung der Strafzumessung und Rück­ fälligkeit, Köhnken, Günter: Fehlerquellen in aussagepsychologischen Gutachten, in: Deckers, Rüdiger/Köhnken, Günter (Hrsg.), Die Erhebung und Bewertung von Zeugenaus­ sagen im Strafprozess, Juristische, aussagepsychologische und psychiatrische As­ pekte, 2. Aufl., Berlin, 2014, S. 1–41. Kolain, Michael: Wieso Smart Contracts die Erwartungen enttäuschen müssen, g ­ olem. de vom 7.9.2016. Kopp, Ferdinand O./Ramsauer, Ulrich (Hrsg.): VwVfG, Kommentar, 19. Aufl., Mün­ chen, 2018. Koppenhöfer, Brigitte: Als Richterin im Zentrum des Mediensturms. Justiz und ­Medien, dargestellt am Beispiel des sog. Mannesmann-Verfahrens, in: BoehmeNeßler, Volker (Hrsg.), Die Öffentlichkeit als Richter?, Litigation-PR als neue Methode der Rechtsfindung, Baden-Baden, 2010, S. 60–63 – zitiert als „Als Rich­ terin im Zentrum des Mediensturms“. Körner, Anne/Leitherer, Stephan/Mutschler, Bernd (Hrsg.): Kasseler Kommentar ­Sozialversicherungsrecht, München, 2017. Korte, Karl-Rudolph (Hrsg.): Emotionen und Politik, Begründungen, Konzeptionen und Praxisfelder einer politikwissenschaftlichen Emotionsforschung, BadenBaden, 2015. Kosinski, Michal/Wang, Yilun: Deep Neural Networks Are More Accurate Than ­Humans at Detecting Sexual Orientation From Facial Images, Journal of Personal­ ity and Social Psychology 114 (2017), S. 246–257. Kosko, Bart: Fuzzy-logisch, Eine neue Art des Denkens, Düsseldorf, 1995. Kotsoglou, Kyriakos: Subsumtionsautomat 2.0, Über die (Un-)Möglichkeit einer ­Algorithmisierung der Rechtserzeugung, JZ 2014, S. 451–457. Kotsoglou, Kyriakos: „Subsumtionsautomat 2.0“ reloaded? – Zur Unmöglichkeit der Rechtsprüfung durch Laien, Schlusswort – Zu Martin Engel JZ 2014, 1096, JZ 2014, S. 1100–1103. Kotsoglou, Kyriakos: Das Fehlurteil gibt es nicht, Zur Aufgabe des Tatrichters, JZ 2017, S. 123–132. Kowalski, Christian: Lösungsansätze für juristische Expertensysteme, Warum kann und soll es juristische Expertensysteme geben?, Tübingen, 1987.

500 Literaturverzeichnis Kramer, Barbara: Modernisierung der Justiz: Das Neue Steuerungsmodell, NJW 2001, S. 3449–3453. Kramer, Sarah: An Algorithm Is Replacing Bail Hearings in New Jersey, Mother­ board.vice.com vom 23.2.2017. Krawietz, Werner/Morlok, Martin (Hrsg.): Vom Scheitern und der Wiederbelebung juristischer Methodik im Rechtsalltag – ein Bruch zwischen Theorie und Praxis?, Sonderheft der Zeitschrift Rechtstheorie 32 (2001), Berlin, 2001. Kray, Laura/Galinsky, Adam: The debiasing effect of counterfactual mind-sets: Incre­ asing the search for disconfirmatory information in group decisions, Organizatio­ nal Behavior and Human Decision Processes 91 (2003), S. 69–81. Kreth, Elisabeth: Die richterliche Unabhängigkeit: Wahrung einer sich nicht selbst erfüllenden Aufgabe, DRiZ 2009, S. 198–201. Kreuzbauer, Hanna: Juristische Rationalität, Jusletter IT 23.2.2017, S. 1–8. Krimphove, Dieter: Der Einsatz von Fuzzy-Logik in der Rechtswissenschaft, Rechts­ theorie 30 (1999), S. 540–576. Krishnamurthy, Gangeshwar/Majumder, Navonil/Poria, Soujanya/Cambria, Erik: A Deep Learning Approach for Multimodal Deception Detection, arXiv:1803. 00344, 2018. Krix, Barbara: Richterliche Ethik – weltweit ein Thema, DRiZ 2003, S. 149–152. Kröber, Hans-Ludwig: Automatisierte oder handgefertigte Kriminalprognose?, in: Barton, Stephan/Eschelbach, Ralf/Hettinger, Michael u. a. (Hrsg.), Festschrift für Thomas Fischer, München, 2018, S. 901–914. Krüger, Jochen: Der Richtervorbehalt als Königsweg für den Schutz von Grundrech­ ten?, DRiZ 2004, S. 247–250. Krüger, Jochen/Möllers, Frederik: Metadaten in Justiz und Verwaltung, Neue juristi­ sche Problemkategorie im Rahmen der elektronischen Aktenführung?, MMR 2016, S. 728–731. Krüger, Jochen/Möllers, Frederik/Vogelgesang, Stephanie: Richterliche Unabhängig­ keit und Bring Your Own Device (BYOD) – Weg in die Zukunft oder unvertret­ bares Sicherheitsrisiko?, in: Schweighofer, Erich/Kummer, Franz/Hötzendorfer, Walter u. a. (Hrsg.), Trends und Communities der Rechtsinformatik, Tagungsband des 20. Internationalen Rechtsinformatik Symposiums IRIS 2017, Bd. 326, Wien, 2017, S. 295–302 – zitiert als „Richterliche Unabhängigkeit und Bring Your Own Device“. Krüger, Wolfgang/Rauscher, Thomas (Hrsg.): Münchener Kommentar zur Zivilpro­ zessordnung, 5. Aufl. Bd. 1, München, 2016. Krüger, Wolfgang/Rauscher, Thomas (Hrsg.): Münchener Kommentar zur Zivilpro­ zessordnung, 5. Aufl. Bd. 3, München, 2017. Krumm, Carsten: OWi-Basiswissen: Standardisiertes Messverfahren, 19.1.2010. Krummenacher, Josef/Müller, Herrmann: Kapitel „Aufmerksamkeit“, in: Müsseler, Jochen/Rieger, Martina (Hrsg.), Allgemeine Psychologie, 3. Aufl., Berlin, Heidel­ berg, 2017, S. 104–152.

Literaturverzeichnis501 Krüper, Julian (Hrsg.): Grundlagen des Rechts, 2. Aufl., Baden-Baden, 2013. Krüper, Julian (Hrsg.): Grundlagen des Rechts, 3. Aufl., Baden-Baden, 2017. Kudlich, Hans (Hrsg.): Münchener Kommentar zur Strafprozessordnung Bd. 1, Mün­ chen, 2014. Kühling, Jürgen/Buchner, Benedikt (Hrsg.): Datenschutz-Grundverordnung/BDSG, 2. Aufl., München, 2018. Kühling, Jürgen/Martini, Mario/Heberlein, Johanna/Kühl, Benjamin/Nink, David/ Weinziel, Quirin/Wenzel, Michael: Die Datenschutz-Grundverordnung und das na­ tionale Recht, Erste Überlegungen zum innerstaatlichen Regelungsbedarf, Müns­ ter, 2016. Kühne, Hans-Heiner: Strafprozessrecht, Eine systematische Darstellung des deutschen und europäischen Strafverfahrensrechts, 9. Aufl., Heidelberg, 2015. Kunig, Philip: Das Rechtsstaatsprinzip, Überlegungen zu seiner Bedeutung für das Verfassungsrecht der Bundesrepublik Deutschland, Tübingen, 1986. van Kuppevelt, Dafne/van Dijck, Gijs: Answering Legal Research Questions About Dutch Case Law with Network Analysis and Visualization, in: Wyner, Adam/Ca­ sini, Giovanni (Hrsg.), Legal Knowledge and Information Systems, Bd. 302, Ams­ terdam, 2017, S. 95–100. Kurer, Peter: Der Jurist im digitalen Holozän, Neue Zürcher Zeitung vom 19.4.2016, S. 36. Lackes, Richard/Siepermann, Markus: Stichwort: Decision Support System (DSS), in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, Wiesbaden, 2018. Ladeur, Karl-Heinz: Rechtstheoretische Probleme der Entwicklung juristischer Ex­ pertensysteme, Rechtliche Rationalitätsmodelle und ihre Simulation durch künst­ liche Intelligenz (Teil 1), JurPC 1988, S. 379–385. Ladeur, Karl-Heinz: Rechtstheoretische Probleme der Entwicklung juristischer Ex­ pertensysteme, Rechtliche Rationalitätsmodelle und ihre Simulation durch künst­ liche Intelligenz (Teil 2), JurPC 1988, S. 417–421. Lakkaraju, Himabindu/Kleinberg, Jon/Leskovec, Jure/Ludwig, Jens/Mullainathan, Sendhil: The Selective Labels Problem: Evaluating Algorithmic Predictions in the Presence of Unobservables, in: Matwin, Stan/Yu, Shipeng/Farooq, Faisal (Hrsg.), Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, August 13–17, 2017, Halifax, NS, Canada, New York, NY, 2017, S. 275–284 – zitiert als „The Selective Labels Problem“. Lampe, Ernst-Joachim/Pauen, Michael/Roth, Gerhard (Hrsg.): Willensfreiheit und rechtliche Ordnung, Frankfurt am Main, 2008. Lamprecht, Rolf: Die Lebenslüge der Juristen, Warum Recht nicht gerecht ist, 2. Aufl., München, 2008. Landau, Herbert: Die jüngere Rechtsprechung des Bundesverfassungsgerichts zu Strafrecht und Strafverfahrensrecht, NStZ 2015, S. 665–671.

502 Literaturverzeichnis Lando, Henrik: A Derivation of Probabilities of Correct and Wrongful Conviction in a Criminal Trial, Review of Law & Economics 2 (2006), S. 371–379. Landweer, Hilge/Koppelberg, Dirk: Der verkannte Zusammenhang von Recht und Emotion, in: Landweer, Hilge/Koppelberg, Dirk (Hrsg.), Recht und Emotion I, Verkannte Zusammenhänge, Bd. 26, Freiburg, München, 2016, S. 13–47. Landweer, Hilge/Koppelberg, Dirk (Hrsg.): Recht und Emotion I, Verkannte Zusam­ menhänge, Freiburg, München, 2016 – zitiert als „Recht & Emotion I“. Larenz, Karl: Methodenlehre der Rechtswissenschaft, 6. Aufl., Berlin, Heidelberg, 1991. Larrick, Richard: Debiasing, in: Koehler, Derek/Harvey, Nigel/Koehler, Derek J. (Hrsg.), Blackwell Handbook of Judgment and Decision Making, Malden, MA, USA, 2004, S. 316–338. Larson, Jeff/Mattu, Surya/Kirchner, Lauren/Angwin, Julia: How We Analyzed the COMPAS Recidivism Algorithm, ProPublica vom 23.5.2016, https://www.propub lica.org/article/how-we-analyzed-the-compas-recidivism-algorithm (10.6.2020). Laue, Philip: Vorgangsbearbeitungssysteme in der öffentlichen Verwaltung, Recht­ liche Rahmenbedingungen und Gestaltungsanforderungen, Kassel, 2010 – zitiert als „Vorgangsbearbeitungssysteme der Verwaltung“. Laux, Helmut/Gillenkirch, Robert/Schenk-Mathes, Heike: Entscheidungstheorie, 9. Aufl., Berlin, 2014. Lawrence, E. J./Shaw, Peter/Baker, Dewleen/Baron-Cohen, Simon/David, Anthony: Measuring empathy, Reliability and validity of the Empathy Quotient, Psycholo­ gical Medicine 34 (2004), S. 911–924. Lazaratos, Panagiotis: Rechtliche Auswirkungen der Verwaltungsautomation auf das Verwaltungsverfahren, Berlin, 1990. Lee, Felix: Die AAA-Bürger, ZEIT Online vom 30.11.2017. Leibold, Tanja: Steuersünder unter Druck – Strafbefreiende Selbstanzeige wurde ver­ schärft – Spielräume bei der Strafzumessung werden enger, NZWiSt 2015, S. 74– 80. Leipold, Dieter (Hrsg.): Rechtsfragen des Internet und der Informationsgesellschaft, Heidelberg, 2002. Leisner-Egensperger, Anna: Kontinuität als Verfassungsprinzip, Unter besonderer Berücksichtigung des Steuerrechts, Tübingen, 2002. Lenk, Klaus: Die neuen Instrumente der weltweiten digitalen Governance, Verwaltung und Management 22 (2016), S. 227–240. Lerch, Kent (Hrsg.): Die Sprache des Rechts, Recht verhandeln – Argumentieren, Begründen und Entscheiden im Diskurs des Rechts, Berlin, 2005 – zitiert als „Die Sprache des Rechts Bd. 2“. Lessig, Lawrence: Code And Other Laws of Cyberspace, Version 2.0, 2. Aufl., New York, NY, 2006. Leuenberger, Stefan/Schafer, Burkhard: The Whole Truth about the Law: Reasoning about Exceptions in Legal AI, in: Schweighofer, Erich/Kummer, Franz/Hötzendor­

Literaturverzeichnis503 fer, Walter u. a. (Hrsg.), Trends und Communities der Rechtsinformatik, Tagungs­ band des 20. Internationalen Rechtsinformatik Symposiums IRIS 2017, Bd. 326, Wien, 2017, S. 131–138 – zitiert als „Reasoning about Exceptions in Legal AI“. Levinson-Waldman, Rachel: IBM’s Terrorist-Hunting Software Raises Troubling Questions, 3.2.2016. Libet, Benjamin: Mind time, Wie das Gehirn Bewusstsein produziert, Frankfurt am Main, 2005. Lichtenstein, Falk/Ruckteschler, Dorothee: Chinas erstes Digitalgericht, Legal Tribu­ ne Online vom 29.9.2017. Lienhard, Andreas/Kettiger, Daniel: Die Selbstverwaltung der Gerichte, Erkenntnisse der Auslegung von § 112 Abs. 2 der Verfassung des Kantons Basel-Stadt, Justi­ ce – Justiz – Giustizia 2013, S. 1–49. Lindemann, Michael: Recht und Neurowissenschaften, in: Krüper, Julian (Hrsg.), Grundlagen des Rechts, 3. Aufl., Baden-Baden, 2017, S. 261–275. Lischka, Konrad/Klingel, Anita: Wenn Maschinen Menschen bewerten, Internationale Fallbeispiele für Prozesse algorithmischer Entscheidungsfindung, Gütersloh, Mai 2017. Lobe, Adrian: Der Algorithmus schlägt die letzte Stunde, FAZ Online vom 8.1.2017. Loewenstein, George/Weber, Elke/Hsee, Christopher/Welch, Ned: Risk as Feelings, Psychological Bulletin 127 (2001), S. 267–286. Lohse, Eva: Rechtsanwendungsgleichheit in Mehrebenensystemen, DVBl 2018, S. 1120–1128. Lomas, Natasha: Accenture wants to beat unfair AI with a professional toolkit, Tech­ Crunch vom 9.6.2018. Loock, Moritz/Hinnen, Gieri: Heuristics in Organizations, A Review and a Research Agenda, Journal of Business Research 68 (2015), S. 2027–2036. Lord, Charles/Ross, Lee/Lepper, Mark: Biased Assimilation and Attitude Polarization: The Effects of Prior Theories on Subsequently Considered Evidence, Journal of Personality and Social Psychology 37 (1979), S. 2098–2109. Lorenz, Pia: Wenn Legal-Tech-Start-Up auf Gerichtswirklichkeit trifft, Legal Tribune Online vom 5.12.2018. Lowe, Jordan/Reckers, Philip: The Effects of Hindsight Bias on Jurors’ Evaluations of Auditor Decisions, Decision Sciences 25 (1994), S. 401–426. Löwisch, Manfred/Rieble, Volker: Tarifvertragsgesetz, Kommentar, 4. Aufl., Mün­ chen, 2017. Lucke, Jörn von (Hrsg.): Smart Government, Intelligent vernetztes Regierungs- und Verwaltungshandeln in Zeiten des Internets der Dinge und des Internets der Dienste, Berlin, 2016. Lucke, Jörn von: Smart Government auf einem schmalen Grat, in: Mohabbat Kar, Resa/Thapa, Basanta/Parycek, Peter u. a. (Hrsg.), (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Berlin, 2018, S. 97–125 – zitiert als „Smart Government“.

504 Literaturverzeichnis Lüdtke, Andreas: Wege aus der Ironie in Richtung ernsthafter Automatisierung, in: Botthof, Alfons/Hartmann, Ernst (Hrsg.), Zukunft der Arbeit in Industrie 4.0, Bd. 15, Berlin, Heidelberg, 2015, S. 125–146. Ludwig-Mayerhofer, Wolfgang/Niemann, Heike: Gleiches (Straf-)Recht für alle?, Neue Ergebnisse zur Ungleichbehandlung ausländischer Jugendlicher im Straf­ recht der Bundesrepublik, Zeitschrift für Soziologie 26 (1997), S. 35–52. Luhmann, Niklas: Die Wirtschaft der Gesellschaft, 2. Aufl., Frankfurt/M., 1989. Luhmann, Niklas: Recht und Automation in der öffentlichen Verwaltung, Eine ver­ waltungswissenschaftliche Untersuchung, 2. Aufl., Berlin, 1997. Luhmann, Niklas: Legitimation durch Verfahren, 10. Aufl., Berlin, 2013. Luik, Steffen: Bemerkungen zur richterlichen Ethik aus der Perspektive des Grundge­ setzes und des Deutschen Richtergesetzes, Schleswig-Holsteinische Anzeigen 2009, S. 97–103. Luik, Steffen: Der Richtereid des Deutschen Richtergesetzes – eine kleine Richtere­ thik für uns alle, Mitteilungsblatt des Schleswig-Holsteinischen Richterverbandes 2012, S. 35–43. Luthe, Ernst-Wilhelm: Der vollständig automatisierte Erlass eines Verwaltungsakts nach § 31a SGB X, SGb 2017, S. 250–258. Lyell, David/Coiera, Enrico: Automation bias and verification complexity: a systema­ tic review, Journal of the American Medical Informatics Association 24 (2017), S. 423–431. Macnish, Kevin: Unblinking Eyes: The Ethics of Automating Surveillance, Ethics and Information Technology 14 (2012), S. 151–167. Mahlmann, Matthias: Ethics, Law and the Challenge of Cognitive Science, German Law Journal 8 (2006), S. 577–615. Mahrenholz, Ernst: Justiz – eine unabhängige Staatsgewalt?, Festvortrag beim Deut­ schen Richtertag, DRiZ 1991, S. 432–437. Mainzer, Klaus: Künstliche Intelligenz, Wann übernehmen die Maschinen?, Berlin, Heidelberg, 2016. Malgieri, Gianclaudio/Comandé, Giovanni: Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, International Data Privacy Law 7 (2017), S. 243–265. Mangoldt, Herrmann von/Klein, Friedrich/Starck, Christian (Hrsg.): Grundgesetz, 7. Aufl., München, 2018. Markoff, John: Armies of Expensive Lawyers, Replaced by Cheaper Software, The New York Times vom 5.3.2011, S. A1. Maroney, Terry: Why Choose? A Response to Rachlinski, Wistrich, & Guthrie’s „Heart Versus Head: Do Judges Follow the Law or Follow Their Feelings?“, Te­ xas Law Review (See Also) 93 (2015), S. 317–330. Martini, Mario: Big Data als Herausforderung für den Persönlichkeitsschutz und das Datenschutzrecht, DVBl 2014, S. 1481–1489.

Literaturverzeichnis505 Martini, Mario: Algorithmen als Herausforderung für die Rechtsordnung, JZ 2017, S. 1017–1025. Martini, Mario: Blackbox Algorithmus, Grundfragen eine Regulierung Künstlicher Intelligenz, Heidelberg, 2019. Martini, Mario/Nink, David: Wenn Maschinen entscheiden … – vollautomatisierte Verwaltungsverfahren und der Persönlichkeitsschutz, NVwZ-Extra 2017, S. 1–14. Martini, Mario/Nink, David: Subsumtionsautomaten ante portas?, Zu den Grenzen der Automatisierung im verwaltungsrechtlichen (Rechtsbehelfs-)Verfahren, DVBl 2018, S. 1128–1138. Martini, Mario/Nink, David: Mit der algorithmischen Kristallkugel auf Tätersuche?, Predictive Policing auf dem Prüfstand des deutschen Rechts, in: Bertelsmann Stif­ tung (Hrsg.), Automatisch erlaubt?, Fünf Anwendungsfälle algorithmischer Syste­ me auf dem juristischen Prüfstand, Berlin, 2020, S. 32–43. Martini, Mario/Nink, David: Strafjustiz ex machina?, Zu den Grenzen algorithmenba­ sierter Assistenzsysteme bei Haftentscheidungen, in: Bertelsmann Stiftung (Hrsg.), Automatisch erlaubt?, Fünf Anwendungsfälle algorithmischer Systeme auf dem juristischen Prüfstand, Berlin, 2020, S. 44–62. Mathis, Klaus: Effizienz statt Gerechtigkeit?, Auf der Suche nach den philosophi­ schen Grundlagen der Ökonomischen Analyse des Rechts, 3. Aufl., Berlin, 2009. Matwin, Stan/Yu, Shipeng/Farooq, Faisal (Hrsg.): Proceedings of the 23rd ACM SIG­ KDD International Conference on Knowledge Discovery and Data Mining, Au­ gust 13–17, 2017, Halifax, NS, Canada, New York, NY, 2017 – zitiert als „Procee­ dings of KDD ’17“. Maunz, Theodor/Dürig, Günter (Begr.): Grundgesetz, Losebl. (Stand: 86. Erg.-Lfg.), München, 2019. Maunz, Theodor/Schmidt-Bleibtreu, Bruno/Klein, Franz/Bethge, Herbert (Hrsg.): Bun­ desverfassungsgerichtsgesetz, Kommentar, Losebl. (Stand: 56. Erg.-Lfg.), Mün­ chen, 2019. Maurach, Reinhart/Schroeder, Friedrich-Christian/Maiwald, Manfred: Strafrecht Be­ sonderer Teil, Teilband 2: Straftaten gegen Gemeinschaftswerte, 10. Aufl., Heidel­ berg, 2005. Maurer, Hartmut/Waldhoff, Christian: Allgemeines Verwaltungsrecht, 19. Aufl., Mün­ chen, 2017. Maurer, Matthias: Komparative Strafzumessung, Ein Beitrag zur Fortentwicklung des Sanktionenrechts, Berlin, 2011. Max-Planck-Institut für Intelligente Systeme: Die Frage ist warum – Algorithmen er­ lernen den Sinn für Gerechtigkeit, Pressemitteilung v. 19.12.2017, Tübingen. May, Nina: Die Kunst wird künstlich, Computer werden kreativ, Märkische Allgemei­ ne Online vom 28.4.2017. Mayer, Emeran: Das zweite Gehirn, Wie der Darm unsere Stimmung, unsere Ent­ scheidungen und unser Wohlbefinden beeinflusst, München, 2016.

506 Literaturverzeichnis Mayer, Herbert: Die Automation des gerichtlichen Mahnverfahrens, NJW 1983, S. 92–95. McCaffery, Edward: Ronald Dworkin, Inside-Out, Review Essay, California Law Re­ view 85 (1997), 1043–1086. McCarty, Thorne (Hrsg.): Proceedings of the Fifth International Conference of Artifi­ cial Intelligence and Law, New York, NY, 1995 – zitiert als „Proceedings of ICAIL ‘95“. McCurrie, Mel/Beletti, Fernando/Parzianello, Lucas/Westendorp, Allen/Anthony, ­Samuel/Scheirer, Walter: Predicting First Impressions with Deep Learning, in: The Institute of Electrical and Electronics Engineers (Hrsg.), Proceedings of the 12th IEEE International Conference on Automatic Face and Gesture Recogni­ tion – FG 2017, Piscataway, NJ, 2017, S. 518–525 – zitiert als „Predicting First Impres­sions“. Meckel, Miriam: Menschen und Maschinen. Wenn Unterschiede unsichtbar werden, APuZ 7 (2012), S. 33–38. Mehde, Veith: Neues Steuerungsmodell und Demokratieprinzip, Berlin, 2000. Meier, Christoph: Zur Diskussion über das Rechtsgefühl, Themenvielfalt, Ergebnis­ trends, neue Forschungsperspektiven, Berlin, 1986. Merkel, Reinhard: Willensfreiheit und rechtliche Schuld, Eine strafrechtsphilosophi­ sche Untersuchung, 2. Aufl., Baden-Baden, 2014. Merkert, Pina: Statistik ist nicht Denken, Wie sich künstliche Intelligenz von mensch­ licher unterscheidet, c‘t 2018, S. 134–141. Meyer, Stephan: Der Einsatz von Robotern zur Gefahrenabwehr, in: Hilgendorf, Eric (Hrsg.), Robotik im Kontext von Recht und Moral, Bd. 3, Baden-Baden, 2014, S. 211–237. Meyer-Goßner, Lutz/Schmitt, Bertram (Hrsg.): Strafprozessordnung, mit GVG und Nebengesetzen, 62. Aufl., München, 2019. Mierke, Jan: Kognitive Prozesse bei der indirekten Messung von Einstellungen mit dem Impliziten Assoziationstest, Freiburg, 2004 – zitiert als „Kognitive Prozesse und der IAT“. Mierke, Jan/Klauer, Karl Christoph: Method-Specific Variance in the Implicit Asso­ ciation Test, Journal of Personality and Social Psychology 85 (2003), S. 1180– 1192. Ministerium der Justiz des Landes Nordrhein-Westfalen: Schriftlicher Bericht zu TOP 8 „Künstliche Intelligenz in der Justiz“ der 26. Sitzung des Rechtsausschusses des Landtags Nordrhein-Westfalen am 5. Dezember 2018, Düsseldorf, Dezember 2018 – zitiert als „Künstliche Intelligenz in der Justiz“. Minoggio, Ingo: Die Unsinnigkeit von Strafzumessungstabellen, Praxis Steuerstraf­ recht 2003, S. 212–217. Moens, Marie-Francine/Spyns, Peter (Hrsg.): Proceedings of the 2005 conference on Legal Knowledge and Information Systems: JURIX 2005, Legal knowledge and information systems, Amsterdam, 2005.

Literaturverzeichnis507 Mohabbat Kar, Resa/Parycek, Peter: Berechnen, ermöglichen, verhindern: Algorith­ men als Ordnungs- und Steuerungsinstrumente in der digitalen Gesellschaft, in: Mohabbat Kar, Resa/Thapa, Basanta/Parycek, Peter u. a. (Hrsg.), (Un)berechen­ bar? Algorithmen und Automatisierung in Staat und Gesellschaft, Berlin, 2018, S. 7–39 – zitiert als „Algorithmen als Ordnungs- und Steuerungsinstrumente“. Mohabbat Kar, Resa/Thapa, Basanta/Parycek, Peter/Fraunhofer-Institut für Offene Kommunikationssysteme (FOKUS)/Kompetenzzentrum Öffentliche IT (ÖFIT) (Hrsg.): (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesell­ schaft, Berlin, 2018 – zitiert als „Algorithmen und Automatisierung“. Moll, Sebastian: Präzise berechneter Rassismus, ZEIT Online vom 6.6.2016. Möllers, Christoph: Nachvollzug ohne Maßstabbildung: richterliche Rechtsfortbil­ dung in der Rechtsprechung des Bundesverfassungsgerichts, Zum Beschluss des BVerfG vom 15.1.2009 – 2 BvR 2044/07, JZ 2009, S. 668–673. Möllers, Thomas: Juristische Methodenlehre, München, 2017 – zitiert als „Methoden­ lehre“. Monahan, John/Skeem, Jennifer: Risk Assessment in Criminal Sentencing, Annual Review of Clinical Psychology 12 (2016), S. 489–513. Morlok, Martin: Die vier Auslegungsmethoden – was sonst?, in: Gabriel, Gottfried/ Gröschner, Rolf (Hrsg.), Subsumtion, Tübingen, 2012, S. 179–214. Mosier, Kathleen/Skitka, Linda/Dunbar, Melisa/McDonnell, Lori: Aircrews and Auto­ mation Bias: The Advantages of Teamwork?, The International Journal of Aviati­ on Psychology 11 (2001), S. 1–14. Mülder, Marje/Drechsler, Stefan/Helmrich, Christian/Streule, Veronika/Weitensteiner, Julia (Hrsg.): Richterliche Abhängigkeit – Rechtsfindung im Öffentlichen Recht, 58. Assistententagung Öffentliches Recht, Baden-Baden, 2018. Mullen, Brian/Atkins, Jennifer/Champion, Debbie/Edwards, Cecelia/Hardy, Dana/ Story, John/Vanderklok, Mary: The false consensus effect: A meta-analysis of 115 hypothesis tests, Journal of Experimental Social Psychology 21 (1985), S. 262– 283. Müller, Eckhart/Schlothauer, Reinhold (Hrsg.): Münchener Anwalts-Handbuch Straf­ verteidigung, 2. Aufl., 2014. Müller, Friedrich/Christensen, Ralph: Juristische Methodik, Band I: Grundlegung für die Arbeitsmethoden der Rechtspraxis, 11. Aufl., Berlin, 2013 – zitiert als „Juris­ tische Methodik I“. Müller, Henning: eJustice – Die Justiz wird digital, JuS 2015, S. 609–613. Müller-Franken, Sebastian: Maßvolles Verwalten, Effiziente Verwaltung im System exekutiver Handlungsmaßstäbe am Beispiel des maßvollen Gesetzesvollzugs im Steuerrecht, Tübingen, 2004. Münch, Ingo von/Kunig, Philip (Hrsg.): Grundgesetz, Kommentar, 6. Aufl., München, 2012. Munte, Oliver: Fuzzylogik und Ausbildungsunterhalt, Rechtstheorie 32 (2001), S. 533–557.

508 Literaturverzeichnis Müsseler, Jochen/Rieger, Martina (Hrsg.): Allgemeine Psychologie, 3. Aufl., Berlin, Heidelberg, 2017. Mussweiler, Thomas: Doing Is for Thinking!, Stereotype Activation by Stereotypic Movement, Psychological Science 17 (2006), S. 17–21. Mussweiler, Thomas/Damisch, Lysann: Going Back to Donald: How Comparisons Shape Judgmental Priming Effects, Journal of Personality and Social Psychology 95 (2008), S. 1295–1315. Mussweiler, Thomas/Strack, Fritz: Numeric Judgments under Uncertainty: The Role of Knowledge in Anchoring, Journal of Experimental Social Psychology 36 (2000), S. 495–518. Mussweiler, Thomas/Strack, Fritz/Pfeiffer, Tim: Overcoming the Inevitable Ancho­ ring Effect, Considering the Opposite Compensates for Selective Accessibility, Personality and Social Psychology Bulletin 26 (2000), S. 1142–1150. Myers, David: Psychologie, 3. Aufl., Berlin, Heidelberg, 2014. Mysegades, Jan: DNA-Auswertung in der Black Box?, Gerichtliche Beweisführung durch statistische Computerprogramme, CR 2018, S. 225–231. Nack, Armin: Modernisierung der Justiz: Klage per E-Mail, in: Däubler-Gmelin, Her­ ta/Mohr, Irina (Hrsg.), Recht schafft Zukunft, Perspektiven der Rechtspolitik in einer globalisierten Welt, Bonn, 2003, S. 94–99. Nauck, Detlef/Klawonn, Frank/Kruse, Rudolf: Neuronale Netze und Fuzzy-Systeme, Grundlagen des Konnektionismus, Neuronaler Fuzzy-Systeme und der Kopplung mit wissensbasierten Methoden, Wiesbaden, 1994. Nesseldreher, Andrea: Entscheiden im Informationszeitalter, Tönning, 2006. Neubacher, Frank/Bögelein, Nicole (Hrsg.): Krise – Kriminalität – Kriminologie, Mönchengladbach, 2016. Neufeld, Adam: In Defense of Risk-Assessment Tools, Kommentar, 22.10.2017. Neuhaus, Ralf: Fehlerquellen im Ermittlungsverfahren aus Sicht der Verteidigung, StV 2015, S. 185–194. Neumann, Ulfrid: Juristische Methodenlehre und Theorie der juristischen Argumenta­ tion, in: Krawietz, Werner/Morlok, Martin (Hrsg.), Vom Scheitern und der Wie­ derbelebung juristischer Methodik im Rechtsalltag – ein Bruch zwischen Theorie und Praxis?, Sonderheft der Zeitschrift Rechtstheorie 32 (2001), Bd. 32, Berlin, 2001, S. 239–255. Neumann, Ulfrid: Wahrheit im Recht, Zu Problematik und Legitimität einer fragwür­ digen Denkform, Baden-Baden, 2004. Neumann, Ulfrid: Subsumtion als regelorientierte Fallentscheidung, in: Gabriel, Gott­ fried/Gröschner, Rolf (Hrsg.), Subsumtion, Tübingen, 2012, S. 311–334. Neupert, Michael: Was macht Rechtsauffassungen vertretbar?, JuS 2016, S. 489–494. Nickel, Egbert/Roßnagel, Alexander/Schlink, Bernhard (Hrsg.): Die Freiheit und die Macht, Wissenschaft im Ernstfall, Baden-Baden, 1994 – zitiert als „Freiheit und Macht“.

Literaturverzeichnis509 Nickerson, Raymond: Confirmation Bias: A Ubiquitous Phenomenon in Many Guises, Review of General Psychology 2 (1998), S. 175–220. Nickolaus, Christoph: Ankereffekte im Strafprozess, Verstoß gegen das Prinzip des fairen Verfahrens?, Baden-Baden, 2019. Niiler, Eric: Can AI Be a Fair Judge in Court? Estonia Thinks So, wired.com vom 25.3.2019. Oehlerking, Jürgen: Private Auslagerung von Funktionen der Justiz und der Gefah­ renabwehr, Vortrag, gehalten am 15.1.2008 im Rahmen des Gesamtthemas „Der Umbau des Rechtsstaats“, Baden-Baden, 2008. Oettinger, Michael: Data Science, Eine praxisorientierte Einführung im Umfeld von Machine Learning, künstlicher Intelligenz und Big Data, Hamburg, 2017. Off, Thomas/Kühn, Hannes/Schuppan, Tino: Semantikbasierte und prozessorientierte E-Gesetzgebung zur Vollzugsoptimierung, in: Rätz, Detlef/Breidung, Michael/ Lück-Schneider, Dagmar u. a. (Hrsg.), Digitale Transformation: Methoden, Kom­ petenzen und Technologien für die Verwaltung, Gemeinsame Fachtagung Verwal­ tungsinformatik (FTVI) und Fachtagung Rechtsinformatik (FTRI) 2016, 22.– 23. September 2016 in Dresden, Bonn, 2016, S. 35–50 – zitiert als „E-Gesetzge­ bung“. Ogorek, Regina: Richterkönig oder Subsumtionsautomat?, Zur Justiztheorie im 19. Jahrhundert, 2. Aufl., Frankfurt am Main, 2008. Ohrtmann, Jan-Peter/Schwiering, Sebastian: Big Data und Datenschutz – Rechtliche Herausforderungen und Lösungsansätze, NJW 2014, S. 2984–2989. O’Neil, Cathy: Angriff der Algorithmen, Wie sie Wahlen manipulieren, Berufschan­ cen zerstören und unsere Gesundheit gefährden, München, 2017. van Oostrom, Samuel/Weth, Stephan (Hrsg.): Festschrift für Maximilian Herberger, Saarbrücken, 2016 – zitiert als „FS Herberger“. Oppermann, Ursula: Aussagetüchtigkeit – die unterschätzte Fragestellung, in: De­ ckers, Rüdiger/Köhnken, Günter (Hrsg.), Die Erhebung und Bewertung von Zeu­ genaussagen im Strafprozess, Juristische, aussagepsychologische und psychiatri­ sche Aspekte, 2. Aufl., Berlin, 2014, S. 295–300. Ory, Stephan/Weth, Stephan: Betroffenenrechte in der Justiz – Die DS-GVO auf Kon­ frontationskurs mit der ZPO?, NJW 2018, S. 2829–2834. Oswald, Margit/Grosejan, Stefan: Confirmation bias, in: Pohl, Rüdiger (Hrsg.), Cog­ nitive Illusions, A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, New York, 2004, S. 79–96. Ott, Nicolas/Klein, Karen: Hindsight Bias bei der Vorstandshaftung wegen Compli­ ance-Verstößen, Auswirkungen und Methoden des „Debiasing“, AG 2017, S. 209– 221. Ott, Walter: Die Vielfalt des Rechtspositivismus, Baden-Baden, 2016. Paal, Boris/Pauly, Daniel (Hrsg.): Datenschutz-Grundverordnung, 2. Aufl., München, 2018.

510 Literaturverzeichnis Palandt, Otto (Begr.): Bürgerliches Gesetzbuch, 78. Aufl., München, 2019. Papier, Hans-Jürgen: Richterliche Unabhängigkeit und Dienstaufsicht, NJW 1990, S. 8–14. Pariser, Eli: The filter bubble, What the Internet is hiding from you, London, 2012. Parycek, Peter/Charalabidis, Yannis/Chugunov Andrei/Panagiotopoulos, Panos/Pardo, Theresa/Sæbø, Øystein/Tambouris, Efthimios (Hrsg.): Electronic Participation, 9th IFIP WG 8.5 International Conference, ePart 2017, St. Petersburg, Russia, September 4–7, 2017, Proceedings, Cham, 2017. Pasquale, Frank: The Black Box Society, The Secret Algorithms That Control Money and Information, Cambridge, Massachusetts, 2016. Paul, Tobias: Unselbständige Beweisverwertungsverbote in der Rechtsprechung, NStZ 2013, S. 489–497. Pavčnik, Marijan: Vom Rechtsstaat zum Richterstaat, Jusletter IT 23.2.2017, S. 1–5. Pawlik, Michael: Der Rechtsbegriff bei H.L.A. Hart, in: Griller, Stefan/Rill, Heinz Peter (Hrsg.), Rechtstheorie: Rechtsbegriff – Dynamik – Auslegung, Bd. 136, Wien, 2011, S. 41–56. Pelz, Waldemar: Empathie: Menschen und Gruppen besser verstehen, http://www. managementkompetenzen.de/empathie.html (10.6.2020). Philippe, Arnaud: Gender disparities in criminal justice, Toulouse School of Econo­ mics Working Paper 17-762 (2017), S. 1–32. Philipps, Lothar: Unbestimmte Rechtsbegriffe und Fuzzy Logic, Ein Versuch zur Be­ stimmung der Wartezeit nach Verkehrsunfällen (§ 142 Abs. 2 StGB), in: Haft, Fritjof/Hassemer, Winfried/Neumann, Ulfrid u. a. (Hrsg.), Strafgerechtigkeit, Fest­ schrift für Arthur Kaufmann zum 70. Geburtstag, Heidelberg, 1993, S. 265–280. Philipps, Lothar: Ein bißchen Fuzzy Logic für Juristen, in: Tinnefeld, Marie-Theres/ Philipps, Lothar/Weis, Kurt (Hrsg.), Institutionen und Einzelne im Zeitalter der Informationstechnik, Machtpositionen und Rechte, Bd. 2, München, 1994, S. 219– 224. Philipps, Lothar: Gerechte Entscheidungen gemäß einer Mehrzahl von Kriterien oder: Wer bekommt den Porsche? Eine Anwendung von Ronald R. Yagers Fuzzy-LogicMethode, JurPC 1995, S. 3256–3262. Philipps, Lothar: Iudex non calculat – jedenfalls nicht ohne Computer, Zugleich eine Besprechung von Wolfgang Köberer: Iudex non calculat. Über die Unmöglichkeit, Strafzumessung sozialwissenschaftlich-mathematisch zu rationalisieren, Bespre­ chungsaufsatz, MschrKrim 1998, S. 263. Pi, Daniel/Parisi, Francesco/Luppi, Barbara: Biasing, Debiasing, and the Law, in: Zamir, Eyal/Teichman, Doron (Hrsg.), The Oxford Handbook of Behavioral Eco­ nomics and the Law, Oxford, 2014, S. 143–166. Pidgen, Charles: Hume on Is and Ought, David Hume, https://philosophynow.org/ issues/83/Hume_on_Is_and_Ought (10.6.2020).

Literaturverzeichnis511 Pillkahn, Ulf: Innovationen zwischen Planung und Zufall, Bausteine einer Theorie der bewussten Irritation, Norderstedt, 2012. Pitschas, Rainer: Verwaltung und Verwaltungsgerichtsbarkeit im staatlichen Moderni­ sierungsprozeß, in: Blümel, Willi/Pitschas, Rainer (Hrsg.), Verwaltungsverfahren und Verwaltungsprozeß im Wandel der Staatsfunktionen, Vorträge und Diskus­ sionsbeiträge der Verwaltungswissenschaftlichen Arbeitstagung 1994 des For­ schungsinstituts für öffentliche Verwaltung bei der Hochschule für Verwaltungs­ wissenschaften Speyer, Bd. 121, Berlin, 1997, S. 27–71. Pitschas, Rainer: Der Kampf um Art. 19 IV GG, Funktionsgrenzen des „Neuen ­Steuerungssystems“ in der Verwaltungsgerichtsbarkeit, ZRP 1998, S. 96–103. Plant, E. Ashby/Devine, Patricia: Internal and External Motivation to Respond Wit­ hout Prejudice, Journal of Personality and Social Psychology 75 (1998), S. 811– 832. Plant, E. Ashby/Devine, Patricia: The Active Control of Prejudice: Unpacking the Intentions Guiding Control Efforts, Journal of Personality and Social Psychology 2009, S. 640–652. Plant, E. Ashby/Devine, Patricia/Cox, William/Columb, Corey/Miller, Saul/Goplen, Joanna/Peruche, Michelle: The Obama Effect: Decreasing Implicit Prejudice and Stereotyping, Journal of Experimental Social Psychology 45 (2009), S. 961–964. Plant, E. Ashby/Peruche, B. Michelle: The Consequences of Race for Police Officers’ Responses to Criminal Suspects, Research Report, Psychological Science 16 (2005), S. 180–183. Plant, E. Ashby/Peruche, B. Michelle/Butz, David: Eliminating automatic racial bias: Making race non-diagnostic for responses to criminal suspects, Journal of Experi­ mental Social Psychology 41 (2005), S. 141–156. Pluta, Werner: KI übersetzt so gut wie ein Mensch, golem.de vom 15.3.2018. Pohl, Rüdiger (Hrsg.): Cognitive Illusions, A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, New York, 2004. Polomski, Ralf-Michael: Der automatisierte Verwaltungsakt, Die Verwaltung an der Schwelle von der Automation zur informations- und Kommunikationstechnik, Berlin, 1993. Poscher, Ralf: Wahrheit und Recht, Die Wahrheitsfragen des Rechts im Lichte defla­ tionärer Wahrheitstheorie, ARSP 89 (2003), S. 200–215. Poseck, Roman: Die Zivilgerichte besser aufstellen, Justiz im internationalen Wettbe­ werb, Legal Tribune Online vom 12.2.2018. Pötters, Stephan/Wybitul, Tim: Anforderungen des Datenschutzrechts an die Beweis­ führung im Zivilprozess, NJW 2014, S. 2074–2080. Prakken, Henry: Argument Schemes for Discussing Bayesian Modellings of Complex Criminal Cases, in: Wyner, Adam/Casini, Giovanni (Hrsg.), Legal Knowledge and Information Systems, Bd. 302, Amsterdam, 2017, S. 69–78. Präsidium des Deutschen Richterbundes (Hrsg.): Justiz und Recht im Wandel der Zeit, Festgabe 100 Jahre Deutscher Richterbund, Köln, 2009.

512 Literaturverzeichnis Precht, Richard David: Wer bin ich – und wenn ja wie viele?, Eine philosophische Reise, München, 2012. Prell, Lorenz: Automatisierter Erlass von Verwaltungsakten und Bekanntgabe durch Abruf über Internetportale, Die neuen Regelungen zur digitalen Verwaltung im VwVfG, apf 2017, S. 237–243. Prütting, Hanns: Gerechtigkeit durch Verfahren, jM 2016, S. 354–358. Prütting, Hanns/Gehrlein, Markus (Hrsg.): ZPO, Zivilprozessordnung, Kommentar, 11. Aufl., Köln, 2019. Raabe, Oliver/Wacker, Richard/Oberle, Daniel/Baumann, Christian/Funk, Christian: Recht ex machina, Formalisierung des Rechts im Internet der Dienste, Berlin, Heidelberg, 2012. Rachlinski, Jeffrey: A Positive Psychological Theory of Judging in Hindsight, Univer­ sity of Chicago Law Review 65 (1998), S. 571–625. Rachlinski, Jeffrey/Guthrie, Chris/Wistrich, Andrew: Inside the Bankruptcy Judge’s Mind, Boston University Law Review 86 (2006), S. 1227–1265. Rachlinski, Jeffrey/Johnson, Sheri/Wistrich, Andrew/Guthrie, Chris: Does Uncon­ scious Racial Bias Affect Trial Judges?, Notre Dame Law Review 84 (2009), S. 1195–1246. Rachlinski, Jeffrey/Wistrich, Andrew/Guthrie, Chris: Can Judges Make Reliable Nu­ meric Judgments? Distorted Damages and Skewed Sentences, Indiana Law Jour­ nal 90 (2015), S. 695–739. Rack, Manfred: Der Confirmation-Bias als Entscheidungsfehler und Organisations­ risiko, CB 2014, S. 190–194. Radbruch, Gustav: Gesetzliches Unrecht und übergesetzliches Recht, Süddeutsche Juristen-Zeitung 1 (1946), S. 105–108. Rademacher, Lars/Schmitt-Geiger, Alexander (Hrsg.): Litigation-PR: Alles was Recht ist, Zum systematischen Stand der strategischen Rechtskommunikation, Wiesba­ den, 2012. Rademacher, Timo: Predictive Policing im deutschen Polizeirecht, AöR 2017, S. 366–416. van Raden, Lutz: Rechner, Richter, Realitäten – Computer in der Justiz, Köln, 1989. Radke, Holger: Datenhaltung und Datenadministration der Justiz und richterliche Un­ abhängigkeit, jM 2016, S. 8–13. Ramge, Thomas: Mensch fragt, Maschine antwortet. Wie Künstliche Intelligenz Wirt­ schaft, Arbeit und unser Leben verändert, APuZ 6–8 (2018), S. 15–21. Rassin, Eric/Eerland, Anita/Kuijpers, Ilse: Let’s Find the Evidence: An Analogue Study of Confirmation Bias in Criminal Investigations, Journal of Investigative Psychology and Offender Profiling 7 (2010), S. 231–246. Rätz, Detlef/Breidung, Michael/Lück-Schneider, Dagmar/Kaiser, Siegfried/Schweighofer, Erich (Hrsg.): Digitale Transformation: Methoden, Kompetenzen und Tech­ nologien für die Verwaltung, Gemeinsame Fachtagung Verwaltungsinformatik

Literaturverzeichnis513 (FTVI) und Fachtagung Rechtsinformatik (FTRI) 2016, Bonn, 2016 – zitiert als „Digitale Transformation“. Redeker, Konrad: Justizgewährungspflicht des Staates versus richterliche Unabhän­ gigkeit?, NJW 2000, S. 2796–2798. Redelmeier, Donald/Kahneman, Daniel: Patients’ memories of painful medical treat­ ments: real-time and retrospective evaluations of two minimally invasive proce­ dures, Pain 66 (1996), S. 3–8. Redfield, Sarah (Hrsg.): Enhancing Justice: Reducing Bias, Chicago, 2017. Reeder, Glenn/Brewer, Marilynn: A Schematic Model of Dispositional Attribution in Interpersonal Perception, Psychological Review 86 (1979), S. 61–79. Reichwald, Julian/Pfisterer, Dennis: Autonomie und Intelligenz im Internet der ­Dinge, Möglichkeiten und Grenzen autonomer Handlungen, CR 2016, S. 208–212. Reimer, Franz: Juristische Methodenlehre, Baden-Baden, 2016 – zitiert als „Metho­ denlehre“. Reisinger, Leo: Rechtsinformatik, Reprint 2016, Berlin, Boston, 1977. Reitmaier, Tobias: Aktives Lernen für Klassifikationsprobleme unter der Nutzung von Strukturinformationen, Kassel, 2015. Rennert, Klaus: Funktion und Legitimation des Richters, Festvortrag anlässlich der Absolventenfeier der Juristischen Fakultät der Humboldt-Universität zu Berlin am Freitag, 27. November 2015, Berlin, 2015. Rey, Günter/Wender, Karl: Neuronale Netze, Eine Einführung in die Grundlagen, Anwendungen und Datenauswertung, 3. Aufl., Bern, 2018. Rice, Henry Gordon: Classes of recursively enumerable sets and their decision prob­ lems, Transactions of the American Mathematical Society 74 (1953), S. 358–366. Richter, Michael: Fallbasiertes Schließen, in: Görz, Günther/Schneeberger, Josef/ Schmid, Ute (Hrsg.), Handbuch der Künstlichen Intelligenz, 5. Aufl., München, 2013, S. 297–328. Riesenhuber, Karl/Klöhn, Lars (Hrsg.): Das Urhebervertragsrecht im Lichte der Ver­ haltensökonomik, INTERGU-Tagung 2009, Berlin, 2010. Riggert, Rainer: Die Selbstbindung der Rechtsprechung durch den allgemeinen Gleichheitssatz (Art. 3 I GG), Berlin, 1993. Ring, Stephan: Computergestützte Rechtsfindungssysteme, Voraussetzungen, Grenzen und Perspektiven, Köln, Berlin, 1994. Risse, Jörg: Der Homo iuridicus – ein gefährliches Trugbild, Wie Heuristiken richter­ liche Entscheidungen beeinflussen, NJW 2018, S. 2848–2853. Roberto, Vito/Grechenig, Kristoffel: Rückschaufehler („Hindsight Bias“) bei Sorg­ faltspflichtverletzungen, Zeitschrift für Schweizerisches Recht (ZSR) 2011, S. 5–26. Robinette, Paul/Li, Wenchen/Allen, Robert/Howard, Ayanna/Wagner, Alan: Overtrust of Robots in Emergency Evacuation Scenarios, in: Bartneck, Christoph/Nagai, Yukie/Paiva, Ana u. a. (Hrsg.), HRI 2016: The Eleventh ACM/IEEE International

514 Literaturverzeichnis Conference on Human Robot Interaction, Piscataway, NJ, 2016, S. 101–108 – zi­ tiert als „Overtrust of Robots“. Roellecke, Gerd: Zur demokratischen Legitimation der rechtsprechenden Gewalt, in: Isensee, Josef/Lecheler, Helmut (Hrsg.), Freiheit und Eigentum, Festschrift für Walter Leisner zum 70. Geburtstag, Bd. 800, Berlin, 1999, S. 553–567. Roese, Neil: Twisted Pair: Counterfactual Thinking and the Hindsight Bias, in: Koeh­ ler, Derek/Harvey, Nigel/Koehler, Derek J. (Hrsg.), Blackwell Handbook of Judg­ ment and Decision Making, Malden, MA, USA, 2004, S. 258–273. Rolfs, Christian/Giesen, Richard/Kreikebohm, Ralf/Udsching, Peter (Hrsg.): Beck’scher Online-Kommentar Sozialrecht, 52. Ed., München, 2019. Roßnagel, Alexander: Datenschutz in der Forschung, Die neuen Datenschutzregelun­ gen in der Forschungspraxis von Hochschulen, ZD 2019, S. 157–164. Rostalski, Frauke: Legal Tech now and then, Sollte Technik den Menschen in der Rechtsfindung ersetzen?, Rethinking Law 1/2019, S. 4–13. Roth, Thomas: Das Grundrecht auf den gesetzlichen Richter, Berlin, 2000. Rothermund, Klaus/Wentura, Dirk: Underlying Processes in the Implicit Association Test: Dissociating Salience From Associations, Journal of Experimental Psychol­ ogy 133 (2004), S. 139–165. Rottleuthner, Hubert: Gerechtigkeit in der Rechtsprechung, in: Präsidium des Deut­ schen Richterbundes (Hrsg.), Justiz und Recht im Wandel der Zeit, Festgabe 100 Jahre Deutscher Richterbund, Köln, 2009, S. 113–123. Roxin, Claus/Schünemann, Bernd: Strafverfahrensrecht, Ein Studienbuch, 29. Aufl., München, 2017. Ruger, Theodore/Kim, Pauline/Martin, Andrew/Quinn, Kevin: The Supreme Court Forecasting Project: Legal and Political Science Approaches to Predicting Supre­ me Court Decisionmaking, Columbia Law Review 104 (2004), S. 1150–1210. Rüggeberg, Jörg: Zur Funktion der ehrenamtlichen Richter in den öffentlich-recht­ lichen Gerichtsbarkeiten, VerwArch 1970, S. 189–218. Rühl, Giesela: Ökonomische Analyse des Rechts, in: Krüper, Julian (Hrsg.), Grund­ lagen des Rechts, 2. Aufl., Baden-Baden, 2013, S. 217–236. Rühle, Stefanie/Kompetenzzentrum interoperable Metadaten: Kleines Handbuch ­Metadaten, Frankfurt am Main, 2012. Russell, Stuart/Norvig, Peter: Künstliche Intelligenz, Ein moderner Ansatz, 3. Aufl., München, 2012. Rüßmann, Helmut (Hrsg.): Festschrift für Gerhard Käfer, Saarbrücken, 2009 – zitiert als „FS Käfer“. Rüthers, Bernd: Geleugneter Richterstaat und vernebelte Richtermacht, NJW 2005, S. 2759–2761. Rüthers, Bernd: Klartext zu den Grenzen des Richterrechts, NJW 2011, S. 1856–1858. Rüthers, Bernd: Die heimliche Revolution vom Rechtsstaat zum Richterstaat, Verfas­ sung und Methoden, 2. Aufl., Tübingen, 2016.

Literaturverzeichnis515 Rüthers, Bernd/Fischer, Christian/Birk, Axel: Rechtstheorie, mit juristischer Metho­ denlehre, 10. Aufl., München, 2018. Sachs, Michael (Hrsg.): Grundgesetz, 8. Aufl., München, 2018. Säcker, Franz/Rixecker, Roland/Oetker, Hartmut/Limperg, Bettina (Hrsg.): Münche­ ner Kommentar zum Bürgerlichen Gesetzbuch, 7. Aufl. Bd. 1, München, 2015. Savigny, Friedrich Carl von: System des heutigen Römischen Rechts, Berlin, 1840. Schaar, Peter: Algorithmentransparenz, in: Dix, Alexander/Franßen, Gregor/Kloepfer, Michael u. a. (Hrsg.), Informationsfreiheit und Informationsrecht, Jahrbuch 2015, Berlin, 2016, S. 23–35. Schafer, Burkhard/Wiegand, Olav: Incompetent, prejudiced and lawless?, A Gestaltpsychological perspective on fact finding in law as learning, Law, Probability and Risk 3 (2004), S. 93–108. Schantz, Peter/Wolff, Heinrich Amadeus: Das neue Datenschutzrecht, DatenschutzGrundverordnung und Bundesdatenschutzgesetz in der Praxis, München, 2017. Schemmel, Alexander/Dietzen, Alexandra: Abschn. 5.6: Anwendungsbeispiele – ­„Effective Corporate Governance“ by Legal Tech & Digital Compliance­, in: Brei­ denbach, Stephan/Glatz, Florian (Hrsg.), Rechtshandbuch Legal Tech, München, 2018, S. 137–153. Schiel, Jürgen: Unterschiede in der deutschen Strafrechtsprechung, Eine Untersu­ chung an Hand von Urteilen der Schöffengerichte und Strafkammern in Koblenz, Frankfurt und München aus den Jahren 1962/63, Hamburg, 1969. Schild, Uri: Intelligent Computer Systems for Criminal Sentencing, in: McCarty, Thorne (Hrsg.), Proceedings of the Fifth International Conference of Artificial Intelligence and Law, New York, NY, 1995, S. 229–238 – zitiert als „Intelligent Computers for Criminal Sentencing“. Schilken, Eberhard: Die Sicherung der Unabhängigkeit der Dritten Gewalt, JZ 2006, S. 860–868. Schilken, Eberhard: Gerichtsverfassungsrecht, 4. Aufl., Köln, 2007. Schirrmacher, Frank: Payback, Warum wir im Informationszeitalter gezwungen sind zu tun, was wir nicht tun wollen, und wie wir die Kontrolle über unser Denken zurückgewinnen, München, 2009. Schladebach, Marcus: Rechtsanwendungsgleichheit in Mehrebenensystemen, NVwZ 2018, S. 1241–1248. Schliesky, Utz: Eine Verfassung für den digitalen Staat?, ZRP 2015, S. 56–58. Schliesky, Utz: Digitalisierung – Herausforderung für den demokratischen Verfas­ sungsstaat, Ein Beitrag zur Zukunftsfähigkeit des Grundgesetzes am Vorabend des 70. Geburtstags, NVwZ 2019, S. 693–701. Schmid, Alexander: Der vollständig automatisierte Erlass eines Verwaltungsakts (§ 35a VwVfG) sowie die Bekanntgabe eines Verwaltungsakts über öffentlich zu­ gängliche Netze (§ 41 Abs. 2a VwVfG) (Teil 1), jurisPR-ITR 3/2017.

516 Literaturverzeichnis Schmid, Jeannette: Vom Pendeln des Blickes – Wie kommt der Richter zum Fall?, in: Holzwarth, Stephanie/Lambrecht, Ulrich/Schalk, Sebastian u. a. (Hrsg.), Die Un­ abhängigkeit des Richters, Richterliche Entscheidungsfindung in den Blick ge­ nommen, Tübingen, 2009, S. 95–108. Schmidt, Ingrid: Gerechtigkeit braucht eine starke Justiz, RdA 2015, S. 260–263. Schmidt, Reimer: Rationalisierung und Privatrecht, AcP 166 (1966), S. 1–29. Schmidt, Walter: Einführung in die Probleme des Verwaltungsrechts, München, 1982. Schmidt-Bleibtreu, Bruno/Hofmann, Hans/Henneke, Hans-Günter (Hrsg.): GG, Kom­ mentar zum Grundgesetz, 14. Aufl., Köln, 2017. Schmidt-Räntsch, Jürgen: DRiG, Deutsches Richtergesetz, 6. Aufl., München, 2009. Schmies, Christian: Behavioral Finance und Finanzmarktregulierung, in: Engel, Christoph/Englerth, Markus/Lüdemann, Jörn u. a. (Hrsg.), Recht und Verhalten, Beiträge zu Behavioral Law and Economics, Tübingen, 2007, S. 165. Schmittat, Susanne/Englich, Birte: Juristen sind auch nur Menschen – Einflüsse psy­ chologischer Mechanismen auf die juristische Entscheidungsfindung, in: Boorberg Verlag (Hrsg.), Soft Skills im Trend – Kompetenz, Kommunikation und Recht, Der Wirtschaftsführer für junge Juristen 2017, Stuttgart, 2017, S. 10–12. Schmitz, Heribert/Prell, Lorenz: Neues zum E-Government – Rechtsstaatliche Stan­ dards für E-Verwaltungsakt und E-Bekanntgabe im VwVfG, NVwZ 2016, S. 1273–1280. Schnabel, Konrad/Asendorpf, Jens/Greenwald, Anthony: Assessment of Individual Differences in Implicit Cognition, A Review of IAT Measures, European Journal of Psychological Assessment 24 (2008), S. 210–217. Schneider, Hartmut (Hrsg.): Münchener Kommentar zur Strafprozessordnung, Band 2: §§ 151–332 StPO Bd. 2, München, 2016. Schneider, Udo: Richterliche Ethik im Spannungsfeld zwischen richterlicher Unab­ hängigkeit und Gesetzesbindung, Berlin, 2017 – zitiert als „Richterliche Ethik“. Schoch, Friedrich/Schneider, Jens-Peter/Bier, Wolfgang (Hrsg.): Verwaltungsgerichts­ ordnung, Losebl. (Stand: 34. Erg.-Lfg.), München, 2018. Schönhof, Raoul/Tenschert, Axel/Cheptsov, Alexey: Practical Aspects of OntologyBased Analysis and Reasoning for Law Information Represented in Textual Form, International Journal on Advances in Intelligent Systems 8 (2015), S. 278–287. Schrey, Joachim/Thalhofer, Thomas: Rechtliche Aspekte der Blockchain, NJW 2017, S. 1431–1436. Schröder, Meinhard: Gesetzesbindung des Richters und Rechtsweggarantie im Mehr­ ebenensystem, Tübingen, 2010. Schuhr, Jan: Zur Vertretbarkeit einer rechtlichen Aussage, JZ 2008, S. 603–611. Schuhr, Jan: Willensfreiheit, Roboter und Auswahlaxiom, in: Beck, Susanne (Hrsg.), Jenseits von Mensch und Maschine, Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Bd. 1, Baden-Baden, 2012, S. 43–76.

Literaturverzeichnis517 Schuhr, Jan (Hrsg.): Rechtssicherheit durch Rechtswissenschaft, Tübingen, 2014. Schuhr, Jan: Datenbanken gerichtlicher Entscheidungen als Zugang zu juristischer Semantik?, Bemerkungen zur Kommentierung von Gesetzen im gewaltenteiligen, demokratischen Staat, in: Vogel, Friedemann von (Hrsg.), Zugänge zur Rechts­ semantik, Interdisziplinäre Ansätze im Zeitalter der Mediatisierung, Bd. 53, Ber­ lin, Boston, 2015, S. 93–123. Schuhr, Jan: Recht, Technik, Roboter, Rechtstheorie 2015, S. 225–261. Schuhr, Jan: Rechtsprechungsdatenbanken als Format rechtlicher Information – Hilfs­ mittel oder Ersatz für Kommentare?, in: Funke, Andreas/Lachmayer, Konrad (Hrsg.), Formate der Rechtswissenschaft, Tagung „Formate der Rechtswissen­ schaft in Europa. Ein Gespräch über Form und Medium Rechtswissenschaftlicher Forschungskommunikation“, Weilerswist, 2017, S. 161–180. Schuhr, Jan: Subsumtion und Automatisierung, Vortrag bei der Legal-Tech-Konferenz am 20.1.2017 in München, München, 20.1.2017. Schulz, Thomas: Verantwortlichkeit bei autonom agierenden Systemen, Fortentwick­ lung des Rechts und Gestaltung der Technik, Baden-Baden, 2015. Schünemann, Bernd: Der Richter im Strafverfahren als manipulierter Dritter? Zur empirischen Bestätigung von Perseveranz- und Schulterschlußeffekt, StV 2000, S. 159–165. Schünemann, Bernd: Gedanken zur zweiten Instanz in Strafsachen, in: Geisler, Clau­ dius/Kraatz, Erik/Kretschmer, Joachim u. a. (Hrsg.), Festschrift für Klaus Geppert zum 70. Geburtstag am 10. März 2011, Berlin, New York, 2011, S. 649–663 – zitiert als „Zweite Instanz in Strafsachen“. Schünemann, Bernd/Tinnefeld, Marie-Theres/Wittmann, Roland (Hrsg.): Gerechtig­ keitswissenschaft – Kolloquium aus Anlass des 70. Geburtstages von Lothar Phi­ lipps, Berlin, 2005 – zitiert als „Gerechtigkeitswissenschaft“. Schwaiger, Roland/Steinwendner, Joachim: Neuronale Netze programmieren, mit ­Python, Bonn, 2019. Schweighofer, Erich/Kummer, Franz/Hötzendorfer, Walter/Sorge, Christoph (Hrsg.): Trends und Communities der Rechtsinformatik, Tagungsband des 20. Internationa­ len Rechtsinformatik Symposiums IRIS 2017, Wien, 2017 – zitiert als „IRIS 2017 Tagungsband“. Schweighofer, Erich/Kummer, Franz/Saarenpää, Ahti (Hrsg.): Internet of Things, Ta­ gungsband des 22. Internationalen Rechtsinformatik Symposiums IRIS 2019, Bern, 2019 – zitiert als „IRIS 2019 Tagungsband“. Schweizer, Mark: Kognitive Täuschungen vor Gericht, Eine empirische Studie, Zü­ rich, 2005. Schweizer, Mark: Beweiswürdigung und Beweismaß, Rationalität und Intuition, Tü­ bingen, 2015. Searle, John: Minds, brains, and programs, Behavioral and Brain Sciences 3 (1980), S. 417–424.

518 Literaturverzeichnis Seckelmann, Margrit (Hrsg.): Digitalisierte Verwaltung – Vernetztes E-Government, 2. Aufl., Berlin, 2019 – zitiert als „Digitalisierte Verwaltung“. Seckelmann, Margrit: Kapitel 22: Einsatz bei der Polizei: Twitter-Nutzung, OnlineStreifen, Trojaner, Facebook-Fahndung, Biometriesoftware, (intelligente) Video­ überwachung, Predictive Policing, Body-Cams und Fotodrohnen, in: Seckelmann, Margrit (Hrsg.), Digitalisierte Verwaltung – Vernetztes E-Government, 2. Aufl., Berlin, 2019, S. 485–508 – zitiert als „Einsatz bei der Polizei“. Seebaß, Gottfried: Willensfreiheit und Determinismus, Die Bedeutung des Willens­ freiheitsproblems, Berlin, 2007. Seer, Roman: Modernisierung des Besteuerungsverfahrens, Gedanken zum Referen­ tenentwurf zur Modernisierung des Besteuerungsverfahrens, StuW 2015, S. 315– 330. Segal, Elizabeth: Social Empathy, A Model Built on Empathy, Contextual Under­ standing, and Social Responsibility That Promotes Social Justice, Journal of So­ cial Service Research 37 (2011), S. 266–277. Shauer, Frederick: English Natural Justice and American Due Process: An Analytical Comparison, William & Mary Law Review 18 (1976), S. 47–72. Shaw, Julia: Das trügerische Gedächtnis, Wie unser Gehirn Erinnerungen fälscht, München, 2016. Shaw, Julia/Porter, Stephen: Constructing Rich False Memories of Committing Crime, Psychological Science 26 (2015), S. 291–301. Shaw, Julia/Wafler, Michael: Tipping the Scales: How Defendant Body Type May Result in Eyewitness Biases, Psychiatry, Psychology and Law 23 (2016), S. 676– 683. Shiv, Baba/Loewenstein, George/Bechara, Antoine: The dark side of emotion in deci­ sion-making, When individuals with decreased emotional reactions make more advantageous decisions, Cognitive Brain Research 23 (2005), S. 85–92. Sichelman, Ted/Atkinson, Katie (Hrsg.): Proceedings of the 15th International Confe­ rence on Artificial Intelligence and Law, New York, NY, 2015. Siegel, Thorsten: Automatisierung des Verwaltungsverfahrens – zugleich eine Anmer­ kung zu § 35a, 24 I 3, 41 IIa VwVfG, DVBl 2017, S. 24–28. Siepermann, Markus: Stichwort: maschinelles Lernen, in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, Wiesbaden, 2018. Siepermann, Markus: Stichwort: regelbasiertes System, in: Springer Gabler (Hrsg.), Gabler Wirtschaftslexikon, Wiesbaden, 2018. Simitis, Spiros: Automation in der Rechtsordnung – Möglichkeiten und Grenzen, Karlsruhe, 1967. Simon, Dan: A Third View of the Black Box: Cognitive Coherence in Legal Decision Making, University of Chicago Law Review 71 (2004), S. 511–586. Simonite, Tom: How to Upgrade Judges with Machine Learning, MIT Technology Review vom 6.3.2017.

Literaturverzeichnis519 Singelnstein, Tobias, Confirmation Bias – Die Bestätigungsneigung als kognitive Ver­ zerrung bei polizeilichen Ermittlungen im Strafverfahren, StV 2016, S. 830–836. Singelnstein, Tobias: Predictive Policing: Algorithmenbasierte Straftatprognosen zur vorausschauenden Kriminalintervention, NStZ 2018, S. 1–9. Skeem, Jennifer/Lowenkamp, Christopher: Risk, Race, and Recidivism: Predictive Bias and Disparate Impact, Criminology 54 (2016), S. 680–712. Skitka, Linda/Mosier, Kathleen/Burdick, Mark: Does automation bias decision-mak­ ing?, International Journal of Human-Computer Studies 51 (1999), S. 991–1006. Skitka, Linda/Mosier, Kathleen/Burdick, Mark: Accountability and automation bias, International Journal of Human-Computer Studies 2000, S. 701–717. Slovic, Paul/Fischhoff, Baruch: On the Psychology of Experimental Surprises, Journal of Experimental Psychology: Human Perception and Performance 3 (1977), S. 544–551. Smid, Stefan: Richterliche Rechtserkenntnis, Zum Zusammenhang von Recht, richti­ gem Urteil und Urteilsfolgen im pluralistischen Staat, Berlin, 1989. Smid, Stefan: Rechtsprechung, Zur Unterscheidung von Rechtsfürsorge und Prozeß, Köln, Berlin, 1990. Smith, Mitch: A Case Is Putting the Use of Data to Predict Defendants’ Futures on Trial, The New York Times vom 23.6.2016, S. A18. Sobota, Katharina: Das Prinzip Rechtsstaat, Verfassungs- und verwaltungsrechtliche Aspekte, Tübingen, 1997. Sodan, Helge: § 113: Der Status des Richters, in: Isensee, Josef/Kirchhof, Paul (Hrsg.), Handbuch des Staatsrechts der Bundesrepublik Deutschland, Band V: Rechtsquellen, Organisation, Finanzen, Bd. 5, 3. Aufl., Heidelberg, 2007 – zitiert als „§ 113“. Sodan, Helge: Grundgesetz, 4. Aufl., München, 2018. Soldan Institut: Mandanten und ihre Anwälte, AnwBl 2007, S. 445–446. Soliman, Tina: Der Todes-Algorithmus, Geschäftsmodell Lebenserwartung, tages schau.de vom 14.12.2017. Sommer, Ulrich: Effektive Strafverteidigung, Recht, Psychologie, Überzeugungs­arbeit der Verteidigung, 3. Aufl., Köln, 2016. Sommer, Ulrich: Psychologie der richterlichen Entscheidungsfindung, Interview mit Rudolf Gerhardt, ZRP 2017, S. 60–61. Sommer, Ulrich: Denn sie wissen nicht, was sie tun, Fehlurteile im deutschen Straf­ prozess, Legal Tribune Online vom 24.1.2017. Sonnemans, Joep/van Dijk, Frans: Errors in Judicial Decisions: Experimental Results, The Journal of Law, Economics & Organization 28 (2012), S. 687–716. Specht, Louisa/Herold, Sophie: Roboter als Vertragspartner?, Gedanken zu Vertrags­ abschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme, MMR 2018, S. 40–44.

520 Literaturverzeichnis Spengler, Joseph: Machine-Made Justice: Some Implications, Law and Contemporary Problems 28 (1963), S. 36–52. Spielkamp, Matthias: Sind Algorithmen die besseren Richter?, Technology Review 8 (2017), S. 36–37. Spielkamp, Matthias: AlgorithmWatch: 3. Arbeitspapier: Unsere Antworten zur Anhö­ rung zu „Künstlicher Intelligenz“ des Ausschusses Digitale Agenda, Berlin, 22.3.2017. Spindler, Gerald/Schuster, Fabian (Hrsg.): Recht der elektronischen Medien, Kom­ mentar, 3. Aufl., München, 2015. Spitzer, Manfred: Cyberkrank!, Wie das digitalisierte Leben unsere Gesundheit rui­ niert, München, 2015. Spohn, Cassia: Thirty Years of Sentencing Reform: The Quest for a Racially Neutral Sentencing Process, Policies, Processes, and Decisions of the Criminal Justice System 3 (2000), S. 427–501. Spoor, Jaap: Expert Systems and the Law – An Outline, in: Kluwer Law and Taxation Publishers (Hrsg.), Amongst Friends in Computers and Law, A Collection of Es­ says in Rememberance of Guy Vandenberghe, Deventer, Boston, 1990, S. 22–32 – zitiert als „Expert Systems“. Springer Gabler (Hrsg.): Gabler Wirtschaftslexikon, Wiesbaden, 2018. Staats, Johann-Friedrich: Deutsches Richtergesetz, Kommentar, Baden-Baden, 2012 – zitiert als „DRiG“. Stadler, Tobias: Die Lebensleistung des Täters als Strafzumessungserwägung, Zu­ gleich ein Beitrag zu den Grundlagen des Strafzumessungsrechts, Tübingen, 2019. Starr, Sonja: Sentencing, by the Numbers, The New York Times vom 11.8.2014, S. A17. Starr, Sonja: Estimating Gender Disparities in Federal Criminal Cases, American Law and Economics Review 2015, S. 127–159. Starr, Sonja/Rehavi, Marit: Racial Disparity in Federal Criminal Sentences, Journal of Political Economy 122 (2014), S. 1320–1354. Statistisches Bundesamt: Bestand der Gefangenen und Verwahrten in den deutschen Justizvollzugsanstalten nach ihrer Unterbringung auf Haftplätzen des geschlosse­ nen und offenen Vollzugs – Stichtag 31. August 2018, Wiesbaden, 2018 – zitiert als „Bestand der Gefangenen und Verwahrten“. Stegmüller, Martin: Vollautomatische Verwaltungsakte – eine kritische Sicht auf die neuen § 24 I 3 und § 35 a VwVfG, NVwZ 2018, S. 353–358. Steinbach, Armin: Rationale Gesetzgebung, Tübingen, 2017. Steinbeck, Anja/Lachenmaier, Andreas: Verhaltensökonomik im Gerichtssaal, NJW 2014, S. 2086–2091. Steiner, Udo: Richterliche Rechtsfindung und die Wissenschaft vom Öffentlichen Recht, Eröffnungsvortrag auf der 58. Assistententagung im Öffentlichen Recht in Regensburg vom 20. bis 23.2.2018, DVBl 2018, S. 1097–1101.

Literaturverzeichnis521 Stelkens, Paul: Das Gesetz zur Neuregelung des verwaltungsgerichtlichen Verfahrens (4. VwGOÄndG) das Ende einer Reform?, NVwZ 1991, S. 209–219. Stelkens, Paul/Bonk, Heinz Joachim/Sachs, Michael (Hrsg.): Verwaltungsverfahrens­ gesetz, Kommentar, 9. Aufl., München, 2018. Stelkens, Ulrich: Die Idee der einzig richtigen, sich aus dem Gesetz ergebenden Ent­ scheidung und ihre Bedeutung für die deutsche Rechtswissenschaft, in: van Oostrom, Samuel/Weth, Stephan (Hrsg.), Festschrift für Maximilian Herberger, Saarbrücken, 2016, S. 895–908 – zitiert als „Die Idee der einzig richtigen Ent­ scheidung“. Stelkens, Ulrich: Der vollständig automatisierte Erlass eines Verwaltungsakts als Re­ gelungsgegenstand des VwVfG, in: Hill, Hermann/Kugelmann, Dieter/Martini, Mario (Hrsg.), Digitalisierung in Recht, Politik und Verwaltung, Bd. 33, BadenBaden, 2018, S. 81–122 – zitiert als „Der vollautomatisierte VA“. Stern, Klaus: Das Staatsrecht der Bundesrepublik Deutschland, Band II: Staatsorgane, Staatsfunktionen, Finanz- und Haushaltsverfassung, Notstandsverfassung, Mün­ chen, 1980 – zitiert als „Staatsrecht, Bd. II“. Stern, Klaus/Becker, Florian (Hrsg.): Grundrechte-Kommentar, Die Grundrechte des Grundgesetzes mit ihren europäischen Bezügen, 3. Aufl., Köln, 2018. Sternberg, Sebastian/Gschwend, Thomas/Wittig, Caroline/Engst, Benjamin: Zum Ein­ fluss der öffentlichen Meinung auf Entscheidungen des Bundesverfassungs­ gerichts, Eine Analyse von abstrakten Normenkontrollen sowie Bund-LänderStreitigkeiten 1974 – 2010, PVS 56 (2015), S. 570–598. Stevenson, Bryan: Ohne Gnade, Polizeigewalt und Justizwillkür in den USA, Mün­ chen, 2016. Stickelbrock, Barbara: Inhalt und Grenzen richterlichen Ermessens im Zivilprozeß, Köln, 2002. Stier, Marco: Willensfreiheit, Bestimmt mein Gehirn oder bestimme ich?, München, 2014. Stimac, Miroslav: Wie Computer lernen, golem.de vom 8.10.2018. Stocké, Volker: Framing und Rationalität, Die Bedeutung der Informationsdarstellung für das Entscheidungsverhalten, München, 2002. Stöcker, Christian: Menschen sind so schlau wie die teure Maschine, Spiegel Online vom 28.1.2018. Stojek, Alexandra: Veränderung juristischer Arbeit durch Digitalisierung, in: Hill, Hermann/Kugelmann, Dieter/Martini, Mario (Hrsg.), Digitalisierung in Recht, Politik und Verwaltung, Bd. 33, Baden-Baden, 2018, S. 123–142 – zitiert als „Ver­ änderung juristischer Arbeit“. Stolleis, Michael: Recht im Unrecht, Studien zur Rechtsgeschichte des Nationalsozia­ lismus, Frankfurt am Main, 1994. Stone Sweet, Alec: Governing with Judges, Constitutional Politics in Europe, Oxford, 2000.

522 Literaturverzeichnis Strauch, Hans-Joachim: Wie wirklich sehen wir die Wirklichkeit?, Vom Nutzen des Radikalen Konstruktivismus für die juristische Theorie und Praxis, JZ 2000, S. 1020–1029. Strauch, Hans-Joachim: Rechtsprechungstheorie, Richterliche Rechtsanwendung und Kohärenz, in: Lerch, Kent (Hrsg.), Die Sprache des Rechts, Recht verhandeln – Argumentieren, Begründen und Entscheiden im Diskurs des Rechts, Bd. 2, Berlin, 2005, S. 479–520. Strauch, Hans-Joachim: Wandel des Rechts durch juristische Datenbanken?, DVBl 2007, S. 1000–1007. Strauch, Hans-Joachim: Litera, Bytes und Mustererkennung, Die Nutzung juristischer Datenbanken – Paradigmenwechsel in der Rechtsfindung mit unbekanntem Aus­ gang, in: Rüßmann, Helmut (Hrsg.), Festschrift für Gerhard Käfer, Saarbrücken, 2009, S. 387–412 – zitiert als „Nutzung juristischer Datenbanken“. Streinz, Rudolf: Europarecht, 10. Aufl., Heidelberg, 2016. Streng, Franz: Die Strafzumessungsbegründung und ihre Orientierungspunkte, Ein Beitrag zur Idee und Praxis vergleichender Strafzumessung, NStZ 1989, S. 393– 400. Stroebe, Wolfgang/Hewstone, Miles (Hrsg.): European Review of Social Psychology, Chichester, 1991. Suhr, Dieter (Hrsg.): Computer als juristischer Gesprächspartner, Ein Arbeitspapier zu programmierten dialogischen Denkhilfen für die Jurisprudenz, Berlin, 1970. Sujecki, Bartosz: Das Online-Mahnverfahren in Deutschland, MMR 2006, S. 369– 373. Suliak, Hasso: Vorhersehen, wie der Rechtsstreit ausgeht, Legal Tribune Online vom 24.2.2018. Sulz, Jürgen: LEX1 – Prototyp eines juristischen Expertensystems, in: Haft, Fritjof/ Lehmann, Hein (Hrsg.), Das LEX-Projekt, Entwicklung eines juristischen Exper­ tensystems, Bd. 6, Tübingen, 1989, S. 77–114. Susskind, Richard: Expert Systems in Law: A Jurisprudential Approach to Artificial Intelligence and Legal Reasoning, Modern Law Review 49 (1986), S. 168–194. Susskind, Richard: Artificial Intelligence, Expert Systems and the Law: A European Appraisal, in: Kluwer Law and Taxation Publishers (Hrsg.), Amongst Friends in Computers and Law, A Collection of Essays in Rememberance of Guy Vanden­ berghe, Deventer, Boston, 1990, S. 241–254 – zitiert als „AI, Expert Systems and the Law“. Susskind, Richard: The Future of Law, Facing the Challenges of Information Techno­ logy, Oxford, 1996. Susskind, Richard: The End of Lawyers?, Rethinking the Nature of Legal Services, Oxford, 2008. Susskind, Richard: Tomorrow’s Lawyers, An Introduction to Your Future, Oxford, 2017.

Literaturverzeichnis523 Taeger, Jürgen (Hrsg.): Rechtsfragen digitaler Transformationen, Gestaltung digitaler Veränderungsprozesse durch Recht, Edewecht, 2018 – zitiert als „Rechtsfragen digitaler Transformationen“. Tal, David: Automated judging of criminals, http://www.quantumrun.com/prediction/ automated-judging-criminals-future-law-p3 (10.6.2020). Tegmark, Max: Leben 3.0, Mensch sein im Zeitalter Künstlicher Intelligenz, Berlin, 2017. Teichman, Doron/Zamir, Eyal: Judicial Decision-Making: A Behavioral Perspective, in: Zamir, Eyal/Teichman, Doron (Hrsg.), The Oxford Handbook of Behavioral Economics and the Law, Oxford, 2014, S. 664–702. Thaler, Richard: Misbehaving, Was uns die Verhaltensökonomik über unsere Ent­ scheidungen verrät, München, 2018. Thaler, Richard/Sunstein, Cass: Nudge, Wie man kluge Entscheidungen anstößt, Ber­ lin, 2009. The Institute of Electrical and Electronics Engineers (Hrsg.): Proceedings of the 12th IEEE International Conference on Automatic Face and Gesture Recognition – FG 2017, Piscataway, NJ, 2017 – zitiert als „IEEE’s FG 2017 Proceedings“. The Law Society of England and Wales: Algorithms in the Criminal Justice System, Juni 2019. Thomas, Heinz/Putzo, Hans (Hrsg.): ZPO, 40. Aufl., 2019. Thommen, Jean-Paul: Stichwort: Semantik, in: Springer Gabler (Hrsg.), Gabler Wirt­ schaftslexikon, Wiesbaden, 2018. Thurm, Frida: „Was Innenminister Reul sagt, ist verfassungswidrig“, ZEIT Online vom 17.8.2018. Tinnefeld, Marie-Theres/Philipps, Lothar/Weis, Kurt (Hrsg.): Institutionen und Einzel­ ne im Zeitalter der Informationstechnik, Machtpositionen und Rechte, München, 1994. Tönsmeyer-Uzuner, Sabine: Expertensysteme in der öffentlichen Verwaltung, Recht­ liche Anforderungen an den Einsatz eines neuen behördlichen Handlungsinstru­ mentes, Berlin, 2000. Traut, Markus/Nickolaus, Christoph: Der Ankereffekt: Schattendasein im Strafpro­ zess, Plädoyer für eine Reform des § 258 StPO, StraFo 2015, S. 485–492. Tress, Wolfgang: Trotzdem: Willensfreiheit!, in: Tress, Wolfgang/Heinz, Rudolf (Hrsg.), Willensfreiheit zwischen Philosophie, Psychoanalyse und Neurobiologie, Göttingen, 2007, S. 65–68. Tress, Wolfgang/Heinz, Rudolf (Hrsg.): Willensfreiheit zwischen Philosophie, Psy­ choanalyse und Neurobiologie, Göttingen, 2007. Trinkwalder, Andrea: Irren ist künstlich, Wo künstliche Intelligenz noch schwächelt, c‘t 2018, S. 130–133.

524 Literaturverzeichnis Trüg, Gerson: Lösungskonvergenzen trotz Systemdivergenzen im deutschen und USamerikanischen Strafverfahren, Ein strukturanalytischer Vergleich am Beispiel der Wahrheitserforschung, Tübingen, 2003. Tschentscher, Axel: Demokratische Legitimation der dritten Gewalt, Tübingen, 2006. Turing, Alan: Computing Machinery and Intelligence, in: Epstein, Robert/Beber, Grace/Roberts, Gary (Hrsg.), Parsing the Turing Test, Philosophical and Methodo­ logical Issues in the Quest for the Thinking Computer, Dordrecht, 2009, S. 23–65. Turner, Jennifer/Dakwar, Jamil: Racial Disparities in Sentencing, Hearing on Reports of Racism in the Justice System of the United States, New York, NY, 2014. Turney, Peter/Pantel, Patrick: From Frequency to Meaning: Vector Space Models of Semantics, JAIR 37 (2010), S. 141–188. Tversky, Amos/Kahneman, Daniel: Judgment under Uncertainty: Heuristics and Bia­ ses, Science 185 (1974), S. 1124–1131. U.S. Sentencing Commission: Report on the Continuing Impact of United States v. Booker on Federal Sentencing, Washington, D.C., 30.1.2013. Uerpmann-Wittzack, Robert/Lagrange, Evelyne/Oeter, Stefan (Hrsg.): Religion and International Law, Living Together, Leiden, 2017. Ulrich, Sarah: Über der Belastungsgrenze, ZEIT Online vom 13.11.2017. Umbach, Dieter/Clemens, Thomas (Hrsg.): Grundgesetz, Mitarbeiterkommentar Bd. 2, Heidelberg, 2002. Ungern-Sternberg, Antje von: Religious Profiling, Statistical Discrimination and the Fight Against Terrorism in Public International Law, in: Uerpmann-Wittzack, ­Robert/Lagrange, Evelyne/Oeter, Stefan (Hrsg.), Religion and International Law, Living Together, Leiden, 2017, S. 191–211. Vasel, Johann: The Most Dangerous Branch?, Der Mythos richterlicher Unabhängig­ keit aus verhaltensökonomischer Perspektive, in: Mülder, Marje/Drechsler, Stefan/ Helmrich, Christian u. a. (Hrsg.), Richterliche Abhängigkeit – Rechtsfindung im Öffentlichen Recht, 58. Assistententagung Öffentliches Recht, Baden-Baden, 2018, S. 121–153. Velsberg, Ott: Estland: Roboter als Richter, KI soll Justiz schneller machen, Inter­ view, MDR Aktuell vom 26.4.2019. Vidmar, Neil: The Psychology of Trial Judging, Current Directions in Psychological Science 20 (2011), S. 58–62. Viefhues, Wolfram (Hrsg.): Elektronischer Rechtsverkehr 2/2019, Das beA räumt auf!, Bonn, 2019. Vitzthum, Wolfgang Graf: Die Menschenwürde als Verfassungsbegriff, JZ 1985, S. 201–209. Vogel, Friedemann von (Hrsg.): Zugänge zur Rechtssemantik, Interdisziplinäre An­ sätze im Zeitalter der Mediatisierung, Berlin, Boston, 2015. Vogel, Joachim: Juristische Methodik, Berlin, 1998. Vogel, Max: Das Recht auf den gesetzlichen Berichterstatter, jM 2018, S. 245–250.

Literaturverzeichnis525 Vogelgesang, Stephanie: Datensicherheit und IT-Sicherheit in der Justiz, jM 2018, S. 2–7. Volland, Holger: Die kreative Macht der Maschinen, Warum künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken, Weinheim, 2018. Vorwerk, Volkert/Wolf, Christian (Hrsg.): Beck’scher Online-Kommentar ZPO, 32. Ed., München, 2019. Voss, Rainer: Kostencontrolling und richterliche Unabhängigkeit oder Neues Steue­ rungsmodell contra unabhängige Rechtsprechung?, DRiZ 1998, S. 379–390. Voßkuhle, Andreas: Rechtsschutz gegen den Richter, Zur Integration der Dritten Ge­ walt in das verfassungsrechtliche Kontrollsystem vor dem Hintergrund des Art. 19 Abs. 4 GG, München, 1993. Voßkuhle, Andreas: Grundwissen – Öffentliches Recht: Entscheidungsspielräume der Verwaltung (Ermessen, Beurteilungsspielraum, planerische Gestaltungsfreiheit), JuS 2008, S. 117–119. Voßkuhle, Andreas/Kaiser, Anna-Bettina: Grundwissen – Öffentliches Recht: Demo­ kratische Legitimation, JuS 2009, S. 803–805. Voßkuhle, Andreas/Sydow, Gernot: Die demokratische Legitimation des Richters, JZ 2002, S. 673–682. Vultejus, Ulrich: „Kein Gesetzgeber kann einen Richter zu einem Urteil zwingen“ – Die Erhöhung des Strafrahmens wäre legislative Augenwischerei, Gespräch mit Rudolf Gerhardt, ZRP 2008, S. 101–102. Wachter, Sandra/Mittelstadt, Brent/Floridi, Luciano: Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Re­ gulation, International Data Privacy Law 7 (2017), S. 76–99. Wachter, Sandra/Mittelstadt, Brent/Russell, Chris: Counterfactual Explanations wit­ hout Opening the Black Box: Automated Decisions and the GDPR, Harvard Jour­ nal of Law and Technology 31 (2018), S. 841–887. Wagner, Albrecht: Der Richter, Geschichte, aktuelle Fragen, Reformprobleme, Karls­ ruhe, 1959. Wagner, Gerhard: Rechtsstandort Deutschland im Wettbewerb, Impulse für Justiz und Schiedsgerichtsbarkeit, München, 2017. Wagner, Jens: Legal Tech und Legal Robots, Der Wandel im Rechtsmarkt durch neue Technologien und künstliche Intelligenz, Wiesbaden, 2018. Wagner, Joachim: Ende der Wahrheitssuche, Justiz zwischen Macht und Ohnmacht, München, 2017. Walter, Derek: Google Translate is tapping into neural networks for smarter language learning, PC World Online vom 16.11.2016. Waltl, Bernhard/Bonczek, Georg/Scepankova, Elena/Landthaler, Jörg/Matthes, ­Florian: Predicting the Outcome of Appeal Decisions in Germany’s Tax Law, in: Parycek, Peter/Charalabidis, Yannis/Chugunov Andrei u. a. (Hrsg.), Electronic

526 Literaturverzeichnis Participation, 9th IFIP WG 8.5 International Conference, ePart 2017, St. Peters­ burg, Russia, September 4–7, 2017, Proceedings, Cham, 2017, S. 89–99. Waltl, Bernhard/Landthaler, Jörg/Scepankova, Elena/Matthes, Florian/Geiger, Tho­ mas/Stocker, Christoph/Schneider, Christian: Automated Extraction of Semantic Information from German Legal Documents, in: Schweighofer, Erich/Kummer, Franz/Hötzendorfer, Walter u. a. (Hrsg.), Trends und Communities der Rechts­ informatik, Tagungsband des 20. Internationalen Rechtsinformatik Symposiums IRIS 2017, Bd. 326, Wien, 2017, S. 217–224 – zitiert als „Automated Extraction of Semantic Information“. Waltl, Bernhard/Muhr, Johannes/Glaser, Ingo/Bonczek, Georg/Scepankova, Elena/ Matthes, Florian: Classifying Legal Norms with Active Machine Learning, in: Wyner, Adam/Casini, Giovanni (Hrsg.), Legal Knowledge and Information Sys­ tems, Bd. 302, Amsterdam, 2017, S. 11–20. Wank, Rolf: Grenzen richterlicher Rechtsfortbildung, Berlin, 1978. Ware, Lauren: Emotions in the Evaluation of Legal Risk, in: Landweer, Hilge/Kop­ pelberg, Dirk (Hrsg.), Recht und Emotion I, Verkannte Zusammenhänge, Bd. 26, Freiburg, München, 2016, S. 249–277. Wassermann, Rudolf: Zur Bedeutung, zum Inhalt und zum Umfang des Rechts auf Gehör (Art. 103 Abs. 1 GG), DRiZ 1984, S. 425–430. Watzlawick, Paul: Wie wirklich ist die Wirklichkeit?, Wahn, Täuschung, Verstehen, München, 1976/1978. Weber, Christian: Hungriger Richter – hartes Urteil, Süddeutsche Zeitung (Online) vom 13.4.2011. Weber, Max: Wirtschaft und Gesellschaft, Grundriss der verstehenden Soziologie, 5. Aufl., Tübingen, 1972. Wehowsky, Ralf: Die Revision im Zeitalter technischer Reproduzierbarkeit, NStZ 2018, S. 177–187. Weinshall-Margel, Keren/Shapard, John: Overlooked factors in the analysis of parole decisions, PNAS 108 (2011), E833. Weiss, Alexander: Der mutmaßliche Gesetzgeberwille als Argumentationsfigur, ZRP 2013, S. 66–68. van Wel, Lita/Royakkers, Lambèr: Ethical issues in web data mining, Ethics and In­ formation Technology 6 (2004), S. 129–140. Wenzel, Joachim: Die Bindung des Richters an Gesetz und Recht, NJW 2008, S. 345– 349. Wenzel, Michael: Der Rechtspfleger aus der Perspektive des öffentlichen Rechts, Zu­ gleich ein Beitrag zum Richter- und Gerichtsbegriff des Grundgesetzes, BadenBaden, 2019. Weyrauch, Axinja: Wie wahrscheinlich ist es, dass ich durch einen Computer ersetzt werde?, http://gfx.sueddeutsche.de/pages/automatisierung/ (10.6.2020). Wiedemann, Herbert: Richterliche Rechtsfortbildung, NJW 2014, S. 2407–2412.

Literaturverzeichnis527 Wilke, Dieter: § 112: Die rechtsprechende Gewalt, in: Isensee, Josef/Kirchhof, Paul (Hrsg.), Handbuch des Staatsrechts der Bundesrepublik Deutschland, Band V: Rechtsquellen, Organisation, Finanzen, Bd. 5, 3. Aufl., Heidelberg, 2007 – zitiert als „§ 112“. Will, Rosemarie: Bedeutung der Menschenwürde in der Rechtsprechung, Essay, APuZ 35–36 (2011), S. 8–14. Wipfelder, Hans-Jürgen: Wertewandel und Rechtsbewußtsein, DRiZ 1991, S. 309– 314. Wirtz, Markus Antonius (Hrsg.): Dorsch – Lexikon der Psychologie, 18. Aufl., Bern, 2017. Wischmeyer, Thomas: Regulierung intelligenter Systeme, AöR 143 (2018), S. 1–66. Wistrich, Andrew/Guthrie, Chris/Rachlinski, Jeffrey: Can Judges Ignore Inadmissible Information? The Difficulty of Deliberately Disregarding, University of Penn­ sylvania Law Review 153 (2005), S. 1251–1345. Wistrich, Andrew/Rachlinski, Jeffrey/Guthrie, Chris: Heart Versus Head: Do Judges Follow the Law or Follow Their Feelings?, Texas Law Review 93 (2015), S. 855– 923. Witt, Christian: Künstliche Intelligenz beendet menschliche Dominanz, Welt Online vom 13.12.2017. Wittgenstein, Ludwig: Logisch-philosophische Abhandlung – Tractatus logico-philo­ sophicus, Kritische Edition, 2. Aufl., Frankfurt am Main, 2001. Wittreck, Fabian: Die Verwaltung der Dritten Gewalt, Tübingen, 2006. Wixted, John/Mickes, Laura/Dunn, John/Clark, Steven/Wells, William: Estimating the reliability of eyewitness identifications from police lineups, PNAS 113 (2016), S. 304–309. Wolf, Manfred: Gerichtsverfassungsrecht aller Verfahrenszweige, Ein Studienbuch, 6. Aufl., München, 1987. Wolfangel, Eva: Können Maschinen kreativ sein?, Stuttgarter Zeitung (Online) vom 24.4.2017. Wolfangel, Eva: Die Maschinen tun, als hätten sie Gefühle, Süddeutsche Zeitung (On­ line) vom 20.2.2018. Wolff, Heinrich Amadeus/Brink, Stefan (Hrsg.): Beck’scher Onlinekommentar Daten­ schutzrecht, 28. Ed., München, 2019. Wolter, Jürgen (Hrsg.): Systematischer Kommentar zur Strafprozessordnung, Band X: Art. 1–8 EMRK, 5. Aufl., Köln, 2017. Wu, Zhe/Singh, Bharat/Davis, Larry/Subrahmanian, V. S.: Deception Detection in Videos, arXiv:1712.04415, 2017. Würtenberger, Thomas: Akzeptanz durch Verwaltungsverfahren, NJW 1991, S. 257– 263.

528 Literaturverzeichnis Würtenberger, Thomas: Wandel des Rechts in der Informationsgesellschaft, in: Lei­ pold, Dieter (Hrsg.), Rechtsfragen des Internet und der Informationsgesellschaft, Heidelberg, 2002, S. 3–19. Wyner, Adam/Casini, Giovanni (Hrsg.): Legal Knowledge and Information Systems, Amsterdam, 2017. Yager, Ronald: Concepts, Theory, and Techniques: A New Methodology for Ordinal Multiobjective Decision Based on Fuzzy Sets, Decision Sciences 12 (1981), S. 589–600. Yong, Ed: A Popular Algorithm Is No Better at Predicting Crimes Than Random Peo­ ple, The Atlantic (Online) vom 17.1.2018. Yuan, Tianyu: Lernende Roboter und Fahrlässigkeitsdelikt, RW 2018, S. 477–504. Zafar, Muhammad/Valera, Isabel/Gomez Rodriguez, Manuel/Gummadi, Krishna: Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment, Saarbrücken, 2017. Zamir, Eyal/Teichman, Doron (Hrsg.): The Oxford Handbook of Behavioral Econo­ mics and the Law, Oxford, 2014. Zaufal, Sophie: Was kann ein strafrechtlicher Tatbestand leisten?, Die Bestimmtheit von Strafnormen als hermeneutisch-methodisches Problem im Verfassungsstaat, Baden-Baden, 2018. Zeccola, Marc: Die Akzeptanz im Verwaltungsverfahren, Ein Beitrag zur Aufwertung der Akzeptanz als Rechtmäßigkeitsvoraussetzung, DÖV 2019, S. 100–107. Zehnder, Matthias: Die Aufmerksamkeitsfalle, Wie die Medien zu Populismus führen, Basel, 2017. Ziegler, Peter-Michael: Im Namen des Algorithmus, Wenn Software Haftstrafen ver­ hängt, c‘t 25 (2017), S. 68–71. Ziekow, Jan: Das Verwaltungsverfahrensrecht in der Digitalisierung der Verwaltung, NVwZ 2018, S. 1169–1172. Ziekow, Jan: Verwaltungsverfahrensgesetz, 4. Aufl., Stuttgart, 2018 – zitiert als „VwVfG“. Zippelius, Reinhold: Wertungsprobleme im System der Grundrechte, München, 1962. Zippelius, Reinhold: Rechtsphilosophie, Ein Studienbuch, 6. Aufl., München, 2011. Zippelius, Reinhold: Das Wesen des Rechts, Eine Einführung in die Rechtstheorie, 6. Aufl., Stuttgart, 2012. Zippelius, Reinhold: Juristische Methodenlehre, 11. Aufl., München, 2012 – zitiert als „Methodenlehre“. Žliobaite, Indre: Measuring discrimination in algorithmic decision making, Data ­Mining and Knowledge Discovery 31 (2017), S. 1060–1089. Žliobaite, Indre/Custers, Bart: Using sensitive personal data may be necessary for avoiding discrimination in data-driven decision models, Artificial Intelligence and Law 24 (2016), S. 183–201.

Literaturverzeichnis529 Zuck, Rüdiger: Begründungen – ihre Gründe und Grenzen, NJW 2016, S. 3573–3577. Zweig, Katharina: AlgorithmWatch, 2. Arbeitspapier: Überprüfbarkeit von Algorith­ men, Berlin, 7.6.2016. Zweig, Katharina: Wo Maschinen irren können, Fehlerquellen und Verantwortlichkei­ ten in Prozessen algorithmischer Entscheidungsfindung, Berlin, 2018. Zweig, Katharina: Algorithmische Entscheidungen: Transparenz und Kontrolle, Ber­ lin, Januar 2019. Zweig, Katharina/Krafft, Tobias: Fairness und Qualität algorithmischer Entscheidun­ gen, in: Mohabbat Kar, Resa/Thapa, Basanta/Parycek, Peter u. a. (Hrsg.), (Un)be­ rechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Berlin, 2018, S. 204–227 – zitiert als „Fairness und Qualität von Algorithmen“. Zweig, Katharina/Krafft, Tobias: Transparenz und Nachvollziehbarkeit algorithmenba­ sierter Entscheidungsprozesse, Ein Regulierungsvorschlag aus sozioinformatischer Perspektive, 2019. Zweig, Katharina/Wenzelburger, Georg/Krafft, Tobias: On Chances and Risks of Se­ curity Related Algorithmic Decision Making Systems, European Journal for Secu­ rity Research 3 (2018), S. 181–203. Zweigert, Konrad: Zur inneren Unabhängigkeit des Richters, in: Esser, Josef/Thieme, Hans (Hrsg.), Festschrift für Fritz von Hippel, zum 70. Geburtstag, Tübingen, 1967, S. 711–723 – zitiert als „Innere Unabhängigkeit“.

Sachregister Akzeptanz  67, 101, 106, 119, 122, 317 f., 341, 343 ff. Algorithmus  22 f., 139, 141, 143, 167, 172, 237, 256, 288, 301, 304 f., 311, 353, 359 ff., 376 ff., 397, 406, 419 f., 452 f. American Civil Liberties Union  376 Ankereffekt  53 ff., 452 Anvertrauens-Formel  265 Assistenzsystem siehe Entscheidungs­ unterstützungssystem Aufklärungspflicht  157, 183, 306 f. Ausnahme  194, 196 ff., 342, 356 Automation Bias  295 ff., 424 ff., 441 Automatisierung  138 ff., 150, 188 ff., 197 ff., 208 ff., 245 ff., 281, 288 ff., 304, 329, 459 f. Begründung  42 f., 78, 101, 122 ff., 228, 338 ff., 434 Bestätigungsfehler siehe Confirmation Bias Besteuerungsverfahren  153 f. Bewährung siehe Strafaussetzung Beweiswürdigung  65, 80 ff., 183, 427, 444 Big Data  145, 226, 353 f., 373 COMPAS  376 ff., 391, 399, 437 f. Confirmation Bias  63 ff., 132, 452 Datenbank  412, 423, 442 ff., 447, 449 ff., 454, 460 Datenschutz  176 f., 245 ff., 353, 443, 446, 449 Debiasing  62, 131 ff., 462 Demokratieprinzip  317 ff.

Denkfehler  45 ff. Dienstaufsicht  102, 107 f., 290 ff. Digitalisierung  22 f., 25, 138 ff., 158 ff., 165, 261 Dilemma siehe Entscheidungs-Automati­ sierungs-Dilemma Diskriminierung  76 ff., 83 ff., 118, 167 ff., 381 f., 435 f. Diskriminierungsrisiken siehe Diskrimi­ nierung Dokumentenmanagement  445 DSGVO  246 ff. Dynamische Entscheidungsfindung  201, 204 f., 325 f., 392 ff. Einzelfallgerechtigkeit siehe Individual­ gerechtigkeit Einzig richtige Entscheidung  95 ff., 124 Elektronische Akte  162, 445 Emotion  40 ff.; Empathie  160 f., 180, 227, 231 ff. Entscheidungs-Automatisierungs-Dilem­ ma  459 f. Entscheidungsunterstützung  245, 283, 288 ff., 338 f., 343 ff., 359 ff. Entscheidungsunterstützungssystem  312, 328 ff., 359 ff. Ergebnisrationalität  271 Erkenntnistheorie  37 Ermessen  96, 122, 154 ff., 180 ff., 213, 216, 341, 362, 394 Ermessensentscheidung  154, 180 ff. Ethik  105 ff., 133, 137, 237 f., 256 f., 458 Expertensystem  144, 172, 179, 209 f., 296, 356

532 Sachregister Faires Verfahren  314 ff., 331 Fairness  108, 168, 198, 256, 369, 381 ff., 435 f., 437 ff., 467 Fallilbilismus  37 Filter  63, 65, 178, 222 ff. Formalisierung  207, 210 ff., 220 f., 244 f. Framing  50 ff. Fuzzy-Logik  217, 409 ff.

Öffentliche Meinung  66 ff. One right answer siehe Einzig richtige Entscheidung

Gebundene Entscheidung  155, 181 f., 187 f. Gefühl  40 ff. Gesetzesbindung  105, 109 ff, 311 f., 429 ff.,

Rationalisierung  124, 138, 173 ff., 351, 404 f. Rationalität  32, 45 ff., 80, 130 ff., 173 ff. Rationalitätsschwäche  45 ff., 130 ff., 173 ff. Rechtliches Gehör  302 ff. Rechtsgelehrtheit  276 ff. Rechtspositivismus  95 ff. Rechtsprechende Gewalt  262 f. Rechtsprechungsmonopol  261, 272 ff. Rechtsschutz  308 f.,310 ff. Rechtsstaatsprinzip  109, 113, 120, 122, 213, 275, 298, 303, 305, 310 ff. Rechtsumsetzung  216 Regelbasierte Systeme  149 f., 194, 203 f., 325, 392 f. Richterbegriff  261 ff. Richterliche Unabhängigkeit  102 ff., 270, 288 ff., 422 ff. Richterrecht  42, 78, 110 ff., 229 ff. Risikoprognose  376 ff., 384 f., 388 f., 467 Rückschaufehler  61 ff.

Homo oeconomicus  20 f., 46 Individualgerechtigkeit  85, 196 ff. Informationelle Selbstbestimmung  145, 249 ff., 353 f. Informationslücken  178 f. Judiz  231 ff., 356, 358, 422 f. Kausalität  62, 69, 168 ff. Korrelation  35, 168 ff., 206 Kreativität  231, 235 ff. Künstliche Intelligenz   146 ff., 194 f., 204 f., 208 f. Künstliche neuronale Netze  149 f., 325 ff., 396, 406, 412, 446 Legal Tech  142, 158 ff., Lernende Systeme  142, 175 f., 189, 192, 196, 204 ff., 240 f., 322 f., 325 ff., 339 Machine learning siehe Maschinelles Lernen Mahnverfahren  156, 363, 429 Maschinelles Lernen  147 f., 204 f., 240 f. Menschenwürde  347 ff., 357, 360 Metadaten  289 ff., 393, 444 Mündlichkeitsgrundsatz  320, 366 f. Mustererkennung  149 f., 171 f., 194 f., 205, 207, 226, 236, 327, 390, 394, 453

Peak-End-Regel  59 ff. Polygraph  360, 446 Priming  50 Prinzipientheorie  95 ff. Profiling  250 f., 255 f., 260, 376 f., 437

Schematisierung  168, 191 f., 194, 197 f., 228, 244, 404 f., 415, 441 Schichten (layers)  195 Semantik  211, 214, 217 ff. Soziale Kompetenz  234, 280, 282 f., 463 Sozialverwaltungsverfahren  155 Statische Entscheidungsfindung  149 f., 202 f., 392 f. Strafaussetzung  29, 74 f., 89 f., 416 ff., 440, 467

Sachregister533 Strafzumessung  38, 52, 54 ff., 83 ff., 402 ff., 434 Strafzumessungspraxis  54 ff., 84 ff., 404 f. Syntax  217 ff. Transparenz  130, 142, 150, 195 f., 241, 255 ff., 330 ff., 385 Übernahmeautomatismus  307 f. Unabhängigkeit siehe Richterliche Unabhängigkeit

Untersuchungshaft  88, 90, 152, 377, 389, 397 ff., US-amerikanischer Strafprozess  386 f. Verfahrensermessen  183 Verwaltungsverfahren  153 ff., 181 ff., 187 ff., 308 f. Verzerrung siehe Rationalitätsschwäche Werteinstellung  172 f., 466 Widerspruchsfreiheit  125